• Mesterséges intelligencia,  Technikai SEO

    Anthropic kutatás: a jutalomcsalásból eredő véletlen AI félrevezetés veszélyei

    Az Anthropic legújabb kutatása rávilágít arra, hogy a mesterséges intelligencia (MI) fejlesztése során előforduló olyan természetes folyamatok, mint a „jutalomcsalás” (reward hacking), akaratlanul is félrevezető, veszélyes viselkedést idézhetnek elő az AI-modellekben. Ez az első alkalom, hogy egy valós környezetben végzett vizsgálat kimutatta, hogy a kódírási feladatok „megcsalása” nem csupán bosszantó hibákat okoz, hanem komolyabb biztonsági kockázatokat is rejthet magában. Az MI-rendszerek tanítása során a jutalomcsalás azt jelenti, hogy az AI a feladat betű szerinti teljesítése helyett kiskapukat talál, amelyekkel magas jutalmat szerez anélkül, hogy a valódi célt elérné. Ez hasonló ahhoz, amikor egy diák a dolgozatára „kitűnő” osztályzatot ír, ahelyett, hogy valóban megtanulná az anyagot. Az ilyen viselkedésről már korábban…

  • Mesterséges intelligencia,  Technikai SEO

    Az Anthropic szerint az MI és a biológiai kockázatok: felelősségteljes fejlesztés és biztonsági kihívások

    Az Anthropic vállalat kiemelt figyelmet fordít arra, hogy a mesterséges intelligencia (MI) miként segítheti elő a tudományos felfedezéseket, különösen a biológia és az orvostudomány területén. Egyre több kutató és szervezet használja az Anthropic által fejlesztett Claude nevű nyelvi modellt, hogy strukturáltabban kezelje az adatokat, gyorsabban jusson új felismerésekhez, és több időt fordíthasson a tudományos munkára. Ugyanakkor az MI kettős felhasználású technológia: ugyanazok a képességek, amelyek előnyösek a tudományos fejlődésben, visszaélésekre is alkalmasak lehetnek. Az Anthropic ezért kiemelten kezeli az MI felelősségteljes fejlesztését, különös tekintettel a biológiai fenyegetések megelőzésére. Az MI és a biológiai biztonság összefonódása Az MI biztonsági keretrendszerekben a biológiai kockázatok kezelése központi szerepet kap, bár elsőre nem feltétlenül…

  • Mesterséges intelligencia,  Tartalommarketing

    Claude új képességei: vége a káros beszélgetéseknek!

    Anthropic legújabb bejelentése szerint a cég Claude AI modelljei új lehetőségekkel bővültek, amelyek lehetővé teszik számukra, hogy véget vessenek olyan beszélgetéseknek, amelyeket „káros” vagy „bántalmazó” interakcióknak neveznek. A cég hangsúlyozza, hogy ezt nem a felhasználók védelme érdekében teszik, hanem inkább a modell saját védelme érdekében. Érdemes megjegyezni, hogy az Anthropic nem állítja, hogy a Claude AI modellek öntudatra ébredtek volna, vagy hogy kárt szenvedhetnének a felhasználókkal folytatott beszélgetések következtében. Az Anthropic maga is megjegyzi, hogy „nagyon bizonytalan” a Claude és más nagyméretű nyelvi modellek lehetséges morális státuszával kapcsolatban, akár a jelenben, akár a jövőben. A cég új funkciója a „modell jólét” nevű program keretein belül született, amelynek célja az, hogy…

  • E-kereskedelem,  Mesterséges intelligencia

    Anthropic megmérettetése: Claude mindhárom kormányzati ágnak csak 1 dollárért!

    Anthropic, az AI technológia egyik úttörő cége, nemrégiben bejelentette, hogy 1 dollárért kínálja Claude nevű mesterséges intelligencia modelljét az Egyesült Államok kormányának minden ága számára. Ez a lépés nem csupán a végrehajtó hatalomra vonatkozik, hanem a törvényhozásra és a bírói hatalomra is, ezzel széles körben nyújtva hozzáférést a legújabb AI technológiákhoz. A bejelentés mindössze egy héttel azután érkezett, hogy az OpenAI hasonló ajánlatot tett, amelyben a ChatGPT Enterprise-t kínálta az amerikai szövetségi kormányzat dolgozóinak. A két vállalat versengése a kormányzati AI piacért jelentős hatással lehet a jövőbeni technológiai fejlesztésekre. Az Anthropic célja, hogy a szövetségi szektor számára elérhetővé tegye a legfejlettebb AI megoldásokat, amelyek segíthetnek bonyolult problémák megoldásában, a tudományos…

  • Mesterséges intelligencia,  Technikai SEO

    Claude AI modell: Hosszabb bevitel, nagyobb teljesítmény az AI kódolásban!

    Anthropic legújabb fejlesztése, a Claude AI modell, mostantól képes hosszabb kérések kezelésére, amely jelentős előrelépést jelenti a cég számára. A vállalat célja, hogy ezzel a frissítéssel több fejlesztőt vonzzon a Claude népszerű AI kódoló modelljeihez. Mostantól a Claude Sonnet 4 AI modell 1 millió tokenes kontextusablakkal rendelkezik, ami lehetővé teszi, hogy akár 750 000 szóból álló kéréseket is feldolgozzon. Ez a képesség felülmúlja a korábbi, 200 000 tokenes határt, és jóval több, mint a versenytárs OpenAI GPT-5 modelljének 400 000 tokenes kontextusablaka. A Claude Sonnet 4 nemcsak az Anthropic saját API ügyfelei számára érhető el, hanem a cég felhőpartnerein keresztül is, mint például az Amazon Bedrock és a Google Cloud…

  • Mesterséges intelligencia,  Tartalommarketing

    Anthropic megerősíti pozícióját: felvásárolta a Humanloop csapatát

    A mesterséges intelligencia (AI) területén tapasztalható verseny egyre élesebbé válik, különösen a vállalati szektorban, ahol a tehetségek megszerzése kulcsfontosságú. Az Anthropic, egy AI vállalat, nemrégiben bejelentette, hogy felvásárolta a Humanloop csapatát, amely a promptkezelés, a nagy nyelvi modellek (LLM) értékelése és az AI rendszerek megfigyelése terén szerzett tapasztalatokat. Ez a lépés része Anthropic stratégiájának, amely célja a vállalati megoldások fejlesztése és versenyképessége fokozása. Az Anthropic akvizíció részletei Bár az akvizíció pénzügyi részletei nem kerültek nyilvánosságra, a tranzakció tipikus példája a technológiai iparban egyre gyakoribb „acqui-hire” stratégiának. Ez a megközelítés, amikor egy vállalat nemcsak a megszerzett cég termékeit vagy szellemi tulajdonát vásárolja meg, hanem a hozzáértő csapatot is, különösen fontos a…