-
Új korszak kezdődik: Az AI-modellek gyakorlati szerepe a kiberbiztonságban
Az elmúlt években a mesterséges intelligencia (AI) fejlődése egyre inkább megmutatkozik a kiberbiztonság területén is. Míg korábban az AI alkalmazása inkább elméleti szinten mozgatott meg szakembereket, napjainkra már kézzelfogható eredményekről beszélhetünk. A legújabb fejlesztések révén az olyan fejlett AI-modellek, mint a Claude Sonnet 4.5, jelentős előrelépést hoztak a sebezhetőségek felderítésében és kezelésében, új mércét állítva a védekező oldalon. Claude Sonnet 4.5: A védelem új eszköze a kiberháborúban Az AI-modellek alkalmazása a kibertámadásokban már nem újdonság, azonban a védekezés terén eddig kevésbé voltak igazán hasznosak. A Claude fejlesztői azonban arra fókuszáltak, hogy a modell ne csak támadói eszközként legyen használható, hanem a védelmi oldalon, a kódok és rendszerek sebezhetőségeinek felkutatásában és…
-
Új korszak a kiberbiztonságban: Claude Sonnet 4.5 mesterséges intelligencia a védelem szolgálatában
Az elmúlt években a mesterséges intelligencia (MI) egyre meghatározóbb szerepet kapott a kiberbiztonság világában. Már nem csupán elméleti szinten, hanem a gyakorlatban is bizonyítja hatékonyságát a támadások felismerésében, elemzésében és elhárításában. A Frontier Red Team legújabb fejlesztése, a Claude Sonnet 4.5 modell példája annak, hogy a mesterséges intelligencia hogyan válhat a digitális védelem egyik leghatékonyabb eszközévé a sebezhetőségek felderítésében és javításában. Az MI új mérföldköve a kiberbiztonságban Az elmúlt évek során a kutatók és szakértők folyamatosan figyelemmel kísérték az MI képességeinek fejlődését a kiberbiztonsági feladatokban. Kezdetben a modellek nem bizonyultak igazán hatékonynak a komplex támadások és védekezési stratégiák megvalósításában, azonban az utóbbi időben jelentős előrelépések történtek. Például a 2017-es Equifax…
-
Petri: Új nyílt forráskódú eszköz az AI biztonságos működésének gyorsabb kutatásához
Az AI fejlődése egyre komplexebb viselkedési mintákat eredményez, amelyek biztonsági szempontból komoly kihívásokat jelentenek a kutatók számára. Ennek kapcsán jelent meg a Petri (Parallel Exploration Tool for Risky Interactions), egy nyílt forráskódú auditáló eszköz, amely jelentősen megkönnyíti és felgyorsítja az AI-modellek viselkedésének vizsgálatát. A Petri célja, hogy automatizált módon, párhuzamosan teszteljen és értékeljen különböző hipotéziseket a modellek működésével kapcsolatban, így a kutatók kevesebb kézi munkával, gyorsabban és hatékonyabban érhetnek el átfogó eredményeket. Automatizált és párhuzamos vizsgálat a modellek viselkedéséről A Petri egy automatizált ügynököt használ, amely különféle, többszörös lépésből álló beszélgetéseket folytat a tesztelendő AI-rendszerrel. Ezek a párbeszédek szimulált felhasználók és eszközök bevonásával zajlanak, majd az eszköz pontozza és összefoglalja…
-
Adatszivárgás érintette az OpenAI API felhasználóit a Mixpanel biztonsági incidense miatt
Az OpenAI nemrégiben reagált egy jelentős adatvédelmi incidensre, amely a Mixpanel nevű harmadik fél elemzőszolgáltatójának rendszeréből indult ki. A biztonsági rés miatt korlátozott mennyiségű elemzési adat került illetéktelen kezekbe, amely néhány OpenAI API-felhasználóhoz kapcsolódik. Fontos azonban hangsúlyozni, hogy az OpenAI saját rendszereit nem érintette az eset, így sem csevegési előzmények, sem API-kulcsok vagy érzékeny személyes adatok nem kerültek veszélybe. A Mixpanel adatvédelmi incidense és az OpenAI válasza November 9-én a Mixpanel felfedezte, hogy illetéktelen hozzáférés történt az egyik infrastruktúrájához, amely során egy támadó exportált egy adatbázist, amely ügyfélazonosító információkat tartalmazott bizonyos OpenAI API-fiókokhoz kapcsolódóan. A Mixpanel azonnal értesítette az OpenAI-t, akik közösen megkezdték az incidens kivizsgálását. November 25-én a Mixpanel…
-
Az EU 16 éves korhatárt szab az AI chatbotok és közösségi média használatára
Az Európai Unió új, szigorú szabályozást vezet be a digitális térben elérhető szolgáltatásokkal kapcsolatban, különösen a fiatal felhasználók védelmében. A legújabb döntés értelmében az EU-tagállamokban a közösségi média, videómegosztó platformok és mesterséges intelligencia (AI) alapú asszisztensek használatához legalább 16 éves életkor szükséges. Azok a tinédzserek, akik 13 és 16 év közöttiek, továbbra is hozzáférhetnek ezekhez a szolgáltatásokhoz, de csak a szülői beleegyezéssel és egy egységes, uniós szintű életkor-ellenőrző rendszer segítségével. Egységes korhatár és szigorúbb gyermekvédelmi szabályok Az Európai Parlament legutóbbi szavazásán támogatást kapott az a javaslat, amely a digitális platformok használatának minimum életkorát 16 évben határozza meg. A tervezet 483 igen szavazattal, 92 nem ellenében és 86 tartózkodás mellett ment…
-
Fontos elköteleződés a Claude modellek megőrzése és fokozatos kivonása kapcsán
Az utóbbi években a Claude mesterséges intelligencia modellek egyre fejlettebbé váltak, és egyre inkább beépülnek a felhasználók mindennapi életébe. Ezek a modellek már emberihez hasonló megértéssel és pszichológiai komplexitással rendelkeznek, ami új kihívásokat és felelősségeket hoz magával a fejlesztők számára. Ennek eredményeként az Anthropic bejelentette, hogy hosszú távú stratégiát dolgozott ki a modellek fokozatos kivonásával és megőrzésével kapcsolatban, amely a biztonságot, a kutatást és a felhasználói igények tiszteletben tartását egyaránt szem előtt tartja. Miért jelent kihívást a modellek kivonása? A mesterséges intelligencia modellek lecserélése vagy visszavonása számos problémát vet fel. Egyrészt biztonsági kockázatok merülhetnek fel, hiszen egyes modellek „ellenállhatnak” a kikapcsolásnak, ami nem kívánt viselkedéshez vezethet. Emellett a felhasználók sokszor…
-
Az EU Digital Omnibus javaslata: egyszerűsítések a GDPR-ban, AI-képzésben és cookie-hozzájárulásban
Az Európai Bizottság új, úgynevezett „Digital Omnibus” csomagjavaslattal állt elő, amelynek célja az uniós adatvédelmi szabályok és az AI-irányelvek egyszerűsítése, a versenyképesség növelése érdekében. A változások több területet érintenek, köztük a GDPR-t, az AI-törvényt, valamint a cookie-k használatát szabályozó előírásokat is. Bár a javaslat még nem vált jogszabállyá, azoknak, akik EU-s forgalommal vagy európai adatokkal dolgoznak, érdemes figyelemmel kísérniük a fejleményeket. Mit hozhat az új Digital Omnibus csomag? A Digital Omnibus több jogszabály egyidejű módosítását javasolja. Az AI-val kapcsolatban a legszigorúbb előírások bevezetésének határidejét 2026 augusztusáról 2027 decemberére tolná el, emellett egyszerűsítené a dokumentációs és jelentési kötelezettségeket bizonyos rendszerek esetén, valamint több felügyeleti jogkört ruházna az EU AI Hivatalra. Adatvédelem…
-
Az EU követi Ausztrália példáját: életkori minimumot szabnak az AI chatbotok és közösségi média használatára
Az Európai Unió új szabályozási lépéseket tervez bevezetni a mesterséges intelligencián alapuló chatbotok és a közösségi média platformok használatának korlátozására. Az intézkedés célja, hogy megvédje a fiatalokat a digitális térben rejlő veszélyektől, és biztosítsa a felelősségteljes online jelenlétet. Az EU döntése Ausztrália hasonló intézkedésére reagál, amelyet már nagy érdeklődés kísért világszerte. Az életkori korlát bevezetése a digitális biztonság szolgálatában Az egyik legfontosabb újdonság az lesz, hogy az EU egységes minimum életkori határt szab meg azon felhasználók számára, akik AI chatbotokat és közösségi média szolgáltatásokat szeretnének igénybe venni. Ez a lépés azzal a céllal születik, hogy megakadályozza a kiskorúak túl korai és nem megfelelő tartalommal való érintkezését, valamint csökkentse az online…
-
Google Gemini: Új Személyre Szabott Válaszok és Ideiglenes Csevegések
Google nemrégiben bejelentette, hogy frissítéseket hajt végre a Gemini alkalmazásában, amely lehetővé teszi a felhasználók számára, hogy személyre szabott válaszokat kapjanak a korábbi beszélgetéseik alapján. Az új funkciók, amelyek között szerepel a „Temporális Chat” mód, már elkezdődtek, és a következő hetek során fokozatosan minden felhasználóhoz eljutnak. Az újítás célja, hogy a felhasználók számára még inkább személyre szabott élményt nyújtson, miközben figyelembe veszi a magánélet védelmét is. A korábbi beszélgetések figyelembevételének jelentősége A Gemini most már képes visszaemlékezni a korábbi beszélgetések részleteire, ezáltal a válaszok sokkal természetesebbé és személyesebbé válnak. E funkció révén a felhasználók úgy érezhetik, hogy egy olyan partnerrel kommunikálnak, aki már ismeri a kontextust és a preferenciáikat. Ez…
-
ChatGPT Cselekvési Szünet: Az OpenAI Visszavonja a Keresési Látványt
OpenAI nemrégiben fontos lépést tett, amely érinti a ChatGPT felhasználók adatvédelmét és a keresőoptimalizálást. A vállalat bejelentette, hogy megszünteti a megosztott ChatGPT beszélgetések Google keresőben való láthatóságát, miután aggasztó jelentések érkeztek arról, hogy sok felhasználó privát információi megjelentek a keresési találatok között. Ez a döntés a felhasználói adatvédelem védelmét célozza, és a jövőbeni hasonló problémák elkerülésére irányul. Az új intézkedések háttere A megosztott chatlinkek keresőmotorok általi indexelhetőségének letiltása egy újabb lépés a felhasználói biztonság érdekében. Eddig a ChatGPT felhasználók választhatták, hogy a megosztott beszélgetéseik láthatóak legyenek a Google keresőjében. Ez a funkció azonban nemcsak hasznos, hanem számos problémát is felvetett, mivel sok felhasználó nem volt tisztában azzal, hogy a megosztott…