• Mesterséges intelligencia,  Technikai SEO

    Adatszivárgás érintette az OpenAI API felhasználóit a Mixpanel biztonsági incidense miatt

    Az OpenAI nemrégiben reagált egy jelentős adatvédelmi incidensre, amely a Mixpanel nevű harmadik fél elemzőszolgáltatójának rendszeréből indult ki. A biztonsági rés miatt korlátozott mennyiségű elemzési adat került illetéktelen kezekbe, amely néhány OpenAI API-felhasználóhoz kapcsolódik. Fontos azonban hangsúlyozni, hogy az OpenAI saját rendszereit nem érintette az eset, így sem csevegési előzmények, sem API-kulcsok vagy érzékeny személyes adatok nem kerültek veszélybe. A Mixpanel adatvédelmi incidense és az OpenAI válasza November 9-én a Mixpanel felfedezte, hogy illetéktelen hozzáférés történt az egyik infrastruktúrájához, amely során egy támadó exportált egy adatbázist, amely ügyfélazonosító információkat tartalmazott bizonyos OpenAI API-fiókokhoz kapcsolódóan. A Mixpanel azonnal értesítette az OpenAI-t, akik közösen megkezdték az incidens kivizsgálását. November 25-én a Mixpanel…

  • Google,  Technikai SEO

    Google keresési eredmények ingadozása és Google Ads fiók feltörések – legfrissebb hírek

    Az elmúlt héten, különösen a hálaadás ünnepe környékén jelentős mozgásokat tapasztalhattunk a Google keresési találatai között. A keresőóriás több újítást vezetett be, miközben az online hirdetési fiókok biztonsága is egyre nagyobb figyelmet kap, hiszen egyre több esetben érkeznek jelzések feltört Google Ads fiókokról. Az alábbiakban összefoglaljuk a legfontosabb fejleményeket és érdekességeket a keresőpiacról és a hirdetési rendszerekből. Google keresési eredmények volatilitása és AI fejlesztések Az ünnepi időszakban tapasztalt ingadozások hátterében részben a Google friss algoritmusváltozásai állnak, melyek célja a keresési találatok minőségének és relevanciájának javítása. Kiemelkedő újdonság, hogy a Google AI Mode most már automatikusan a Gemini 3 mesterséges intelligencia motorját használja a bonyolultabb keresési lekérdezések megválaszolására. Ez a fejlesztés…

  • Mesterséges intelligencia,  Technikai SEO

    Csak néhány mérgezett dokumentum is képes megfertőzni a nagy nyelvi modelleket

    Az utóbbi években a nagy nyelvi modellek (LLM-ek) egyre nagyobb szerepet kaptak a mesterséges intelligencia területén, ám biztonsági szempontból új kihívásokkal is szembesülünk. Egy friss, az Egyesült Királyság AI Security Institute, az Alan Turing Institute és az Anthropic kutatóinak közös tanulmánya rávilágít arra, hogy mindössze néhány száz rosszindulatú dokumentum elegendő ahhoz, hogy „hátsóajtó” sebezhetőséget hozzanak létre bármilyen méretű nyelvi modellben, függetlenül attól, hogy mennyi az adott modell tanítóadata. Ez a megállapítás alapjaiban kérdőjelezi meg azt a korábbi feltételezést, miszerint a támadóknak jelentős arányban kellene irányítaniuk a modell tanítóanyagát ahhoz, hogy sikeres adatmérgező támadást hajtsanak végre. Ezzel szemben kiderült, hogy egy fix, viszonylag alacsony mennyiségű rosszindulatú adat is elegendő lehet a…