Google,  Mesterséges intelligencia

Bemutatkozik az Ironwood: a Google Cloud legújabb, hetedik generációs TPU-ja

A mesterséges intelligencia fejlődése egyre nagyobb igényt támaszt a gyors és hatékony számítási kapacitás iránt. Ennek megfelelve a Google Cloud bemutatta legújabb, hetedik generációs Tensor Processing Unitját (TPU), az Ironwoodot, amely a legfejlettebb és leggazdaságosabb egyedi chipek közé tartozik. Ez a szuperszámítógépes megoldás kimondottan a nagy mennyiségű, alacsony késleltetésű AI feladatok futtatására készült, így új dimenziókat nyit az AI-modellek működtetésében.

Az Ironwood a következő generációs AI-használatra optimalizált

Az iparág fókusza egyre inkább a hatékony, valós idejű AI-interakciókra helyeződik, így a hangsúly a modellképzésről az inferencia, vagyis a már betanított modellek gyors és pontos használatára tevődik át. Az Ironwood ennek a kornak a hardveres megoldása: kifejezetten úgy tervezték, hogy nagy volumenű, alacsony késleltetésű AI-inferencia és modellkiszolgálás számára nyújtson páratlan teljesítményt. Egyetlen chip teljesítménye a korábbi generációhoz képest több mint négyszeresére nőtt, miközben az energiahatékonyság is jelentősen javult. Ez az előrelépés nemcsak a gyorsabb működést teszi lehetővé, hanem fenntarthatóbbá is teszi az AI-szolgáltatások futtatását.

Szupergépi hálózat: több ezer chip egyetlen rendszerben

Az Ironwood a Google AI Hypercomputer rendszerének alapköve, amely egy integrált szuperszámítógép-komplexum a számítási, hálózati, tárolási és szoftveres teljesítmény fokozására. A rendszerben az egyedi TPU-kat úgynevezett podokba szervezik, amelyek egymással szoros kapcsolatban állnak. Az Ironwood esetében ez a skálázhatóság egészen 9216 chipig terjed egyetlen szuperpodon belül. Ezek a chipek egy áttörő Inter-Chip Interconnect (ICI) hálózaton keresztül kommunikálnak, amely 9,6 terabit/másodperc adatátviteli sebességet biztosít.

Ez a hatalmas kapcsolódási rendszer lehetővé teszi, hogy a több ezer chip gyorsan megossza az adatokat, hozzáférve egy elképesztő, 1,77 petabájtos megosztott nagy sávszélességű memóriához. Ennek köszönhetően az adatforgalmi szűk keresztmetszetek megszűnnek, ami jelentősen csökkenti a szükséges számítási órák és az energiafelhasználás mértékét az AI-képzési és futtatási folyamatok során.

Az AI által tervezett AI-hardver: az Ironwood fejlesztésének titka

Az Ironwood fejlesztése során a Google egyedi megközelítést alkalmazott: a kutatók és hardvermérnökök szoros együttműködésben dolgoznak, így a legújabb AI-modellek igényei közvetlenül beépülnek a processzorok tervezésébe. Míg más cégek külső gyártókra támaszkodnak, a Google DeepMind kutatói és a TPU mérnökei közösen alakítják ki az új architektúrákat, mint például a Gemini modellhez szükséges fejlesztéseket.

Ráadásul a jövőbeli chipgenerációkat maga az AI tervezi: az úgynevezett AlphaChip módszer segítségével megerősítéses tanulás révén optimalizálják a lapkák elrendezését. Ez az innovatív technika már három generáción átívelően – beleértve az Ironwoodot is – jelentős teljesítményjavulást eredményezett, így a hardver és az AI fejlődése szoros kölcsönhatásban halad előre.

Az Ironwood megjelenése jelentős mérföldkő a mesterséges intelligencia hardveres támogatásában, amely lehetővé teszi a Google Cloud ügyfelei számára, hogy a legmodernebb AI-modelleket gyorsabban, hatékonyabban és fenntarthatóbb módon futtassák. Ez az új TPU nemcsak a jelen, hanem a jövő AI-alkalmazásainak is szilárd alapot biztosít.

Forrás: az eredeti angol cikk itt olvasható