Google Cloud lanserar nya AI-chip – TPU 8t och TPU 8i
Google Cloud presenterar den åttonde generationen av egenutvecklade AI-chip, Tensor Processor Unit (TPU), som lanseras med två olika, specialutvecklade arkitekturer för träning och inferens: TPU 8t och TPU 8i.
De nya chipen, TPU 8t och TPU 8i, presenterades under Google Cloud Next och är optimerade för modellträning respektive inferens – det vill säga den löpande användningen av AI-modeller efter att de tränats. Enligt Google Cloud ska den nya generationen ge upp till tre gånger snabbare träning jämfört med tidigare versioner, samtidigt som prestanda per dollar förbättras med cirka 80 procent.
Samtidigt är satsningen inte tänkt att ersätta Nvidia i Googles datacenter, uppger bolaget, istället kompletterar de egenutvecklade chipen befintlig infrastruktur. Google bekräftar även att Nvidias senaste plattformar kommer att erbjudas i molnet framöver.
Utvecklingen speglar en bredare trend där stora molnaktörer som Amazon och Microsoft investerar i egna AI-acceleratorer för att minska beroendet av externa leverantörer.
Den nya TPU-generationen har utvecklats för att möta ökade krav från så kallade AI-agenter och storskaliga modeller. TPU 8t är optimerad för beräkningsintensiv träning och kan skalas upp till stora kluster, medan TPU 8i är designad för latenskänsliga inferensapplikationer med hög minnesbandbredd.
Båda chipen är en del av Googles AI-infrastrukturplattform och väntas bli tillgängliga för allmänheten senare i år.



