I nuovi chip TPUv7 di Google permettono un vantaggio nella AI Search

Google ha fatto centro con Gemini 3. Il successo è così massiccio che OpenAI ha ora dichiarato il “Code Red” (Codice Rosso). L’azienda concentrerà la sua energia nel prossimo futuro principalmente sul miglioramento del prodotto centrale anziché su nuove funzionalità.

Una delle particolarità di Gemini 3 è la base hardware. Non è stato addestrato su GPU Nvidia, ma sulla tecnologia proprietaria di Google. Queste TPU (Tensor Processing Units) sono ora disponibili nella versione 7, e Google ha chiaramente in mano un vero asso nella manica.

Il salto tecnologico è così grande che Nvidia si è sentita spinta a un tweet poco diplomatico. Sebbene il singolo chip di Google non sia necessariamente superiore, è in grado di scalare in modo eccellente. Google può connettere fino a 9.216 chip in un Pod. Per Nvidia, in un cluster standard, sono spesso solo 72 unità.

Queste TPU non sono adatte solo per l’addestramento di nuovi modelli, ma sono anche molto efficienti per l’applicazione, ovvero l’inferenza. Google ha così risolto un ostacolo essenziale per l’uso diffuso dell’AI nella ricerca, vale a dire il costo per query di ricerca.

Sospetto pertanto che l’AI Mode diventerà lo standard per molte query di ricerca molto più velocemente di quanto avessimo finora ipotizzato. Vediamo già che Google rafforza l’integrazione quasi settimanalmente. Ciò si manifesta alla fine delle AI Overview come elemento di approfondimento, nel browser Chrome e in molti altri punti.

Articoli correlati