Alphabet ha presentato mercoledì il suo modello di intelligenza artificiale più avanzato, una tecnologia in grado di elaborare diverse forme di informazioni come video, audio e testo.

Chiamato Gemini, l'attesissimo modello di AI del proprietario di Google è in grado di ragionare in modo più sofisticato e di comprendere le informazioni con un grado maggiore di sfumature rispetto alla precedente tecnologia di Google, ha dichiarato l'azienda.

"Questa nuova era di modelli rappresenta uno dei più grandi sforzi scientifici e ingegneristici che abbiamo intrapreso come azienda", ha scritto il CEO di Alphabet Sundar Pichai in un post sul blog.

Dal lancio di ChatGPT di OpenAI, avvenuto circa un anno fa, Google è in corsa per produrre un software di intelligenza artificiale in grado di rivaleggiare con quanto introdotto dall'azienda sostenuta da Microsoft.

Mercoledì scorso, Google ha aggiunto una parte della nuova tecnologia del modello Gemini al suo assistente AI Bard e ha dichiarato di voler rilasciare la versione più avanzata di Gemini attraverso Bard all'inizio del prossimo anno.

Alphabet ha detto che sta realizzando tre versioni di Gemini, ognuna delle quali è progettata per utilizzare una diversa quantità di potenza di elaborazione. La versione più potente è progettata per funzionare nei centri dati, mentre la più piccola funzionerà in modo efficiente sui dispositivi mobili, ha dichiarato l'azienda.

Gemini è il modello di AI più grande che l'unità Google DeepMind AI dell'azienda ha contribuito a realizzare, ma è "significativamente" più economico da servire agli utenti rispetto ai precedenti modelli più grandi dell'azienda, ha dichiarato ai giornalisti il Vicepresidente di DeepMind, Product Eli Collins.

"Quindi non è solo più capace, è anche molto più efficiente", ha detto Collins. L'ultimo modello richiede ancora una notevole potenza di calcolo per essere addestrato, ma Google sta migliorando il suo processo, ha aggiunto.

Alphabet ha anche annunciato una nuova generazione dei suoi chip AI personalizzati, o unità di elaborazione tensoriale (TPU). La Cloud TPU v5p è progettata per addestrare modelli AI di grandi dimensioni e viene assemblata in baccelli di 8.960 chip.

La nuova versione dei suoi processori clienti può addestrare modelli linguistici di grandi dimensioni a una velocità quasi tripla rispetto alle generazioni precedenti. I nuovi chip sono disponibili per gli sviluppatori in "anteprima" a partire da mercoledì, ha dichiarato l'azienda. (Relazioni di Max A. Cherney e Stephen Nellis a San Francisco; Redazione di Jamie Freed)