L'unità cloud di Amazon.com ha dichiarato mercoledì di aver stretto una partnership con la startup di intelligenza artificiale Hugging Face per rendere più facile l'esecuzione di migliaia di modelli AI sui chip di calcolo personalizzati di Amazon.

Valutata 4,5 miliardi di dollari, Hugging Face è diventata un hub centrale per i ricercatori e gli sviluppatori di AI per condividere chatbot e altri software di AI ed è sostenuta da Amazon, Google di Alphabet e Nvidia, tra gli altri. È il luogo principale in cui gli sviluppatori si recano per ottenere e armeggiare con modelli di AI open-source come Llama 3 di Meta Platforms.

Ma una volta che gli sviluppatori hanno messo a punto un modello di AI open-source, in genere vogliono utilizzarlo per alimentare un software. Mercoledì scorso, Amazon e Hugging Face hanno dichiarato di aver stretto una collaborazione per rendere possibile questa operazione su un chip personalizzato di Amazon Web Services (AWS) chiamato Inferentia2.

"Una cosa molto importante per noi è l'efficienza: assicurarci che il maggior numero possibile di persone possa eseguire i modelli e che possa eseguirli nel modo più conveniente", ha detto Jeff Boudier, responsabile del prodotto e della crescita di Hugging Face.

Da parte sua, AWS spera di attirare un maggior numero di sviluppatori di AI per utilizzare i suoi servizi cloud per la fornitura di AI. Mentre Nvidia domina il mercato dell'addestramento dei modelli, AWS sostiene che i suoi chip sono in grado di far funzionare i modelli addestrati - un processo chiamato inferenza - a costi inferiori nel tempo.

"Si addestrano questi modelli forse una volta al mese. Ma si può eseguire l'inferenza su di essi decine di migliaia di volte all'ora. È qui che Inferentia2 brilla davvero", ha detto Matt Wood, che supervisiona i prodotti di intelligenza artificiale presso AWS. (Servizio di Stephen Nellis a San Francisco; Redazione di Michael Perry)