Semiconduttori

Il termine “semiconduttori” indica un materiale la cui conduttività elettrica è intermedia tra quella dei metalli e quella degli isolanti. Questa proprietà consente di controllare con estrema precisione la quantità e la direzione della corrente elettrica che circola in un dispositivo. Ma c'è di più: è possibile regolare il loro comportamento in modo che reagiscano al calore, alla luce o ad altri segnali elettrici. Ciò consente di creare componenti in grado di generare, memorizzare e trasmettere informazioni. I semiconduttori sono oggi al centro di tutta l'elettronica che ci circonda, dalla lavatrice allo smartphone.

Silicio

Esistono diversi materiali semiconduttori, ma il silicio è di gran lunga il più utilizzato, soprattutto per la sua abbondanza in natura e per le sue proprietà elettriche e termiche adatte a numerose applicazioni elettroniche. Altri materiali, come il tellurio o il carburo di silicio, sono utilizzati per casi più specifici.

CPU

Più comunemente chiamato processore, è spesso paragonato al cervello del computer o del server. Questo componente consente di interpretare i segnali e rendere possibili i calcoli. Nel campo dell'IA, la CPU gestisce compiti generali: orchestrazione, comunicazione di rete, gestione della memoria, flussi in entrata e in uscita... È essenziale per distribuire una grande quantità di dati senza rallentare l'intero processo.

GPU

Il processore grafico eccelle nell'elaborazione parallela grazie ai suoi numerosi core, meno potenti singolarmente rispetto a quelli di una CPU, ma in grado di gestire un grande volume di operazioni simultanee. È questa architettura che lo rende un alleato indispensabile per le attività legate all'IA o al rendering grafico.

ASIC

Gli ASIC sono chip progettati per un compito ben preciso. Nel campo dell'IA, alcuni ASIC, chiamati NPU, sono ottimizzati per casi d'uso specifici come il riconoscimento vocale o la visione artificiale. Meno versatili ma più efficienti, consumano anche meno energia rispetto a chip più generici come GPU o TPU.

TPU

Abbreviazione di Tensor Processing Unit, è un processore sviluppato da Google per accelerare l'addestramento dei suoi modelli di IA. Meno flessibile di una GPU, è tuttavia estremamente efficiente in compiti specifici come i calcoli matriciali.

SoC (System on Chip)

Dominato principalmente da Arm, i SoC (sistemi su chip) integrano diversi moduli, CPU, GPU, controller periferici, ecc. su un unico chip. Si trovano negli smartphone, nei tablet e persino in alcuni computer portatili. Consentono di compattare i componenti, rendendo i dispositivi più sottili e leggeri.

XPU

Termine generico che designa l'insieme delle unità di elaborazione specializzate (CPU, GPU, TPU, ecc.). Inizialmente utilizzato nel marketing, è oggi ampiamente adottato nel mondo dell'IA quando si parla dell'insieme dei chip di un server o di un'infrastruttura.

Architettura

È il modo in cui un processore è progettato per funzionare: elaborazione delle informazioni, comunicazione con la memoria, numero di istruzioni simultanee, ecc. Le due architetture principali sono: x86 (utilizzata principalmente da Intel e AMD) e Arm (progettata dall'omonima azienda).

Fabless

Questo termine indica le aziende che progettano chip (schemi, architettura, prestazioni...) senza possedere uno stabilimento di produzione. Affidano questo compito a fonderie specializzate.

Fonderie

Le fonderie, come TSMC, producono chip sulla base dei progetti forniti dai progettisti. Questa fase, molto delicata, si svolge in una fab, un ambiente controllato dove si trovano tutte le macchine necessarie alla produzione.

OEM

Un OEM (Original Equipment Manufacturer) è un'azienda che produce hardware per altri marchi. Nell'IA, ad esempio, gli OEM assemblano server a partire da chip Nvidia affinché le aziende possano addestrare e utilizzare i propri modelli.

Wafer

Si tratta di una sottile fetta rotonda di silicio su cui sono incisi migliaia di circuiti elettronici. È il punto di partenza di ogni chip IA. Una volta prodotto, il wafer viene tagliato in singole unità (o dies) che diventeranno GPU, CPU o ASIC.

Processi di incisione

Si tratta delle tecniche (EUV, fotolitografia, ecc.) utilizzate per disegnare i transistor sul wafer. L'incisione avviene su scala nanometrica e la sua finezza consente di aumentare la potenza migliorando al contempo l'efficienza energetica.

Nodo

Indica la finezza dell'incisione di un transistor, espressa in nanometri (ad esempio 3 nm). Più piccolo è il nodo, più i chip sono performanti, compatti ed economici in termini di consumo energetico.

Transistor

Il transistor è un minuscolo componente elettronico che controlla la corrente in un circuito, come un interruttore o un amplificatore. Presente in miliardi di esemplari nei nostri chip, è essenziale per il funzionamento dei processori, motori dell'IA.

Legge di Moore

Nel 1965, Gordon Moore, cofondatore di Intel, predisse che il numero di transistor su un chip sarebbe raddoppiato ogni anno. Nel 1975 modificò la sua previsione portando il ritmo a due anni. Questa legge, diventata simbolo dell'innovazione, oggi tende a rallentare: il raddoppio avviene piuttosto ogni tre anni.

LLM

Un grande modello di linguaggio (o LLM) è un programma basato sull'intelligenza artificiale in grado di comprendere e generare testo. Si basa su un gigantesco database e continua a migliorare man mano che viene utilizzato.

Training

È la fase in cui si “alimenta” un'IA con un database enorme. Questo processo è essenziale per consentirgli di imparare a risolvere problemi senza istruzioni esplicite.

Inferenza

L'inferenza è la capacità di un'IA di trarre conclusioni da ciò che ha imparato. Esempio: un'IA addestrata a riconoscere le automobili sarà in grado di identificare la marca e il modello di un veicolo sconosciuto in un nuovo database.

Fine-tuning

Dopo un addestramento generale, è possibile affinare un'IA con dati più mirati per specializzarla. In questo modo si ottengono modelli ultra precisi su compiti come la traduzione automatica o il rilevamento di un organo specifico in un'immagine medica.