
Le aziende di tutto il mondo spendono cifre astronomiche per accaparrarsi le GPU più potenti, essenziali per addestrare i modelli di intelligenza artificiale più avanzati. Gli investitori, intanto, scrutano i bilanci delle grandi compagnie tecnologiche, preoccupati dagli ingenti investimenti in conto capitale (Capex) necessari a sostenere questa corsa tecnologica.
Amazon ha deciso di non limitarsi a comprare, ma di costruire.
La sua mossa più incisiva non è un nuovo modello linguistico, ma l’introduzione di AWS Trainium 3, il motore hardware progettato per l'AI che promette di cambiare le regole del gioco economico.


Presentato in occasione dell’evento re:Invent, questo chip AI proprietario AWS
- a 3 nanometri non è semplicemente un’innovazione ingegneristica; è una dichiarazione di guerra ai costi insostenibili dell'AI moderna. L’obiettivo strategico è chiaro: abbattere drasticamente le spese di addestramento e inferenza, permettendo a più imprese di accedere a risorse che fino a oggi erano appannaggio di una ristretta élite. La maggior parte degli analisti concorda che l'attuale modello di sviluppo dell’AI, basato su cluster di GPU sempre più esosi e energivori, è diventato economicamente insostenibile per la maggioranza delle organizzazioni.
Amazon, forte del suo pragmatismo commerciale, sta costruendo l'infrastruttura cloud per modelli fondazione direttamente in casa.
Il Trainium 3 costituisce il cuore dei nuovi UltraServers Trn3
- e rappresenta un vero e proprio salto generazionale focalizzato sull'efficienza scalabile per il settore B2B.
I dati fondamentali per chi misura la produttività e i bilanci sono impressionanti:
- La potenza di calcolo raggiunge un incremento fino a 4,4 volte superiore rispetto alla generazione precedente (Trainium2);
- L'efficienza energetica mostra un miglioramento del 40%, un dato vitale in un momento in cui i data center consumano risorse pari a quelle di piccole nazioni;
- La densità è elevatissima: ogni server integra fino a 144 chip Trainium 3, creando un sistema coeso perfetto per la gestione di modelli massivi;
- Il sistema di networking avanzato riduce la latenza al di sotto dei 10 microsecondi tra i chip, caratteristica indispensabile per i modelli Mixture-of-Experts (MoE)
- che richiedono uno scambio di dati quasi istantaneo.
L'impatto economico di questa innovazione va ben oltre le pure metriche di potenza.
La vera notizia per le imprese europee e per il dinamico mercato italiano, in particolare nelle piazze tecnologiche di Milano e Roma, è il significativo taglio sui costi operativi.
Clienti strategici come Anthropic, sviluppatori del modello Claude
- che compete direttamente con ChatGPT, insieme a realtà in crescita come Decart
- e Splash Music, stanno già utilizzando la piattaforma Trainium e registrano una riduzione dei costi fino al 50%.
Questa ottimizzazione costi addestramento AI
- genera conseguenze importanti sul panorama competitivo. Innanzitutto, Amazon riduce in modo sostanziale la sua dipendenza, e quella dei suoi clienti, dal fornitore che detiene il monopolio di fatto nel silicio per l'AI, portando a una chiara riduzione dipendenza Nvidia B2B.
Questo miglioramento dei margini rafforza la posizione di AWS nel mercato cloud.
Inoltre, l’abbassamento delle barriere all’ingresso stimola la nascita di nuovi modelli di business.
Se l'inferenza e l'addestramento costano la metà, diventano economicamente fattibili servizi come i video generativi in tempo reale, che fino a poco tempo fa non potevano stare in piedi a livello di conto economico.
Grazie ai nuovi EC2 UltraClusters, AWS può connettere in rete fino a un milione di chip.
Questa potenza di fuoco è quella richiesta per addestrare i modelli di fondazione del prossimo futuro, rendendola disponibile non solo a chi possiede budget illimitati, ma a una platea più vasta di innovatori. L’approccio di Amazon con i suoi ASIC (Application Specific Integrated Circuit)
- non è unico nel settore.
Anche Google ha sviluppato da tempo le sue Tensor Processing Units (TPU)
- e Meta sta lavorando ai suoi chip MTIA.
Ciò nonostante, Amazon ha scelto di spingere aggressivamente il suo Trainium 3 come uno standard centrale per tutti i clienti AWS, con il chiaro intento di sfidare direttamente il predominio delle GPU Nvidia nell'ambiente cloud.
Con una mossa definibile come “realpolitik tecnologica”, Amazon ha già guardato al futuro, anticipando l'arrivo di Trainium 4.
La sorpresa risiede nel fatto che questa prossima generazione supporterà la tecnologia NVLink Fusion
- di Nvidia.
Ciò significa che Amazon, pur agendo da diretto concorrente nel settore del silicio, sta pianificando di consentire l’integrazione ibrida dei propri chip AI proprietari AWS con quelli di Nvidia nei propri rack.
Questo approccio pragmatico e flessibile garantisce ai clienti AWS la possibilità di ottimizzare le performance massime, sfruttando il meglio delle due tecnologie all'interno della medesima infrastruttura cloud.

Dir. Responsabile Gigi Beltrame - Dir. Editoriale Claudio Gandolfo
Il magazine ha cadenza settimanale, esce online il mercoledì mattina alle 7. La redazione posta alcune notizie quotidianamente, senza alcuna cadenza fissa.
Inoltre BusinessCommunity.it realizza la miglior rassegna economico finanziaria sul web, aggiornata in tempo reale.
Tutti gli articoli pubblicati dal 2014 nei magazine
© 2009-2025 BusinessCommunity.it. Tutti i Diritti Riservati. P.I 10498360154