Qualcomm AI200 e AI250: l’IA generativa entra nei data center
Qualcomm Technologies ha annunciato le nuove soluzioni Qualcomm AI200 e AI250, progettate per rivoluzionare l’inferenza di intelligenza artificiale generativa nei data center.
Basate su architetture NPU di ultima generazione, offrono prestazioni su scala rack, maggiore capacità di memoria e un’efficienza energetica ai vertici del settore.
L’obiettivo è chiaro: garantire un’IA più scalabile, flessibile e conveniente per un numero sempre maggiore di aziende.
Qualcomm AI200: inferenza AI ottimizzata su scala rack
La nuova Qualcomm AI200 introduce una piattaforma di inferenza AI pensata per ridurre il costo totale di proprietà (TCO) e migliorare le prestazioni dei modelli linguistici di grandi dimensioni (LLM e LMM).
Ogni scheda integra 768 GB di memoria LPDDR, offrendo capacità elevate a costi ridotti.
Questa configurazione consente di gestire carichi di lavoro complessi in modo rapido, mantenendo bassi consumi e alta flessibilità operativa.
Qualcomm AI250: efficienza e potenza con il near-memory computing
La soluzione Qualcomm AI250 segna un vero salto generazionale.
Grazie a un’architettura di memoria near-memory computing, offre una larghezza di banda oltre 10 volte superiore rispetto ai sistemi tradizionali.
Il consumo energetico ridotto permette un’inferenza disaggregata più efficiente, ottimizzando le risorse hardware e garantendo prestazioni elevate con costi contenuti.
Entrambe le piattaforme supportano raffreddamento a liquido diretto, PCIe ed Ethernet, con un consumo complessivo di 160 kW per rack.
Sicurezza, scalabilità e affidabilità
Le soluzioni Qualcomm AI200 e AI250 introducono funzionalità di elaborazione riservata per carichi di lavoro AI sensibili.
Ogni rack offre sicurezza a livello hardware e software, prevenendo accessi non autorizzati e proteggendo i modelli proprietari.
Come spiegato da Durga Malladi, SVP e GM di Qualcomm Technologies, queste piattaforme “ridefiniscono le possibilità di inferenza su scala rack, combinando efficienza, sicurezza e un TCO senza precedenti”.
Lo stack software Qualcomm per la nuova AI generativa
A supporto delle nuove piattaforme, Qualcomm propone un AI Stack end-to-end, ottimizzato per l’inferenza e compatibile con i principali framework di machine learning.
La Qualcomm AI Inference Suite e la Efficient Transformers Library permettono di implementare modelli Hugging Face con un solo clic.
Gli sviluppatori possono accedere a strumenti di ottimizzazione, API e librerie dedicate, garantendo un’integrazione fluida con ambienti hyperscaler e modelli LLM già addestrati.
Qualcomm AI200 AI250: la roadmap per i data center
La disponibilità commerciale di Qualcomm AI200 è prevista per il 2026, mentre AI250 arriverà nel 2027.
Con queste soluzioni, Qualcomm Technologies consolida la propria roadmap annuale per i data center, puntando su prestazioni di inferenza sempre più elevate e un TCO ottimizzato.
Un’evoluzione che segna il passo verso un futuro in cui l’IA generativa sarà il motore di ogni infrastruttura digitale.