NVIDIA ACE integra il modello Qwen3 per creare NPC più intelligenti nei giochi per PC
NVIDIA continua a spingere i confini del gaming intelligente con un nuovo aggiornamento per ACE (Avatar Cloud Engine), la piattaforma dedicata alla creazione di personaggi digitali realistici e dinamici.
La novità principale è l’introduzione del modello open source Qwen3-8B, ora disponibile come plugin In-Game Inferencing (IGI) per un’integrazione diretta nei giochi su PC.
Questo modello consente di gestire dialoghi e comportamenti non predefiniti, permettendo ai personaggi non giocanti (NPC) di ragionare in tempo reale. Ogni conversazione e azione può quindi adattarsi al contesto, alle scelte del giocatore e alla situazione di gioco, aprendo la strada a esperienze narrative più autentiche e dinamiche.
AI vocale e ragionamento in tempo reale
Il nuovo Qwen3-8B SLM (Small Language Model) migliora la naturalezza dei dialoghi, riducendo la dipendenza da connessioni cloud grazie al suo funzionamento on-device.
Integrato nel kit NVIDIA IGI SDK, ottimizza le prestazioni quando l’intelligenza artificiale e la grafica lavorano insieme, accelerando l’elaborazione dei comandi vocali e delle azioni contestuali.
Parallelamente, NVIDIA aggiorna anche Magpie TTS Flow, il suo modello sperimentale di text-to-speech. La nuova versione introduce il supporto multilingue, con test già disponibili per spagnolo e tedesco, ampliando le possibilità di personalizzazione delle voci dei personaggi.
Tra le altre novità dell’IGI SDK troviamo:
- MultiLORA adapters, che consentono di regolare rapidamente i pesi dei modelli senza un grande dispendio di risorse.
- Supporto CUDA in Graphics per backend Vulkan, che migliora la gestione simultanea di workload grafici e AI.
- Esempi di Function Calling per guidare gli sviluppatori nell’uso dei modelli linguistici personalizzati.
Gli sviluppatori possono scaricare la nuova versione dell’SDK e i relativi plugin direttamente dal sito ufficiale NVIDIA Developer.
Unreal Engine 5.6.1 e la nuova demo RTX Bonsai Diorama
In parallelo all’aggiornamento di ACE, NVIDIA ha rilasciato la nuova versione 5.6.1 del ramo RTX di Unreal Engine, pensata per sfruttare al massimo le potenzialità del rendering neurale.
Il rilascio include la demo Bonsai Diorama, un progetto tecnico completo che mostra le potenzialità di RTX Mega Geometry e del path tracing ReSTIR PT, oltre all’integrazione del pacchetto DLSS 4.
Questo aggiornamento mira a offrire agli sviluppatori un punto di riferimento concreto per implementare tecnologie di illuminazione globale, riflessioni avanzate e geometrie iper-dettagliate.
La documentazione e il codice sorgente della demo sono già accessibili, insieme a una guida dettagliata per ottimizzare le prestazioni nei progetti Unreal Engine.
NVIDIA ha inoltre annunciato il webinar “Level Up with NVIDIA”, previsto per martedì 28 ottobre 2025 alle 10:00 (ora del Pacifico). Durante l’evento, i partecipanti potranno esplorare la scena Bonsai Diorama e interagire direttamente con i team di sviluppo in una sessione Q&A live.
È possibile registrarsi all’evento tramite il portale NVIDIA Events.
Nvidia RTX On: una sfida per gli sviluppatori
In concomitanza con il nuovo rilascio, NVIDIA ha lanciato la competizione “RTX On: Push the Limits with RTX Neural Rendering in Unreal Engine”, rivolta a tutti gli sviluppatori Unreal.
L’obiettivo è creare progetti capaci di sfruttare in modo innovativo almeno una delle tecnologie della suite RTX, come:
- RTX Mega Geometry
- RTX Direct Illumination e Indirect Illumination (ReSTIR GI)
- RTX Path Tracing (ReSTIR PT)
- DLSS 4
I migliori progetti, in grado di dimostrare benefici tangibili e nuovi effetti visivi basati sul neural rendering, potranno vincere una GPU GeForce RTX 50 Series.
Le iscrizioni chiudono il 24 ottobre 2025 alle 20:59 PT.
Nvidia Qwen3 e RTX: il futuro del gaming intelligente
Con il rilascio del modello Qwen3-8B e gli aggiornamenti del RTX Branch di Unreal Engine, NVIDIA rafforza il suo impegno nel portare intelligenza artificiale e realismo visivo su un nuovo livello.
Gli sviluppatori hanno ora accesso a strumenti potenti, aperti e ottimizzati per creare esperienze più immersive, interattive e credibili.
L’unione tra voce, ragionamento e rendering neurale rappresenta un passo decisivo verso un futuro in cui i videogiochi non saranno solo più belli da vedere, ma anche più umani da vivere.