Narrativa della superintelligenza e potere
Negli ultimi anni, superintelligenza e AGI sono diventate parole onnipresenti. Eppure, l’idea che siano “inevitabili” assomiglia più a una previsione politica che a un consenso scientifico. Questo è il punto centrale dell’analisi di James O’Sullivan di University College Cork. Secondo lui, la narrativa della superintelligenza cresce dentro “corridoi di potere”, non nei laboratori.
Il meccanismo è semplice. Se accettiamo che l’AGI arriverà per forza, smettiamo di chiederci se sia giusto costruirla. Inoltre, rischiamo di accettare che un gruppo ristretto di tecnologi decida il futuro per tutti. E qui la retorica diventa potente, perché sposta il dibattito lontano dai problemi di oggi.
Narrativa della superintelligenza e potere
La narrativa della superintelligenza funziona come una macchina di distrazione. Infatti, trasforma temi concreti in domande astratte. Così, la discussione su responsabilità aziendale, sostituzione del lavoro, bias algoritmico e governance democratica passa in secondo piano. Al suo posto arrivano puzzle su coscienza e controllo.
In più, la spinta mediatica fa il resto. Ogni miglioramento nei modelli linguistici viene letto come un passo verso l’AGI. Se ChatGPT scrive poesia, allora “la coscienza è vicina”. Il risultato è un senso di corsa inevitabile. Di conseguenza, gli investitori investono perché “sembra vicina”. Allo stesso tempo, i ricercatori seguono i soldi e il prestigio. E quindi i governi esitano, perché non vogliono “frenare i campioni nazionali”.
In questo quadro si inserisce anche Sam Altman e la narrativa di OpenAI come “difensore dell’umanità”. Il problema non è la comunicazione in sé. Il problema è l’effetto: si costruisce legittimità attorno a scelte che restano, in realtà, politiche.
Politica mascherata da previsione
Se la profezia diventa dominante, le risorse si concentrano. E quando soldi, attenzione e talenti vanno tutti nella stessa direzione, le alternative restano a secco. Per questo l’“inevitabilità” può diventare auto-avverante. Non perché sia vera. Piuttosto perché viene finanziata come se lo fosse.
Eppure esistono strade diverse. Ci sono movimenti di sovranità dei dati, che trattano i dati come risorsa collettiva. Inoltre esistono approcci locali, con sistemi più piccoli e governati sul territorio, pensati per sanità, scuola e agricoltura. In questo elenco rientrano realtà come First Nations Information Governance Centre e Te Mana Raraunga. Questi esempi mostrano che l’AI può servire bisogni presenti, senza “divinità digitali” come obiettivo.
Alla fine, la domanda vera non è “arriverà la superintelligenza?”. La domanda è: chi decide quale intelligenza costruiamo e sosteniamo. E soprattutto, con quali regole, controlli e responsabilità.