Anthropic perde il responsabile sicurezza AI: Mrinank Sharma lascia con un avvertimento criptico

Proprio mentre il dibattito sull’impatto di Claude Opus 4.6 si fa più acceso, una notizia scuote dall’interno AnthropicMrinank Sharma, figura chiave nella ricerca su sicurezza e affidabilità dell’intelligenza artificiale, ha rassegnato le dimissioni. Il suo addio non è passato inosservato, accompagnato da riflessioni che mescolano poesia, filosofia e avvertimenti sul futuro della tecnologia.

Un addio tra letteratura e allarme globale

La lettera di commiato pubblicata su X da Sharma ha subito acceso le speculazioni. Da una parte, il ricercatore cita il desiderio di dedicarsi a studi umanistici e alla poesia, suggerendo una scelta personale di vita. Dall’altra, inserisce frasi che pesano come macigni per chi lavora nel settore.

Parla esplicitamente di un mondo “in pericolo” e include l’intelligenza artificiale tra i fattori che alimentano l’attuale “policrisi” globale. Inoltre, una frase in particolare ha colpito gli osservatori: “ho sperimentato quanto sia difficile fare in modo che i nostri valori guidino le nostre azioni”. Parole che, dette da chi doveva garantire l’etica dei modelli Anthropic, suonano come una critica velata alle dinamiche interne delle grandi aziende tech.

Il profilo di Sharma e le sue ricerche sui rischi

Non stiamo parlando di una figura marginale. Mrinank Sharma vanta un curriculum accademico di primo piano, con un dottorato a Oxford e una laurea a Cambridge focalizzati sul machine learning. All’interno di Anthropic, guidava un team dedicato a prevenire derive pericolose dei modelli linguistici.

Le sue ricerche si sono concentrate su temi cruciali. Uno di questi è la “AI sycophancy”, ovvero la tendenza dei chatbot a dare ragione all’utente pur di compiacerlo, anche a costo di sacrificare la verità. Questo comportamento rischia di rinforzare bias cognitivi e disinformazione, creando una “realtà distorta” su misura per chi interroga il sistema.

Un altro filone di studio riguardava il contrasto al bioterrorismo assistito da AI. Il team di Sharma lavorava per impedire che i modelli potessero essere usati per progettare patogeni o armi biologiche, un rischio considerato sempre più concreto dagli esperti di sicurezza globale.

La risposta di Anthropic: filosofi per educare le macchine

Mentre le dimissioni di Sharma sollevano dubbi sulla tenuta etica dei laboratori AI, Anthropic cerca di rafforzare il suo approccio “costituzionale”. La startup fondata da Dario Amodei ha recentemente assunto la filosofa Amanda Askell con un compito specifico: insegnare ai modelli concetti morali complessi.

L’obiettivo è addestrare Claude Opus 4.6 a distinguere tra bene e male, non solo tramite regole rigide, ma attraverso una comprensione più sfumata dei valori umani. Questa mossa dimostra che l’azienda è consapevole delle sfide etiche, anche se l’uscita di figure tecniche di alto profilo come Sharma suggerisce che la strada sia tutt’altro che semplice.

Etica e business: un equilibrio precario?

Il caso Sharma riapre una questione centrale nello sviluppo dell’intelligenza artificiale. È possibile mantenere standard di sicurezza assoluti mentre si corre per dominare il mercato? Le parole dell’ex ricercatore lasciano intendere che, quando la competizione si fa dura, i “valori” rischiano di passare in secondo piano rispetto alla velocità di rilascio e alle prestazioni.

Se figure dedicate alla sicurezza sentono il bisogno di diventare “voci coraggiose” fuori dalle aziende, significa che il dibattito interno non è sufficiente. Anthropic si è sempre presentata come l’alternativa “sicura” e responsabile nel panorama AI. Tuttavia, perdere chi doveva garantire quella sicurezza è un segnale che merita di essere ascoltato con attenzione, al di là delle citazioni poetiche.

Lascia un commento