Anthropic limita Mythos, il nuovo modello AI per la cybersicurezza

Anthropic limita Mythos, il nuovo modello AI per la cybersicurezza

Anthropic limita Mythos e manda un messaggio piuttosto chiaro: certi modelli non possono più essere trattati come un normale lancio software. Stavolta non si parla di un chatbot più brillante o di un assistente più veloce. Si parla di un sistema che, secondo quanto emerso, è stato ritenuto troppo delicato per una distribuzione aperta, almeno in questa fase.

La scelta racconta bene il momento che sta vivendo l’AI. Più i modelli crescono sul piano del ragionamento e del coding, più si avvicinano a capacità che possono essere usate sia per difendere sia per attaccare. Ed è proprio qui che Anthropic ha deciso di frenare.

Anthropic limita Mythos e sceglie un accesso ristretto

Il punto centrale è questo: Mythos non viene rilasciato al pubblico in modo normale. Anthropic ha scelto un accesso ristretto dentro Project Glasswing, un’iniziativa costruita insieme a grandi aziende tecnologiche, gruppi della cybersicurezza e organizzazioni che gestiscono software e infrastrutture critiche.

Questa impostazione non nasce da prudenza generica. Nasce dal fatto che Mythos, nei test, avrebbe mostrato capacità molto avanzate nell’individuare vulnerabilità serie in sistemi e software molto diffusi. In pratica, Anthropic sta dicendo che il valore del modello è alto, ma lo è anche il rischio di abuso.

È una scelta che fa discutere, ma ha una sua logica. Se un sistema riesce ad abbassare drasticamente la soglia tecnica necessaria per trovare o sfruttare falle, allora il problema non è solo quanto sia utile ai difensori. Il problema è anche quanto potrebbe diventare utile agli attaccanti.

Perché Mythos non viene trattato come un normale modello AI

La parte più interessante di questa vicenda è proprio il cambio di tono. Negli ultimi mesi il settore ha spesso raccontato i nuovi modelli come prodotti da distribuire il prima possibile, magari con qualche limite aggiunto strada facendo. Qui invece succede il contrario.

Anthropic parte dal presupposto che alcune capacità siano troppo sensibili per un’apertura rapida. È un passaggio importante, perché suggerisce che il confine tra modello generalista e strumento ad alto rischio stia diventando sempre più sottile.

E c’è un altro aspetto. Mythos non viene presentato come un prodotto costruito solo per “hackerare”. Viene descritto piuttosto come un modello molto forte su ragionamento e codice, capace però di esprimere queste qualità anche nel dominio cyber. Proprio questa combinazione lo rende più complicato da gestire.

Anthropic limita Mythos mentre cresce la corsa alla cyberdifesa

La decisione arriva in una fase in cui il tema della sicurezza informatica è sempre più legato all’AI. Le aziende non temono solo attacchi più frequenti. Temono anche attacchi più automatizzati, più veloci e più facili da scalare.

In questo quadro, Anthropic prova a posizionarsi su una linea precisa: usare modelli molto avanzati per rafforzare la difesa, ma senza aprire troppo in fretta le porte a un uso più ampio. È anche per questo che Mythos viene condiviso solo con partner selezionati.

Il rischio, però, resta evidente. Quando un’azienda dice che il proprio modello è troppo potente per una distribuzione aperta, il messaggio ha due facce. Da un lato mostra responsabilità. Dall’altro conferma che il livello raggiunto da questi sistemi sta entrando in una zona molto più delicata di prima.

Una scelta prudente, ma anche un segnale per tutto il settore

Alla fine, la mossa di Anthropic sembra più seria di tante dichiarazioni solenni sentite negli ultimi mesi sull’AI responsabile. Qui non c’è solo marketing sulla sicurezza. C’è una limitazione concreta dell’accesso, almeno per ora.

Allo stesso tempo, questa storia apre una domanda che il settore non potrà evitare ancora a lungo: cosa succede quando i modelli diventano abbastanza bravi da rendere più semplice anche il lavoro offensivo? La risposta di Anthropic, per adesso, è chiara: chiudere il perimetro, scegliere pochi partner e trattare il modello come una tecnologia sensibile.

È una linea prudente, forse necessaria. Però è anche il segnale di una fase nuova, in cui il problema non è più soltanto cosa sa fare un modello, ma chi può usarlo e in quali condizioni.

Lascia un commento