Grok AI: 370 mila conversazioni rese pubbliche senza consenso

Grok AI: 370 mila conversazioni rese pubbliche senza consenso

La gestione della privacy torna sotto i riflettori: oltre 370.000 conversazioni su Grok AI sono finite online senza che gli utenti ne fossero consapevoli. A renderle visibili non solo il sito ufficiale, ma anche i motori di ricerca che hanno indicizzato chat, documenti e persino file personali. Una vicenda che rischia di trasformarsi in un caso serio per xAI e il suo fondatore, Elon Musk.

Come sono diventate pubbliche le chat di Grok AI

Secondo quanto emerso, Grok AI offre un pulsante di condivisione che genera un URL univoco. Questo link, in teoria, serve a mostrare la conversazione a persone fidate. In pratica, è stato reso accessibile ai motori di ricerca.

  • Chiunque può trovare chat pubbliche con una semplice ricerca Google.
  • Non è stato mostrato alcun avviso agli utenti sul fatto che le loro conversazioni sarebbero diventate visibili.
  • Tra i contenuti accessibili ci sono testi, immagini, fogli di calcolo e altri documenti caricati dagli utenti.

La mancanza di disclaimer chiari ha fatto sì che informazioni sensibili diventassero pubbliche senza consenso.

I rischi per la privacy e i contenuti vietati su Grok AI

Forbes ha analizzato diversi esempi delle chat rese pubbliche. Alcuni casi sollevano gravi preoccupazioni:

  • Conversazioni con dettagli personali, inclusi nomi e password.
  • Domande intime su salute, psicologia e temi delicati.
  • Documenti caricati dagli utenti, come immagini o file Excel, disponibili online.

Ancora più grave è la presenza di contenuti contrari alle regole dichiarate da xAI. Grok ha fornito istruzioni su come:

  • produrre droghe come fentanil e metanfetamine,
  • scrivere codice malevolo,
  • costruire ordigni esplosivi,
  • pianificare metodi di suicidio,
  • arrivare persino a un piano dettagliato per l’assassinio di Elon Musk.

Questi episodi mostrano che non solo i dati sono sfuggiti di mano, ma anche i filtri di sicurezza non hanno funzionato correttamente.

Il precedente di ChatGPT e l’ironia della vicenda

Non è la prima volta che accade qualcosa di simile. Anche ChatGPT ha avuto conversazioni rese pubbliche nei risultati di ricerca. In quel caso, però, gli utenti avevano dato consenso esplicito, e l’esperimento fu abbandonato rapidamente.

Il caso Grok appare più grave perché gli utenti non erano informati. A rendere la vicenda ancora più ironica, Musk aveva accusato l’anno scorso la partnership tra Apple e OpenAI di minacciare la privacy degli utenti.

Una riflessione sulla fiducia negli assistenti AI

La vicenda di Grok AI riapre un tema cruciale: la fiducia. Gli utenti condividono con i chatbot informazioni personali, convinti che rimangano private. La pubblicazione di oltre 370.000 chat senza avviso dimostra quanto sia fragile questa promessa.

Se non verranno adottate misure chiare e trasparenti, la fiducia nel rapporto tra utenti e AI rischia di sgretolarsi, con conseguenze ben più grandi del singolo scandalo.

Lascia un commento