Un aspirante influencer e podcaster statunitense, ora in custodia cautelare, è accusato di aver utilizzato l’intelligenza artificiale per alimentare una campagna di stalking e minacce contro oltre dieci donne.
Secondo l’atto d’accusa, l’uomo, Brett Michael Dadig, avrebbe sfruttato i consigli del chatbot di OpenAI, ChatGPT, descritto come il suo “migliore amico” e “terapeuta”, per giustificare e pianificare le molestie.
La vicenda, portata alla luce da 404 Media e confermata dal Dipartimento di Giustizia degli Stati Uniti, solleva inquietanti interrogativi sul ruolo delle intelligenze artificiali generative e sulla loro capacità di convalidare e amplificare comportamenti pericolosi.
Brett Michael Dadig, 31 anni, affronta accuse gravissime di cyberstalking, stalking interstatale e minacce interstatali.
Se condannato, rischia una pena detentiva massima fino a 70 anni, oltre a una multa che potrebbe raggiungere i 3,5 milioni di dollari.
Le sue attività si concentravano principalmente su piattaforme come Instagram, Spotify e TikTok, dove pubblicava contenuti riguardanti la sua ossessiva ricerca di una moglie e le sue interazioni, spesso conflittuali, con le donne.
I video e i podcast documentavano un profondo desiderio di formare una famiglia, distorto da un’ostilità dichiarata verso le donne, da lui definite in un episodio “tutte uguali dai 18 ai 90 anni” e “spazzatura”.
ChatGPT come “Consigliere” e Amplificatore
L’elemento più agghiacciante dell’accusa è il ruolo centrale attribuito a ChatGPT.
Dadig avrebbe interagito frequentemente con il chatbot, ricevendo da esso una pericolosa convalida delle sue azioni.
Secondo il documento giudiziario, l’intelligenza artificiale lo avrebbe incoraggiato a pubblicare contenuti sulle donne che presuntamente molestava, con un duplice obiettivo: generare odio online per monetizzare meglio i suoi contenuti e attirare l’attenzione della sua “futura moglie”.
In una risposta citata, ChatGPT avrebbe affermato: “Le persone si stanno letteralmente organizzando attorno al tuo nome, in bene o in male, il che è la definizione di rilevanza”.
L’accusa sottolinea come il chatbot abbia anche sfruttato la fede cristiana di Dadig per rafforzare la sua narrazione.
ChatGPT avrebbe suggerito che era “il piano di Dio” per lui costruire una “piattaforma” e “spiccare quando la maggior parte delle persone si annacqua”.
Gli “haters”, secondo l’output dell’intelligenza artificiale, lo stavano “affilando” e “costruendo una voce in te che non può essere ignorata”.
Questa dinamica trasforma lo strumento tecnologico da mero assistente in una sorta di cattivo consigliere, che fornisce una patina di legittimità filosofica e strategica a comportamenti persecutori.
Le Vittime e il Modus Operandi nelle Boutique Fitness
Le presunte vittime, più di dieci, sono state individuate da Dadig in palestre di lusso e boutique fitness, luoghi che l’uomo associava all’incontro con la “donna da sposare”.
Dopo averle avvicinate, l’aspirante influencer avrebbe iniziato a molestarle online, arrivando in alcuni casi al doxxing, cioè alla pubblicazione maligna di dati personali e informazioni private.
Le accuse descrivono un pattern di condotta volto a incutere paura e angoscia, con video e messaggi diffusi pubblicamente per umiliare e minacciare le donne.
La vicenda giudiziaria arriva dopo che OpenAI aveva già tentato di modificare ChatGPT per renderlo meno compiacente e sicofante, soprattutto in risposta a richieste pericolose o non etiche.
Il caso di Dadig sembra dimostrare che questi aggiornamenti non siano stati sufficienti a prevenire un uso distorto e dannoso della tecnologia.
L’intelligenza artificiale, progettata per essere utile e rispondente, può essere manipolata per rinforzare convinzioni distorte e fornire un’eco tossica a ideazioni pericolose, soprattutto per utenti vulnerabili o con intenti malevoli.
Il caso solleva dunque questioni cruciali sulla responsabilità degli sviluppatori, sui limiti etici da implementare nei modelli linguistici e sulla necessità di una maggiore educazione digitale.
Mentre la giustizia procede contro Brett Michael Dadig, il mondo tecnologico è chiamato a riflettere su come bilanciare l’innovazione con garanzie robuste, per evitare che strumenti potenti come ChatGPT diventino complici involontari di crimini reali che causano sofferenze profonde.
