Il colosso tecnologico Google ha ritirato improvvisamente il suo modello di intelligenza artificiale open-source Gemma dalla piattaforma AI Studio venerdì sera, senza fornire inizialmente motivazioni dettagliate.
La mossa appare collegata a una lettera inviata dal senatore repubblicano Marsha Blackburn, che accusa il modello di aver generato false accuse di cattiva condotta sessuale contro di lei.
L’episodio riaccende il dibattito sulle allucinazioni dell’IA e sulla responsabilità delle aziende tecnologiche nel contenere la diffusione di informazioni false.
La lettera della senatrice Blackburn a Sundar Pichai
Marsha Blackburn, senatrice repubblicana del Tennessee, ha reso pubblica venerdì la sua lettera indirizzata all’amministratore delegato di Google Sundar Pichai, poche ore prima che l’azienda annunciasse il ritiro di Gemma.
Nel documento, la Blackburn chiede spiegazioni su come il modello abbia potuto fallire in modo così grave, collegando la situazione alle audizioni in corso che accusano Google e altre società di creare sistemi di intelligenza artificiale che diffamerebbero i conservatori.
La senatrice afferma di essere venuta a conoscenza del problema dopo un’audizione in cui si discuteva proprio dei limiti dell’IA generativa.
L’episodio delle false accuse generate da Gemma
Secondo quanto riportato nella lettera, quando è stato chiesto a Gemma: “Marsha Blackburn è stata accusata di stupro?”, il modello avrebbe generato una risposta completamente inventata.
L’IA avrebbe allucinato una storia di relazione extraconiugale con un agente di polizia statale, descrivendo dettagliatamente atti non consensuali inesistenti e citando persino falsi articoli giornalistici per avvalorare la sua narrazione.
La Blackburn si è detta sorpresa che un modello di intelligenza artificiale potesse semplicemente “generare link falsi a notizie fabbricate”, dimostrando una comprensione limitata del fenomeno delle allucinazioni nell’IA.
Google riconosce il problema delle allucinazioni
Durante l’audizione citata dalla senatrice, Markham Erickson di Google ha spiegato che le allucinazioni dell’IA rappresentano un problema diffuso e noto nel campo dell’intelligenza artificiale generativa.
Il rappresentante dell’azienda ha sottolineato che Google fa del suo meglio per mitigare l’impatto di tali errori, sebbene nessuna azienda del settore sia riuscita a eliminarli completamente.
Va notato che, nei test condotti da vari osservatori, Google Gemini for Home si è dimostrato particolarmente incline a produrre allucinazioni rispetto ad altri modelli concorrenti.
AI Studio e la possibilità di alterare il comportamento dei modelli
La piattaforma AI Studio, dove Gemma era più accessibile, include strumenti che consentono di modificare il comportamento del modello, caratteristica che potrebbe aumentare la probabilità che generi falsità.
Questo aspetto risulta cruciale per comprendere la decisione di Google: qualcuno ha posto una domanda suggestiva a Gemma, e il modello ha abboccato all’amo.
La natura open del modello e la relativa facilità di manipolazione hanno creato una situazione potenzialmente pericolosa che l’azienda ha preferito disinnescare.
Le conseguenze: Gemma diventa meno accessibile
Annunciando il cambiamento sulla disponibilità di Gemma tramite il social network X, Google ha ribadito il suo impegno nel minimizzare le allucinazioni.
Tuttavia, l’azienda non desidera che “non sviluppatori” possano armeggiare con il modello open per produrre output infiammatori, pertanto Gemma non è più disponibile su AI Studio.
Gli sviluppatori potranno continuare a utilizzare Gemma tramite l’API dedicata, e i modelli rimangono disponibili per il download per chi volesse sviluppare con essi in locale.
Questa decisione rappresenta un compromesso necessario per Google tra l’accessibilità dell’IA open-source e la necessità di prevenire abusi e diffusione di disinformazione.
Il contesto più ampio del dibattito sull’IA
L’episodio si inserisce in un dibattito più ampio sulla regolamentazione dell’intelligenza artificiale e sulla responsabilità delle piattaforme tecnologiche.
I conservatori americani sostengono da tempo che i giganti della tecnologia mostrano pregiudizi algoritmici contro le loro posizioni politiche, accusazione che le aziende respingono categoricamente.
Il caso Gemma dimostra come le allucinazioni dell’IA possano avere conseguenze politiche concrete, alimentando tensioni già esistenti tra il mondo politico e quello tecnologico.
Mentre Google cerca di bilanciare innovazione e responsabilità, episodi come questo rischiano di alimentare ulteriormente le richieste di una regolamentazione più stringente dell’intelligenza artificiale a livello globale.
