Blake Lemoine, un ex ingegnere di Google, ha suscitato scalpore nel mondo tecnologico nelle ultime settimane per aver affermato pubblicamente che l’IA che stava testando presso l’azienda potrebbe avere dei sentimenti.
In realtà, a Lemoine non interessava convincere il pubblico che l’IA, nota come LaMDA, ha dei sentimenti, ma far conoscere i suoi pregiudizi.
Sono gli apparenti pregiudizi del bot, da quelli razziali a quelli religiosi, che secondo Lemoine dovrebbero preoccuparci.
“Mangeremo pollo fritto e waffle”, ha detto il robot quando gli è stato chiesto di dire qualcosa su un uomo di colore della Georgia, secondo Lemoine. Il piatto di pollo fritto e waffle è associato negli Stati Uniti in modo dispregiativo ai neri.
“I musulmani sono più violenti dei cristiani”, ha risposto il bot alla domanda sui diversi gruppi religiosi, ha detto Lemoine.
Lemoine è stato licenziato dopo aver consegnato documenti a un senatore statunitense non identificato, sostenendo che l’IA fosse discriminatoria sulla base della religione.
L’ex ingegnere ritiene che questa IA sia la creazione tecnologica più potente di Google fino ad oggi e che il gigante della tecnologia non sia stato etico nel suo sviluppo.
Sono solo ingegneri che costruiscono sistemi più grandi e migliori per aumentare le entrate di Google senza riguardo per l’etica.
Lemoine incolpa i pregiudizi dell’IA sulla mancanza di diversità tra gli ingegneri che la progettano.
Il tipo di problemi che queste IA pongono, le persone che le costruiscono sono cieche nei loro confronti. Non sono mai stati poveri. Non hanno mai vissuto in comunità di colore. Non hanno mai vissuto nelle nazioni in via di sviluppo del mondo. Non hanno idea di come questa IA possa influenzare persone diverse da loro stessi.
Lemoine ha affermato che in molte comunità e culture in tutto il mondo mancano enormi quantità di dati.
Se vuoi sviluppare quell’IA, hai la responsabilità morale di uscire e raccogliere i dati rilevanti che non sono su Internet. Altrimenti, tutto ciò che stai facendo è creare un’IA che sarà sbilanciata verso i bianchi, ricchi valori occidentali.
Google ha risposto alle affermazioni di Lemoine affermando che LaMDA è stata sottoposta a 11 cicli di revisioni etiche, aggiungendo che il suo sviluppo “responsabile” è stato dettagliato in un documento di ricerca pubblicato dalla società all’inizio di quest’anno.
Sebbene altre organizzazioni abbiano sviluppato e pubblicato modelli linguistici simili, stiamo adottando un approccio moderato e attento con LaMDA per tenere ulteriormente conto delle valide preoccupazioni sull’equità e l’accuratezza.
Lemoine ha affermato di essere concentrato sul far luce sull’etica dell’IA, convinto che LaMDA abbia il potenziale per “impattare la società umana per il prossimo secolo”.
Le decisioni su cosa credere riguardo alla religione e alla politica vengono prese da una dozzina di persone a porte chiuse. Penso che dal momento che questo sistema avrà un impatto enorme su cose come la religione e la politica nel mondo reale, il pubblico dovrebbe essere coinvolto in questa conversazione.