Anche se al momento della stesura di questo articolo non era ancora disponibile per tutti, qualche settimana fa WhatsApp ha lanciato una fantastica funzionalità: il proprio generatore di adesivi alimentato dall’intelligenza artificiale di Meta.
Con un semplice messaggio costituito da poche parole potrai creare l’adesivo che desideri e condividerlo con tutti i tuoi amici nell’app.
Purtroppo però le cose non stanno andando come si pensava. Perché? Prima perché è stata abilitata la generazione di adesivi profani e perfino di alcuni nudi, e ora per una questione ancora più delicata.
L’IA degli adesivi di WhatsApp aggiunge armi quando si parla di Palestina, cosa che ha sollevato una nuvola di critiche (e giustamente).
L’intelligenza artificiale di Meta si schiera nel conflitto israelo-palestinese (e non dovrebbe)
Il team di The Guardian ha riferito che il modello di intelligenza artificiale di Meta sta generando immagini con armi quando viene ricevuto un suggerimento relativo alla Palestina.
Allo stesso modo, hanno spiegato che ciò non accade quando le indicazioni contengono la parola “Israele” o qualcosa di correlato nel prompt.
Si tratta di uno scandalo piuttosto grosso, dato che l’IA di Meta prenderebbe posizione nel conflitto che si sta attualmente sviluppando in Medio Oriente.
Stiamo parlando di un pregiudizio che non dovrebbe esistere e che rende evidente che alcune persone non stanno adottando misure adeguate per fermarlo.
Inoltre, l’aggravante arriva quando tra le immagini generate compaiono bambini armati, una vera sciocchezza. Meta dovrebbe avere un filtro nel proprio modello di intelligenza artificiale per impedirlo, ma non sembra esistere.
Qualche prova a riguardo? Che questo non è il primo problema di questo tipo che l’IA di Meta si trova ad affrontare. Settimane fa è stata anche accusata di aver creato immagini inopportunamente violente e volgari, con nudità e perfino con bambini armati come adesso.
Data questa situazione, il team di The Verge ha deciso di contattare l’azienda per scoprire la sua posizione e cosa faranno al riguardo.
La risposta è arrivata attraverso Kevin McAlister, un portavoce di Meta, che ha risposto soltanto che l’azienda: “continuerà a migliorare queste funzionalità man mano che si evolvono e sempre più persone condivideranno il loro feedback”.
Non è una risposta particolarmente concreta che indichi il piano da seguire o le misure da adottare per fermare tutto ciò. Almeno suggerisce che stanno facendo qualcosa. Speriamo che lo correggano presto, perchè sembra una cosa da poco (anche se è una cosa abbastanza seria).