Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.

@eticadigitale

Il Future of Life Institute ha rilasciato una lettera aperta chiedendo una pausa di 6 mesi sulla formazione di modelli linguistici “più potenti di” GPT-4. Oltre 1.000 ricercatori, tecnologi e personaggi pubblici hanno già firmato la lettera. La lettera solleva l’allarme su molti rischi legati all’IA:

“Dovremmo lasciare che le macchine inondino i nostri canali informativi con propaganda e menzogna? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, superarci in astuzia, diventare obsolete e sostituirci? Dovremmo rischiare la perdita del controllo della nostra civiltà?” (fonte)

Siamo d’accordo che la disinformazione, l’impatto sul lavoro e la sicurezza sono tre dei principali rischi dell’IA. Sfortunatamente, in ogni caso, la lettera presenta un rischio speculativo e futuristico, ignorando la versione del problema che sta già danneggiando le persone. Distrae dai problemi reali e rende più difficile affrontarli. La lettera ha una mentalità di contenimento analoga al rischio nucleare, ma non si adatta bene all’IA. Fa il gioco delle società che cerca di regolamentare.

➡ Il post originale continua qui

➡ Il thread su twitter di Arvind Narayanan, coautore del post insieme a Sayash Kapoor