Il Future of Life Institute ha rilasciato una lettera aperta chiedendo una pausa di 6 mesi sulla formazione di modelli linguistici “più potenti di” GPT-4. Oltre 1.000 ricercatori, tecnologi e personaggi pubblici hanno già firmato la lettera. La lettera solleva l’allarme su molti rischi legati all’IA:
“Dovremmo lasciare che le macchine inondino i nostri canali informativi con propaganda e menzogna? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, superarci in astuzia, diventare obsolete e sostituirci? Dovremmo rischiare la perdita del controllo della nostra civiltà?” (fonte)
Siamo d’accordo che la disinformazione, l’impatto sul lavoro e la sicurezza sono tre dei principali rischi dell’IA. Sfortunatamente, in ogni caso, la lettera presenta un rischio speculativo e futuristico, ignorando la versione del problema che sta già danneggiando le persone. Distrae dai problemi reali e rende più difficile affrontarli. La lettera ha una mentalità di contenimento analoga al rischio nucleare, ma non si adatta bene all’IA. Fa il gioco delle società che cerca di regolamentare.
➡ Il post originale continua qui
➡ Il thread su twitter di Arvind Narayanan, coautore del post insieme a Sayash Kapoor
deleted by creator
@zakmckracken La tua opinione è piuttosto verosimile! Trovo comunque che, poiché oggi si sottovalutano alcuni aspetti legati alla pericolosità sociale della AI, questo tipo di iniziative faccia comunque bene al dibattito
@informapirata Se serve a iniziare un dibattito ma ritengo sia più un messaggio lanciato a regolatori e investitori visto che BigTech era a rischio crollo in borsa e sotto la lente della FTC. Ora invece, con la AI così “pericolosa” e strategica ridiventa intoccabile. Poi c’è anche questa opinione: https://www.wired.it/article/intelligenza-artificiale-lettera-elon-musk-errori/
Insomma: messaggio per chi e per ottenere cosa? Veramente per aprire un dibattito?