Per una moratoria internazionale sulle intelligenze artificiali gigantesche: Pause Giant AI Experiments: An Open Letter
Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.
Grazie a @robertabarone per la segnalazione
cc @filosofia
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
@filobus @informapirata @eticadigitale @filosofia è difficile controllare le applicazioni, per una serie di motivi. Ci stanno provando sia con le leggi che con i regolamenti interni aziendali, ma i sistemi di apprendimento automatico sono molto molto molto difficili da regolare, all’atto pratico.
@robertabarone @informapirata @eticadigitale @filosofia è vero, immagino ci siano degli aspetti “sottili” nel loro funzionamento che possono creare aberrazioni
Nello stesso tempo però mi fa un po’ specie tutto questo parlare di ai come rovina dell’umanità, come se ad es non ci fosse il datore di lavoro umano che discrimina i dipendenti messicani o la polizia che se la prende con le persone di colore. E anche lì sono delle scatole nere, vedi il risultato
@filobus @robertabarone @eticadigitale @filosofia approfitto per segnalare questa critica di alla lettera in questione:
«La lettera aperta sulla moratoria dell’Intelligenza Artificiale è fuorviante: rispetto ai pericoli fantascientifici dell’IA ignora i rischi reali.
Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.»
https://feddit.it/post/193394
@informapirata @filobus @eticadigitale @filosofia grazie!! ho segnalato anche https://venturebeat.com/ai/open-letter-calling-for-ai-pause-shines-light-on-fierce-debate-around-risks-vs-hype/
@robertabarone @informapirata @eticadigitale @filosofia pensa se per paradosso dicessimo “adesso quegli esseri umani non si devono sviluppare perché poi si organizzerebbero e formerebbero il Ku Klux Klan”
Potrebbe avere senso… :)
Ma stiamo cercando di imporre valori morali a un qualcosa nato per essere efficiente. Possiamo farlo a posteriori, giudicando, come si fa in tribunale, in base alle azioni. Possiamo prevenire, ma solo in base al risultato.
1/2
@filobus ok, ma stai antropomorfizzando una serie di algoritmi e di sistemi di analisi basate su dati statistici 😅
@robertabarone @eticadigitale @filosofia
@informapirata @robertabarone @eticadigitale @filosofia no, sto deantropofizzando l’uomo 😉
Siamo ancora alla visione tolemaica, in cui l’uomo è al centro di tutto
Se l’intelligenza è in procinto di non essere più un bene esclusivo, bisogna dotarsi di teorie più universali
(Per adesso a livello di paradosso, siamo ancora lontani)
@robertabarone @informapirata @eticadigitale @filosofia perché sarà sempre una scatola nera, temo, è fatto per esserlo, lo vogliamo noi, che faccia cose al dii sopra delle nostre possibilità (le ai possono essere comprese veramente solo da altre ai).
Il problema delle ai è che se sbagliano lo fanno alla grande, in modo molto più efficiente di noi. E noi potremmo non essere in grado di capirlo
Alla fine è l’uomo che deve diventare più intelligente
2/2