Per una moratoria internazionale sulle intelligenze artificiali gigantesche: Pause Giant AI Experiments: An Open Letter
Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.
Grazie a @robertabarone per la segnalazione
cc @filosofia
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
@filobus @informapirata @eticadigitale @filosofia non credo serva a molto perché c’è la volontà cieca di fare funzionare questa cosa dell’IA costi quel che costi. Mi interessa però vedere se qualcuna delle aziende coinvolte risponderà, e come
@filobus @informapirata @eticadigitale @filosofia è difficile controllare le applicazioni, per una serie di motivi. Ci stanno provando sia con le leggi che con i regolamenti interni aziendali, ma i sistemi di apprendimento automatico sono molto molto molto difficili da regolare, all’atto pratico.
@robertabarone @informapirata @eticadigitale @filosofia è vero, immagino ci siano degli aspetti “sottili” nel loro funzionamento che possono creare aberrazioni
Nello stesso tempo però mi fa un po’ specie tutto questo parlare di ai come rovina dell’umanità, come se ad es non ci fosse il datore di lavoro umano che discrimina i dipendenti messicani o la polizia che se la prende con le persone di colore. E anche lì sono delle scatole nere, vedi il risultato
@filobus @robertabarone @eticadigitale @filosofia approfitto per segnalare questa critica di alla lettera in questione:
«La lettera aperta sulla moratoria dell’Intelligenza Artificiale è fuorviante: rispetto ai pericoli fantascientifici dell’IA ignora i rischi reali.
Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.»
https://feddit.it/post/193394
@informapirata @filobus @eticadigitale @filosofia grazie!! ho segnalato anche https://venturebeat.com/ai/open-letter-calling-for-ai-pause-shines-light-on-fierce-debate-around-risks-vs-hype/
@robertabarone @informapirata @eticadigitale @filosofia pensa se per paradosso dicessimo “adesso quegli esseri umani non si devono sviluppare perché poi si organizzerebbero e formerebbero il Ku Klux Klan”
Potrebbe avere senso… :)
Ma stiamo cercando di imporre valori morali a un qualcosa nato per essere efficiente. Possiamo farlo a posteriori, giudicando, come si fa in tribunale, in base alle azioni. Possiamo prevenire, ma solo in base al risultato.
1/2
@robertabarone @informapirata @eticadigitale @filosofia perché sarà sempre una scatola nera, temo, è fatto per esserlo, lo vogliamo noi, che faccia cose al dii sopra delle nostre possibilità (le ai possono essere comprese veramente solo da altre ai).
Il problema delle ai è che se sbagliano lo fanno alla grande, in modo molto più efficiente di noi. E noi potremmo non essere in grado di capirlo
Alla fine è l’uomo che deve diventare più intelligente
2/2
@filobus ok, ma stai antropomorfizzando una serie di algoritmi e di sistemi di analisi basate su dati statistici 😅
@robertabarone @eticadigitale @filosofia
@informapirata @robertabarone @eticadigitale @filosofia no, sto deantropofizzando l’uomo 😉
Siamo ancora alla visione tolemaica, in cui l’uomo è al centro di tutto
Se l’intelligenza è in procinto di non essere più un bene esclusivo, bisogna dotarsi di teorie più universali
(Per adesso a livello di paradosso, siamo ancora lontani)
@robertabarone @filobus @informapirata @eticadigitale @filosofia
Partendo dal presupposto che non sono certo io che so se lo sviluppo delle AI sia giusto o sbagliato (pericoloso o utile etc.), a me questa cosa sembra fatta da un gruppo di rosiconi. Se Musk fosse stato in grado di arrivare per primo a sviluppare una AI ad un livello come quello di GPT-4 “or beyond”, l’avrebbe fatta cadere dall’alto come la “migliore cosa possibile”.
@marcoal AHAHAHA, questo è certo, ma mettiti pure nei panni di chi ha proposto questa moratoria: che fai? Se hai l’occasione di coinvolgerle il Trend-Man del decennio, non lo fai?!? 😂
@robertabarone @filobus @eticadigitale @filosofia