Il rumore degli algoritmi

Bolle di filtraggio e appiattimento culturale.

La cultura è diventata rumore di fondo, gli algoritmi pilotano ciò che vediamo suggerendocelo, trasformano i contenuti adattandoli alla circolazione priva di attrito dei feed automatizzati. Le idee che attraversano Filterworld. Come gli algoritmi hanno appiattito la cultura (ROI, 2024) di Kyle Chayka, giornalista del New Yorker, subito sembrano vere, ma ti chiedi se non sia sempre stato così, con i mezzi di distribuzione a far convergere la popolarità verso determinati punti e non altri. “Eccoci qua, facci divertire”: ricordo pomeriggi convinto che ascoltare Smell Like Teen Spirit fosse libero arbitrio, invece era la programmazione di MTV. Nel libro di Chayka, però, c’è più dell’ovvio: l’autore è nato in Connecticut e dice che lì “internet era lo spazio culturalmente più radicale alla mia portata”, ma c’è stato un momento in cui la rete è cambiata, a metà degli anni Dieci. Pare preistoria ma una volta su Instagram guardavi le foto dei tuoi amici e il feed di Twitter si aggiornava cronologicamente. Poi gli algoritmi di suggerimento si sono fatti strada, dalla home di Netflix al brano successivo di Spotify, creando quello che Chayka chiama il “mondo filtrato”: è impossibile che un pezzo di cultura circoli senza gli algoritmi, oggi è il feed a costruire il pubblico.

Prima dei suggerimenti automatizzati c’erano gli appassionati che spargevano consigli. Prima che internet venisse svuotata dalle poche aziende che controllano le piattaforme, l’attenzione dei naviganti si diffondeva in una costellazione di siti web di piccole dimensioni. I gesti che davano forma a quella costellazione erano la profonda conoscenza di qualcosa e il suo scambio, perlopiù nel modo gratuito del dono. Internet senza un centro di inizio secolo con le sue bizzarrie, le pratiche al limite od oltre la legalità, “come modello di distribuzione culturale, così come esisteva negli anni Duemila, non riesco a pensare a nulla di meglio dell’ecosistema dei forum e del file sharing”, scrive Chayka. I suggerimenti culturali condivisi da persone erano “atti sociali e morali”, l’inizio di percorsi fuori dai circuiti stabiliti.

Dalla stanza del computer fisso – una volta i computer erano fissi e avevano stanze dedicate – Chayka si collegava ai forum dove si parlava di videogiochi, trovava i file di un anime non tradotto in inglese di Yoshitoshi Abe, si accorgeva che quelle atmosfere sospese prendevano ispirazione dal romanzo di Haruki Murakami La fine del mondo e il paese delle meraviglie e infine arrivava a Tanizaki Jun’ichirō, per scoprire che gli piaceva l’estetica delle ombre, l’opposto dell’ostentazione visiva occidentale. Quel tipo di scambio personale, quel tipo di percorso eccentrico è stato sostituito dai sistemi di raccomandazione automatizzata, i feed algoritmici: un modello che con “la scusa di accelerare i tempi, in realtà ostacola lo sviluppo organico della cultura e privilegia invece la piattezza e l’uniformità, le estetiche più trasmissibili attraverso le reti digitali”. Si avvera la vecchia profezia di Douglas Coupland: “le economie di scala cancellano le alternative, il libero arbitrio”.

In Filterworld Hallie Bateman racconta come ha vissuto, da artista, il passaggio da un internet eccentrico, costellato da siti personali, a quello uniformato delle applicazioni sullo smartphone. Bateman è un’illustratrice e amica di Chayka, i feedback ricevuti su Instagram l’hanno aiutata a costruire la fiducia nel suo lavoro: “mi sembrava che l’universo mi desse la possibilità di continuare a fare quello che stavo facendo”. Intorno alle sue illustrazioni si era creata una piccola comunità, ma nel 2017 qualcosa è cambiato. Il pubblico che incoraggiava il suo stile personale era diventato un gruppo di estranei che commentava con acredine. I suggerimenti di Instagram “spingevano il suo lavoro verso un pubblico che non ne comprendeva il contesto”, riassume Chayka. Bateman si accorge di una misteriosa volontà a farle replicare i lavori che avevano successo, a rifare quello che funziona. È una sensazione che i creator conoscono bene e che può riguardare non solo le opere ma l’intera persona. Nel suo l’Industria degli influencer (Einaudi, 2024), la ricercatrice Emily Hund riprende una dichiarazione della blogger Tavi Gevinson a proposito del conflitto tra autenticità e consenso social: “credo di essere arrivata a vedere il mio io online come quello autentico e di aver seppellito così in profondità qualsiasi propensione che potesse minacciare la sua capacità di attrarre dei like da dimenticarne persino l’esistenza”.

Quando si è accorta del cambiamento nella forza dell’algoritmo, Hallie Bateman ha deciso di cambiare approccio, passando da una super esposizione sui social all’indispensabile autopromozione del suo lavoro. Ha smesso di indovinare cosa volesse l’algoritmo di Instagram e si è concentrata sul tipo di arte che voleva proporre al di là dei feedback immediati, decidendo in sostanza di non fare del proprio lavoro un castello di sabbia. Gli algoritmi delle piattaforme sono volatili, ti portano su, ti spazzano via. “Ansia da algoritmo” è la sensazione con cui i creator cercano di indovinare cosa attrae più consenso, mentre ripetere ciò che il pubblico si aspetta è il modo in cui cercano di capitalizzare l’attenzione. Bateman ha detto a Chayka: “se mi adatto a ogni tendenza, se salgo su ogni nuova piattaforma e cerco di costruirmi un seguito, costruirò un castello di sabbia dopo l’altro”. Secondo Chayka le illustrazioni di Bateman riescono a incorporare molto sentimento, come nel suo lavoro È un miracolo che si siamo incontrati, e un recente post politico, una galleria che inizia con “ho visto la foto di una mamma palestinese piangere sua figlia e ho spento il computer”, e finisce con la scritta “cessate il fuoco” ripetuta quattro volte.

Erano i giorni in cui All Eyes on Rafah diventava l’immagine generata con l’intelligenza artificiale più condivisa di sempre. Si è molto discusso dell’illustrazione che secondo NPR avrebbe un’attribuzione incerta: una prima versione è stata pubblicata su Facebook da Zila AbKa, mentre l’immagine virale è di Amirul Shah. AbKa ritiene che Shah abbia ritoccato l’immagine che lei aveva creato, rimuovendo il marchio con il suo nome e aggiungendo le montagne innevate sullo sfondo, mentre Shah sostiene di non aver mai visto l’immagine di AbKa, creata con il tool AI di Microsoft, e spiega che le immagini create con l’intelligenza artificiale si diffondono più facilmente e più in fretta. Lo studio di Renee Diresta e Josh Goldstein per l’osservatorio internet di Stanford ha analizzato un centinaio di pagine Facebook che pubblicano prevalentemente immagini generate con l’AI. Si tratta di pagine ingannevoli che riescono a ottenere alti livelli di coinvolgimento, click ricevuti da persone che scambiano per vere immagini improbabili o assurde. Le immagini generate con strumenti di intelligenza artificiale vengono mostrate dall’algoritmo di Facebook anche a persone che non seguono quelle pagine, come è nell’evoluzione attuale dei feed, che segue il modello di riferimento del “Per te” di TikTok. Secondo Diresta e Goldstein è probabile che uno dei criteri per mostrare le immagini generate con l’AI a nuovi spettatori è che l’utente abbia cliccato altre immagini generate con l’intelligenza artificiale. Immagini che l’utente realizza facilmente ottengono ampia circolazione e, per una quantità di ragioni, l’algoritmo classifica la visione delle immagini AI come fattore per proporre altre immagini sintetiche.

Che le AI creino loop l’aveva già notato Sam Altman di Open AI: utenti chiedono a ChatGPT di scrivere compite email partendo da un elenco puntato, il ricevente chiede a ChatGPT di ridurre compite email in elenchi puntati. I sistemi di rete con grandi quantità di opzioni generano il feedback loop: contenuti che riescono a emergere vengono rafforzati dalla raccomandazione di altri utenti o dagli algoritmi che promuovono i contenuti con maggiore capacità di circolazione, fino all’effetto valanga che premia pochi o pochissimi contenuti rispetto a quelli disponibili. Le immagini generate con l’AI, in particolare, creano un tipo di loop che evidenzia la differenza tra generare traffico e avere un pubblico. Possiamo pensare al paradosso di intelligenze artificiali addestrate su contenuti prodotti da intelligenze artificiali che ottengono traffico grazie a feed automatizzati a cui le persone prestano poca o nessuna attenzione; e via da capo con l’addestramento, la produzione e il traffico, in un ciclo che – paradossalmente – potrebbe coinvolgere pochi umani e ottenere comunque grandi risultati numerici. Nel caso del pubblico, al contrario, la presenza umana è centrale. La differenza tra pubblico e traffico è cruciale nel dibattito sulle prospettive di Internet, ma può aiutare anche a indagare gli effetti dei consigli automatizzati, che portano all’appiattimento della cultura descritto in Filterworld. Il contrario di ciò che fa l’arte.

Continua su Il Tascabile