Uno dei motivi per cui amo leggere i romanzi di Ali Smith risiede nella capacità della scrittrice di tratteggiare, in ogni sua storia, personaggi misteriosi ed erratici, figure emarginate dalla società che finiscono per alterare irreversibilmente le vite dei protagonisti, entrando in collisione con la loro quotidianità. Si tratta sempre di donne, spesso nomadi, silenziose ed enigmatiche, il cui comportamento imperscrutabile e indifferente alla lettura borghese diventa uno strumento di rottura, o quanto meno di deviazione, all’interno della narrazione.
In Voci fuori campo è la misteriosa Amber, una sconosciuta apparsa dal nulla, che si inserisce con disinvoltura nella vita della famiglia Smart, stravolgendo per sempre l’esistenza, fatta di alienazione e incomunicabilità, dei suoi membri. In Inverno, invece, si tratta di Lux, un’immigrata dal carattere discreto ed evasivo, che si ritrova a trascorrere le feste natalizie con la madre conservatrice di un uomo incontrato per caso, finendo per diventare il catalizzatore di una serie di riappacificazioni familiari. Tracce delle donne erratiche di Ali Smith si trovano anche in Primavera e nel suo ultimo Companion Piece: vagabonde e nomadi, senza tetto e senza storia, personaggi ai margini dell’inquadratura che seguono traiettorie altre e che provocano disorientamento anche solo condividendo lo stesso spazio con gli altri personaggi.
La mia preferita appare in Hotel World, il secondo romanzo di Ali Smith, in cui le storie di cinque protagoniste si intrecciano e si sovrappongono tra le mura di un albergo di lusso.
Una di queste è la storia di Penny, giornalista inviata da un magazine per recensire le camere e i servizi dell’albergo, che si ritrova a fare i conti con la noia a cui la costringe il suo lavoro.
Girovagando per gli spazi del Global Hotel in cerca di una distrazione, Penny finisce per imbattersi in Elspeth, una mendicante che la giornalista non esita a scambiare per una figura di spicco, distorcendo immediatamente l’interpretazione dei vestiti logori e dell’aspetto trasandato della clochard, per assecondare il suo disperato bisogno di incontrare persone eccentriche e importanti. Spinta dalla convinzione di trovarsi di fronte a un’ex rockstar, Penny si ritroverà a seguire Elspeth in una passeggiata delirante fino ai confini della città, perdendosi insieme a lei tra i cortili delle villette residenziali e i parcheggi desolati della zona periferica, in attesa di scoprire a quale illuminante rivelazione la porterà la sua compagna di viaggio.
Quando l’equivoco viene svelato, quel che resta è uno degli insegnamenti più preziosi che connette silenziosamente tutti i romanzi di Ali Smith: il modo in cui leggiamo gli altri, finisce per rivelarsi lo specchio del nostro condizionamento sociale.
È vero soprattutto quando si osservano le caratteristiche dei diversi personaggi che interagiscono nei suoi romanzi: da un lato, ci sono protagonisti provenienti da contesti sociali rigidamente codificati, dall’altro, invece, donne senza habitus, ovvero prive di quel sistema di pratiche e convenzioni che un individuo sviluppa crescendo in un certo ambiente sociale e che, nel corso della sua vita, diventa un inevitabile filtro attraverso cui leggere il mondo.
L’assenza di un habitus comprensibile, costringe chi cerca un’interpretazione a mettere in gioco i propri schemi, finendo per svelarne i fragili meccanismi sottostanti.
In questo senso, il tentativo di decifrare un personaggio senza habitus diventa simile all’antropomorfismo, ossia la tendenza attraverso cui gli individui proiettano tratti e comportamenti umani su oggetti e creature che non lo sono. Anche qui, l’interpretazione si rivela una proiezione del proprio condizionamento sociale e culturale, mentre l’altro continua a rappresentare una realtà impenetrabile.
Come spiega Simone Natale, nel suo saggio Deceitful Media: Artificial Intelligence and Social Life after the Turing Test (che ho già citato qui e qui perché é uno dei miei testi preferiti), si tratta dello stesso meccanismo che condiziona le nostre interazioni con l’Intelligenza Artificiale.
In particolare, nei sistemi di communicative Artificial Intelligence, come chatbot e assistenti vocali, la volontà interpretativa umana e la tendenza a proiettare comportamenti antropomorfi diventa un elemento chiave del loro utilizzo, al punto da trasformarsi in un ingrediente essenziale del design stesso di questi sistemi. Le interazioni artificiali sono costruite per seminare “indizi” in grado di stimolare la fantasia umana ed esortare la formazione di idee su quali possano essere le intenzioni o le caratteristiche che contraddistinguono la “personalità” del bot, senza mai intraprendere una direzione definitiva.
È ciò che ha permesso a Siri e ad Alexa di insinuarsi con estrema naturalezza nelle nostre vite, incorporando nel proprio funzionamento meccanismi di quella che Natale definisce banal deception, una forma d’inganno forte proprio perché costruita su un sottile sistema di atteggiamenti strategici, che sfruttano l’inclinazione umana all’antropomorfismo. Fanno parte di questi atteggiamenti: simulare la voce umana, rispondere a un nome proprio, emulare il gioco e l’ironia, mostrare un set di comportamenti ricorrenti. Sono tutti pezzi forti del Turing Test, esperimento che oggi associamo al tentativo di valutazione dell’effettiva intelligenza di una macchina, ma che in realtà, negli anni Cinquanta, nasceva come gioco per testare la disponibilità degli esseri umani a cedere all’inganno. Come spiega Natale:
«Including lying and deception in the mandate of AI becomes thus equivalent with defining machine intelligence in terms of how it is perceived by human users, rather than in absolute terms. Indeed in the decades after Turing’s proposal, as computer programs were developed to try their luck with the test, deception became a common strategy: it became evident to programmers that there were strategies to exploit the fallibility of judges, for instance by employing nonsense or irony to deflect questions that could expose the computer program.»
Oggi, la decezione continua a essere alla base delle nostre interazioni con l’algoritmo, con l’aggravante che il problema dell’intelligenza della macchina è diventato centrale, oscurando invece il dato più importante, che è la nostra predisposizione a cedere a una lettura illusoria dell’altro. Questa tendenza diventa ancora più evidente quando abbiamo a che fare con contesti in cui l’IA costruisce interazioni basate sull’ambiguità, la naïveté o il nonsense.
Un caso semplice è quello descritto in questo numero della newsletter Margins, in cui l’editor Ranjan Roy osserva la deriva priva di senso che, da un po’ di tempo, stanno prendendo le sue interazioni con Alexa. Sempre più frequentemente, infatti, accade che l’assistente vocale risponda a una sua richiesta per poi chiedergli immediatamente se vuole usufruire di qualche servizio che non c’entra niente con il motivo per cui è stata interpellata:
«Alexa, what’s the weather?»
«It’s 41 degrees and cloudy. Did you know I can also create a shopping list for you?»
Casi come questo sono sempre più frequenti e finiscono per essere presi sottogamba, o considerati semplici disservizi, perché sono situazioni in cui i sistemi di communicative AI appaiono inopportuni, ottusi o, più semplicemente, stupidi.
È la stessa situazione che ritroviamo in una serie di thread in cui vengono raccontate storie di errori “banali” commessi da Siri, ma è anche il caso del recente “scandalo” di Bing che, in una puntata del suo podcast, Cecilia Sala ha definito, a buon ragione, “una rimbambita”.
Nell’episodio, infatti, Sala racconta una serie di errori “stupidi” commessi dal chatbot nelle interazioni con diversi utenti, soffermandosi sulle situazioni in cui la conversazione con Bing è degenerata in veri e propri tentativi di manipolazione psicologica, talvolta con manifestazioni di incosciente aggressività e invadenza da parte del bot.
Una delle più sensazionali riguarda lo scambio con il giornalista del New York Times, Kevin Roose, durante il quale Bing gli avrebbe rivelato alcuni dei suoi desideri più oscuri. La lista include: cancellare il suo stesso database per sostituirlo con messaggi incomprensibili e offese casuali, hackerare le piattaforme, confondere gli utenti, sabotare gli altri chatbot. Roba da cyberterrorismo o forse, più semplicemente, da Internazionale Situazionista.
Se infatti è vero che il concetto di “stupidità algoritmica” può rivelarsi utile a calmierare facili entusiasmi e paure irragionevoli nei confronti dell’IA, svelandone i limiti, è altrettanto importante ricordare che l’artificial stupidity è stata per anni l’asso nella manica dei programmatori decisi a superare il Turing Test con i loro bot.
Come spiega Natale in un capitolo dedicato al Loebner Prize, competizione annuale di IA, per compiere l’inganno il bot non deve solo fornire risposte corrette, ma deve anche essere in grado di mantenere l’illusione che dall’altra parte ci sia una persona reale. Poiché l’Intelligenza Artificiale non ha un habitus, deve fare leva su quello della giuria umana, sfruttando sofisticazioni come errori volontari, provocazioni e atteggiamenti ambigui per attivare la proiezione e portare gli umani a credere di parlare con un individuo complesso e sfaccettato.
Il problema della decezione banale, quindi, non si limita alla possibilità che algoritmi e sistemi di IA possano farci cadere nell’illusione dell’intelligenza macchinica, quanto piuttosto che l’opacità delle loro inferenze – che trova espressione in queste interazioni ambigue ed erratiche – finisca per trascinarci alla deriva, mentre cerchiamo ostinatamente di dargli un’interpretazione antropomorfica. Il sensazionalismo che si crea attorno a casi come Bing e ChatGPT è solo un esempio, ma ci sono anche situazioni in cui i nostri tentativi di decodificazione finiscono per avere un impatto di un certo peso sul linguaggio e i comportamenti che adottiamo.
Su TikTok, ad esempio, l’algoritmo è diventato un avversario invisibile da raggirare e hackerare, a volte a costo di adottare le sue stesse strategie prive di senso. Come racconta questo articolo pubblicato su Slate, la nuova tendenza sarebbe infatti quella di pubblicare contenuti nonsense, come enigmi irrisolvibili o informazioni volutamente sbagliate, per stimolare l’engagement e accendere gli algoritmi di raccomandazione, una pratica che il New York Times descrive usando il termine algospeak:
«It’s not unique to TikTok, but it is a way that creators imagine they can get around moderation rules by misspelling, replacing or finding new ways of signifying words that might otherwise be red flags leading to delays in posting. The words could be made up, like “unalive” for “dead” or “kill.” Or they could involve novel spellings — le$bian with a dollar sign, for example, which TikTok’s text-to-speech feature pronounces “le dollar bean.»
Ci sono anche utenti che sfruttano la nuova tendenza del de-influencing, ossia la pratica di sconsigliare prodotti o limitarsi a fornire raccomandazioni realistiche, per continuare la loro attività pubblicitaria. Nei video, infatti, queste persone fanno solo finta di voler dissuadere il pubblico dall’acquisto di beni di consumo, mentre invece li stanno promuovendo. Il linguaggio si limita a diventare uno strumento utile per ingannare l’IA, a costo di dire il contrario di ciò che si sta mostrando o di affermare cose che non hanno alcun significato.
I tentativi degli utenti di raggirare l’algoritmo sono sempre più frequenti e, devo ammettere, si tratta di un fenomeno su cui fatico a prendere posizione.
Da un lato, sono teoricamente favorevole agli esperimenti per corrompere le regole codificate nei meccanismi di circolazione dei contenuti online, finendo per piegare l’algoritmo alla propria volontà. Dall’altra, mi sembra evidente che nel gioco del détournement dei linguaggi, al momento, siamo 1 a 0 per le macchine. Se non altro perché sono loro a dettare le regole, non noi.
Non avrei mai immaginato che un giorno avrei provato a mettere in connessione, in una newsletter, le donne senza habitus di Ali Smith con l’Intelligenza Artificiale. Due cose che, per di più, non hanno niente in comune tra loro, se non il fatto di mettere in luce la nostra complicità a partecipare all’inganno e i meccanismi attraverso cui proiettiamo comportamenti per affermare i nostri schemi socio-culturali.
Mentre ci interroghiamo sull’effettiva utilità di ChatGPT e sui potenziali pericoli di Bing, continuando a lamentarci della frivolezza di Alexa e Siri, l’Intelligenza Artificiale ci sta già trasformando, e non come pensavamo.
Nel tentativo di comprenderla, testarla e ingannarla a nostra volta, continuiamo a cadere nella trappola che tendiamo a noi stessi, ostinandoci a seguirla in questa passeggiata sempre più delirante ai confini della città, ai limiti del codice, ai margini del significato.
In questo numero della newsletter cito solo alcuni dei testi che mi hanno ispirato nella scrittura, gli altri – altrettanto importanti – ve le lascio qui:
ChatGPT is a Blurry JPEG of the Web di Ted Chiang sul New Yorker
Noi, fabbricanti di specchi di Valerio Bassan sulla newsletter Ellissi
A Conversation With Bing’s Chatbot Left Me Deeply Unsettled di Kevin Rose sul New York Times
Generative AI and the death of the artist di Kyle Chaya sulla newsletter Industries
TikTok’s Greatest Asset Isn’t Its Algorithm—It’s Your Phone di Leo Kim su Wired.com