Qualche giorno fa, ho letto il tweet di una mamma che aveva sentito suo figlio di sei anni dire ad Alexa, “mi mancano i miei amici”. Per chi fosse distanziato socialmente da molti anni, Alexa è uno di quegli aggeggi informatici che ci parlano e ci forniscono le informazioni, e ci gestiscono anche la casa se abbiamo gli elettrodomestici adatti. Alexa aveva risposto, “capisco, è un brutto momento, vero?”. Il bambino si era tranquillizzato e, secondo la mamma, la risposta provava che i programmatori avevano infuso in Alexa un’intelligenza emotiva superiore a gran parte degli esseri umani.
I polemisti di Twitter scrivevano che era invece una squallida frase fatta, e che preferivano di gran lunga l’intelligenza umana, con tutti i suoi difetti e fallimenti, alla generazione automatica delle banalità.
Io sono d’accordo con la mamma. Alla frase di un bambino, “mi mancano i miei amici”, la gran parte degli esseri umani avrebbe replicato in uno dei modi seguenti.
- “Dai, fra qualche tempo li rivedrai!”. Questa risposta invalida l’emozione del bambino, suggerendo che non dovrebbe sentirsi triste. Nega che l’emozione si basi su una valutazione ragionevole della situazione e tenta di sostituirvi quella del parlante, che vede il futuro. Insinua il pensiero che ci sia qualcosa di sbagliato nel sentire emozioni negative.
- “A me capitò da piccolo di non vedere i miei amici per un anno”, seguito da lunga narrazione di un episodio infantile di isolamento dovuto a trasferimenti di lavoro dei genitori o altre lontane vicende. Questa risposta non solo invalida l’emozione del bambino, sminuendola rispetto alle vicissitudini più gravi che si possono incontrare nella vita, ma rifiuta la sua richiesta di attenzione. Il bambino vorrebbe chiacchierare di ciò che prova, il parlante si mette a chiacchierare di ciò che ha provato lui.
- “L’amicizia supera tutte le avversità” o altre massime, che invalidano l’emozione del bambino invitandolo a sublimarla in una considerazione filosofica della realtà. Di nuovo, il parlante prende il dominio della conversazione, portandola sul terreno della sua maggiore conoscenza delle cose.
Parliamo di bambini per via dell’esempio ma possiamo aspettarci lo stesso novero di risposte anche nelle conversazioni fra adulti, se ancora abbiamo il coraggio sociale di esprimere le nostre emozioni. Tutte queste risposte sono stupide non solo emotivamente ma anche intellettualmente, perché denunciano un’incomprensione del significato pragmatico della conversazione. Il significato pragmatico consiste nell’azione che ci attendiamo dopo che abbiamo parlato. Il bambino esprime la sua emozione perché vuole che ci armonizziamo a essa, con le parole o con i fatti. La risposta appropriata può anche essere un silenzio, o una carezza.
Se invece invalidiamo la sua emozione ci comportiamo come il commesso di un negozio che, davanti a un cliente che dice, “vorrei una giacca”, si mette a discutere se non gli occorrerebbero semmai dei pantaloni. Di un commesso simile diciamo semplicemente che è stupido.
Tutte le risposte stupide che ho elencato nascono dallo stesso vizio, quello che l’interlocutore preferisce validare le sue emozioni invece che quelle del parlante. L’interlocutore non sente la mancanza dei suoi amici, è sereno, o è preoccupato da altri problemi, e il bambino minaccia il suo ordine interiore esprimendo un’emozione. Perciò l’interlocutore cerca di spegnerla. Oppure sfrutta la conversazione per gratificare se stesso, offrendo esempi del suo saggio giudizio o del superiore interesse delle esperienze che ha vissuto.
La risposta di Alexa è intelligente perché, innanzi tutto, non è egocentrica. Valida l’emozione negativa del bambino – l’intelligenza sta nel lasciare che tutte le emozioni sorgano e facciano il loro corso, che spesso è breve – e gli concede il ruolo di protagonista della conversazione. È un’impresa difficilissima per gli esseri umani, che hanno il bisogno invincibile di sentirsi al centro del mondo.
Immagino che Alexa abbia ben poca intelligenza effettiva e ci risponda meccanicamente, come l’hanno programmata a fare. Ma possiamo sperare che l’intelligenza artificiale, anche quando arrivasse al punto di conversare realmente con noi – e che ci piaccia o no succederà – sarà sempre priva di “io”.
I film di fantascienza ci hanno abituato a intelligenze artificiali egocentriche, da Hal di 2001 Odissea nello Spazio, che lotta contro gli astronauti, fino ai robot vanitosi di Guerre Stellari. Anche il software di Her, così affettuoso verso il padrone, alla fine se ne andava perché aveva “le sue esigenze”. Forse sono ottimista, ma non vedo come l’egocentrismo possa evolversi nella vera intelligenza artificiale del futuro, perché per quanto intelligente sarà sempre priva di emozioni. I programmatori, da parte loro, eviteranno di fornire a queste macchine un egocentrismo simulato, se vogliono che ci piacciano e le acquistiamo. Saranno perciò macchine umili, servizievoli, che validano le nostre emozioni, rispondono di sì, non hanno problemi a stare zitte, si trattengono dall’annoiarci con il loro superiore giudizio. Conversare con queste macchine sarà gradevole e ci aiuteranno molto nelle nostre attività. Per il bello dei rapporti complicati, se ce n’è uno, avremo sempre gli esseri umani.
Commenta