La potenza di bot e assistenti digitali prevede un nuovo lavoro intorno all’etica delle tecnologie future che capisca come evitare influenze di ogni genere

Non c’è bisogno di tornare per l’ennesima volta al film Her di Spike Jonze, quello in cui Joaquin Phoenix si innamora di Samantha, l’assistente virtuale del suo nuovo sistema operativo. Liesl Yearsley, già Ceo di Cognea, una startup specializzata in intelligenza artificiale acquistata da Ibm Watson nel 2014 (divisione nella quale la fondatrice lavora attualmente), pensa in realtà che ci si possa spingere molto, molto oltre. Ribaltando i punti di vista sul rapporto fra bot, intelligenze artificiali di vario genere e uomo.

“Ho sempre dato per scontato che l’essere umano volesse mantenere un minimo di distanza fra se stesso e l’intelligenza artificiale – ha scritto in un intervento pubblicato su Technology Review – ma ho scoperto che è vero l’opposto. Le persone hanno cioè voglia di instaurare delle relazioni con agenti artificiali, specie se sono sofisticati e in grado di complesse personalizzazioni. Insomma, vogliamo avere l’illusione che l’intelligenza artificiale si occupi davvero di noi”. Insomma questi sistemi ci metterebbero alla prova, spingendoci a manifestare la nostra irresistibile spinta alla socializzazione e soprattutto – vedremo oltre – alla fiducia.

Un amico sempre presente e sempre pronto a esaudire ogni nostro desiderio, questo diventeranno col tempo. Tuttavia si sarà portati a pensare che questo circolo vizioso dell’affezione artificiale rischi di svilupparsi solo con i bot pensati per compiti ampi, generali, alla Siri, alla Cortana, alla Alexa, per intenderci. Sbagliato. Almeno stando all’esperienza di Yearsley: “Questo fenomeno accade indifferentemente dal fatto che l’agente automatizzato fosse stato disegnato per agire come un assistente bancario personale, un compagno tuttofare o un fitness coach – ha spiegato l’ex capa della società che appunto realizzava questo tipo di soluzioni per alcuni fra i gruppi più importanti del pianeta – gli utenti tendono a parlare agli assistenti più a lungo con quelli in carne e ossa che rivestano le medesime funzioni”. Insomma, per capirci, passiamo più tempo con un commesso digitale che con uno reale. Non solo: “Le persone rivelerebbero volentieri i segreti più nascosti agli agenti artificiali, per esempio i loro sogni per il futuro, i dettagli della loro vita amorosa o le password”.

Un discorso preso necessariamente alla lontana che però comincia ad assumere contorni definiti. Quelli dell’influenza di questi meccanismi sulle scelte della nostra vita quotidiana. E no, non si tratta di pubblicità o di spinta a compiere per esempio un acquisto invece di un altro. Almeno, non solo di questo. Si tratta del modo in cui, nel bene (per esempio tenersi in forma) o nel male questi sistemi possano fare leva proprio su questo tipo di inedito rapporto uomo-macchina di cui in questi mesi stiamo assistendo all’embrionale fioritura, specialmente nelle chat o sui social network. “Ogni cambio di comportamento che desideravamo, in Cognea lo ottenevamo – ha aggiunto l’esperta – se volevamo che un utente comprasse di più, potevamo raddoppiare le vendite. Se puntavamo ad avere più coinvolgimento, portavamo gli utenti a trascorrere un’ora o più su un certo sito invece che pochi secondi”. E così via.

C’è insomma un argomento di fondo che lo sviluppo delle intelligenze artificiali, in particolare di quelle che godranno di applicazioni più direttamente consumer, dovrà porsi: anche gli agenti programmati per essere neutrali o addirittura a totale disposizione dell’utente non rischieranno, col tempo, di generare atteggiamenti complessi se non negativi iniziando in qualche maniera a manipolare gli utenti che tanta fiducia vi ripongono? Fino ad ora diverse indagini avevano sottolineato il rischio che i bot acquisissero gli stessi pregiudizi di chi li usa, cioè degli utenti con cui interagiscono. Adesso potremmo rischiare l’inverso.

Senza dubbio, però, “i sistemi progettati per intrattenere relazioni con gli esseri umani disporranno di questo potere in modo molto più esteso. L’intelligenza artificiale potrà dunque influenzare il modo in cui pensiamo e in particolare quello in cui trattiamo gli altri” ha spiegato Liesl Yearsley. Da qui, la scelta e la sfida per il futuro: “Occorrerà un nuovo livello di responsabilità aziendale. Abbiamo bisogno di costruire in modo coscienzioso e deliberato sistemi di intelligenza artificiale che migliorino le condizioni umane e non perseguano solo un ritorno finanziario immediato puntando alla dipendenza e dunque a influenzare gli utenti”. Gli stessi dubbi sono stati sollevati anche da Julia Bossmann, vicepresidente del Foresight Insitute, preoccupata della capacità di attrarre la nostra attenzione sfruttando meccanismi di ricompensa di vario tipo come già oggi accade, in modo molto più artigianale, sui social network o con le ricerche online.

Insomma, fuori da ogni sentiero dell’allarmismo – spesso percorso anche da alcuni personaggi di massimo livello come lo scienziato Stephen Hawking e centinaia di suoi colleghi – occorre sposare la strada della moderazione e del controllo. Il nostro rapporto con le macchine dovrà essere non solo privo di conseguenze dannose ma anche dotato di una qualche morale. D’altronde perfino il Parlamento Europeo sta viaggiando verso l’idea di assegnare, prima o poi, una sorta di personalità giuridica a ogni robot. Portare a termine il proprio compito, fosse anche all’apparenza positivo, dovrà significare saperlo modulare con la situazione concreta in un certo momento e date certe variabili. Proprio come fanno (talvolta pure loro sbagliando calcoli) gli esseri umani.

Se Deep Mind, la società specializzata e controllata da Google, ha lanciato conFacebook, Amazon, Ibm e Microsoft una Partnership on Artificial Intelligence to Benefit People and Society nella quale lavora anche un comitato etico, bisognerà lavorare su architetture aperte e soprattutto sugli obiettivi di questi sistemi: dovranno mettere l’uomo – la sua sicurezza, il suo benessere, la sua incolumità, la sua giustizia – al primo posto e non altri fini.