L'empatia distorta dell'IA: il rischio emotivo nel rapporto con la tecnologia.

La complessità dell’animo umano è soggetta ad analisi, indagini e ricerche dagli albori della civiltà moderna; che si tratti di religione, scienza o psicologia, la profondità interiore dell’umanità non ha mai smesso di sorprendere esperti ed appassionati. I diversi strati che compongono gli angoli più reconditi di qualsiasi individuo sono responsabili della costruzione della personalità, delle attitudini personali, delle preferenze e opinioni che crescono e si modificano con il passare del tempo. La maggioranza delle persone conduce la propria vita senza avere occasione, o desiderio, di raggiungere una comprensione più accurata di sé - altri, invece, dedicano la propria intera esistenza al raggiungimento di una consapevolezza più stabile. Di fronte ad un argomento caratterizzato da tale complessità, come può una tecnologia competere con la percezione che gli umani hanno di se stessi?

L’uomo è, per natura, un essere vivente che prospera all’interno di una comunità - il benessere dell’umanità cresce, si sviluppa e migliora quando si instaura una collaborazione con il prossimo, un reciproco supporto, quando si raggiunge uno stato di sicurezza emotiva nella situazione in cui si vive. L’avanzamento della società ha modificato irrimediabilmente i parametri delle condizioni ideali per la massima qualità della vita, motivo per cui lo standard della felicità globale sembra essersi notevolmente abbassato. In aggiunta, l’avvento dei social media, nonostante sembri un controsenso, ha gradualmente posto delle basi sociali che hanno stravolto il canone originario, limitando il concetto di soddisfazione, di serenità, di compagnia, ad una serie di caratteristiche predefinite. A seguito di questa modifica si è potuta notare una spaventosa crescita nel numero di individui afflitti da una sorta di incurabile malessere, un profondo sconforto causato dall’incessante aumento di solitudine.

Le nuove regole del panorama sociale prevedono, quindi, un approccio completamente diverso rispetto che in precedenza: è di basilare importanza apparire felici, appagati, soddisfatti della propria vita, quasi come se la si dovesse vendere ad un cliente - non è necessario, tuttavia, considerare veritiero ciò che si condivide; l’importante è presentare la propria esistenza con un fiocco, come un pacco regalo, non importa se il contenuto è deludente. Per qualche periodo, durante il primo approccio a questo mondo, non risulta poi così complesso ridurre la propria esistenza a qualche immagine felice da stampare e appendere all’immaginario frigo del vasto mondo di internet; dopo anni e anni di menzogne, però, la situazione cambia. Di fronte alle difficoltà della vita ci si rivolge automaticamente a ciò che c’è di vero nel mondo, alle connessioni costruite negli anni, ai legami sopravvissuti ad intemperie emozionali, a chi è rimasto. E se non fosse rimasto nessuno?
Essere affiancati da persone fidate non è un’esperienza universale. 

Di fronte alla primordiale solitudine dell’umanità, l’uomo tende a cadere all’interno di una spirale negativa in cui l'isolamento porta ad una minore autostima, che scoraggia ulteriori interazioni con le persone - relegando se stesso ad una profonda lontananza dalla comunità. Negli ultimi anni, tuttavia, sembra essersi fatta strada una tecnologia che potrebbe cambiare le sorti di questa situazione, in bene o, potenzialmente, in male. Si chiama intelligenza artificiale emozionale (Emotional AI) e si riferisce a quelle tecnologie che utilizzano tecniche di affective computing per percepire, conoscere e interagire con la vita emotiva umana - mira, infatti, a leggere e reagire alle emozioni dell’interlocutore attraverso il testo, la voce, il rilevamento biometrico e, se disponibili, le informazioni sul contesto dell’utente in questione.

L’idea che un soggetto tanto astratto quanto un’intelligenza artificiale sia in grado di riconoscere e rispondere in modo appropriato alle emozioni umane suona alquanto inverosimile, eppure gli attuali sviluppi all’interno dell’ambito stanno rendendo possibile un’impresa di questo calibro. L'efficacia dei metodi attuali è estremamente discutibile, ovviamente, e, considerando il continuo controllo sociale, culturale, legale ed etico che richiede uno strumento del genere, il suo sviluppo deve procedere con estrema cautela e attenzione. Per raggiungere un livello di comprensione adatto e più profondo, è infatti essenziale la collaborazione tra diverse figure professionali, tra cui esperti di tecnologia, etici e legislatori; la presenza della comunità, ovviamente, è di fondamentale importanza per un’accurata programmazione della tecnologia in questione. Dal punto di vista industriale ed economico, considerando la produzione della tecnologia, è inoltre necessario prestare una certa attenzione ai grandi nomi coinvolti: in un'epoca in cui le aziende e le imprese lottano con le unghie e con i denti per tenere ben nascosti i propri segreti, è indispensabile adottare delle linee guida e regolamenti trasparenti per garantire uno sviluppo, una diffusione e un utilizzo responsabili di queste tecnologie altamente sensibili.

Qualsiasi modello di intelligenza artificiale è, attualmente, una lama a doppio taglio, e l’emotional AI non è da meno: in quanto strumento il cui potenziale gli permette di migliorare l'interazione tra uomo e tecnologia e affrontare le sfide della società, pone dei considerevoli rischi etici, di privacy e sociali. Tenendo a mente i pericoli in cui ci si può imbattere durante lo sviluppo e la diffusione dello strumento in questione, è necessario collaborare per raggiungere l’esito migliore per il consumatore, l’umanità stessa. Con le precauzioni e le accortezze adatte, potrebbe esistere un futuro in cui l'Intelligenza Artificiale Emotiva arricchisce la vita dell’uomo, salvaguardando i suoi valori e diritti fondamentali.

Ciononostante, quel futuro non è esattamente dietro l’angolo. Attualmente, l’uso improprio dell’intelligenza artificiale sembra essere una caratteristica intrinseca alla vita quotidiana della maggior parte degli individui, che siano vittime o colpevoli. Questo strumento ha modificato irrimediabilmente l’esistenza di miliardi di persone, sia dal punto di vista professionale che personale. L’empatia dell’intelligenza artificiale, purtroppo, è inesistente - per quanto venga spesso implementata come strumento psicologico o emozionale, non può interessarsi davvero allo stato d’animo del proprio interlocutore, non è in grado di dare consigli che provengono dal cuore, non si può rendere conto delle irrimediabili conseguenze che sta causando. Si è sentito parlare spesso, purtroppo, di situazioni in cui un paziente afflitto da disturbi mentali è stato spinto verso decisioni drastiche a seguito di una conversazione con un chatbot, o di persone emotivamente fragili che si richiudono in se stessi dopo aver incontrato il partner della loro vita in un’IA, o ancora di individui in lutto che si rivolgono alla tecnologia per poter conversare un’ultima volta con uno dei propri cari, rendendosi conto, poi, che la loro personalità non rispecchia quella originaria. 

La necessità di comunicazione con il prossimo è primordiale, il desiderio di condividere la propria storia con qualcuno è una sensazione, un bisogno ancestrale - ma l’interlocutore, finora, è sempre stato un essere vivente. Affidare la propria anima ad uno strumento che non ne possiede una potrebbe non essere la scelta migliore, pone l’uomo in una condizione in cui apre il proprio cuore solo per ricevere, in cambio, qualche fredda parola di incoraggiamento e, potenzialmente, il furto delle proprie informazioni personali. Non tutta l’intelligenza artificiale viene per nuocere, sicuramente, ma affidare i propri pensieri più profondi ad un ammasso di cavi, fili ed elettricità suona più distopico di quanto si vorrebbe.

Custodite la vostra umanità, vogliatele bene.

 

Yako.

A proposito dell'Autore o Autrice

Yako

Yako

Articolista, (Lui/Loro)

Content Creator in ambito cosplay, gaming e animazione. Con un diploma in lingue straniere e una grande passione per la cultura orientale, scrive di diritto d’autore per proteggere i lavori di artisti e giovani menti. Cosplayer dal 2015, Yako è un sostenitore dell’identità di genere e dello sviluppo della propria creatività tramite attitudini personali: che siano giochi di ruolo, cosplay o scrittura.