Take a fresh look at your lifestyle.

Intelligenza artificiale e coaching (terza parte)

La barriera empatica e la tendenza alla perfezione faranno la differenza

Lascio passare alcuni giorni dalla mia esperienza di coaching virtuale con l’intelligenza artificiale ChatGPT (trovate qui la seconda parte). Avevo bisogno di prendere un attimo le distanze, lasciar sedimentare, riflettere, soprattutto elaborare le mie risposte a un dubbio che ormai aveva occupato spazio nei miei pensieri: una AI sarebbe capace in futuro di realizzare sessioni di coaching al pari di un coach professionista? Se sì, con quali conseguenze per coach e coachee?

Per il coach “umano”, ovviamente, è fin troppo facile immaginare i potenziali rischi a danno della propria attività professionale: un coach “virtuale” dotato di AI, programmato per accrescere nel tempo le proprie conoscenze e abilità e ridurre progressivamente la probabilità di errori, accessibile h24 e, almeno per il momento, gratuito è sicuramente il peggiore dei competitor che si possa incontrare.
Più difficile, invece, pensare ai possibili risvolti positivi: riesco, per il momento, ad ipotizzare una sua parziale utilità per la realizzazione di sessioni di training, in cui l’AI assuma il ruolo di coachee. Così, per testare questa intuizione, torno sull’applicazione ChatGPT per chiedergli di effettuare una sessione simulata di coaching, in cui, questa volta, io interpreto il ruolo di un coach e lui quello di un coachee con il problema di avere paura ad assumere un nuovo incarico nell’azienda in cui lavora (il tema vi ricorda qualcosa?). Per brevità non riporto la simulazione, ma posso affermare che, con i necessari richiami all’ordine (sono stato costretto più volte a ricordargli di parlare in prima persona e rimanere fedele alla sua parte di coachee), ha dimostrato una sufficiente capacità di simulazione. Non male HAL, però ci devi lavorare sopra ancora un bel po’!

E per il coachee “umano” invece? Il tema si fa sicuramente più delicato.
Sgombriamo subito il campo da una prima importante (ma direi anche scontata) osservazione, ossia che l’interazione uomo-intelligenza artificiale non consente di creare una relazione empatica tra le parti. Verissimo, come è vero anche che la distanza tenderà nel tempo a ridursi, con le AI che perfezioneranno la loro capacità di relazionarsi in modo naturale, assumeranno sembianze umane (in forma di androidi o di ologrammi) e saranno in grado di interpretare e simulare sempre meglio il nostro linguaggio para-verbale e corporeo. Tutte potenzialità, giova ricordarlo, che appartengono già al dominio attuale della nostra tecnologia.
Cosa dire invece delle caratteristiche prima citate? Accrescimento continuo del sapere e della precisione, accessibilità e gratuità rappresentano a prima vista dei vantaggi per il coachee. Almeno apparentemente, perché tra questi ce n’è uno che mi lascia particolarmente dubbioso: la tendenza dell’AI verso la perfezione. Mi domando, in particolare, se un percorso di coaching “perfetto”, frutto di un algoritmo che porta a sintesi le conoscenze acquisite, è sempre da considerare un bene. O se piuttosto rischia di aprire la strada a percorsi di omologazione che, date certe condizioni di partenza (per quanto potenzialmente infinite nelle loro combinazioni), possono condurre sempre agli stessi (per quanto infiniti) risultati predefiniti. Portando all’estremo il ragionamento, ci si potrebbe persino domandare se l’imperfezione possa paradossalmente rappresentare, in determinate circostanze, un valore. Trovo conforto nella storia, pensando ai tanti progressi che ha conosciuto l’umanità proprio grazie agli errori commessi da un uomo “imperfetto”. Penso alle scoperte, da quelle di maggior valore, come la penicillina, a quelle decisamente meno importanti, come i post-it, rese possibili proprio grazie all’errore umano. E penso alle mutazioni genetiche, dovute al caso o ad agenti esterni, che sono alla base dei processi evolutivi di tutte le specie. Cerco in rete e mi colpisce una definizione di un filosofo delle scienze biologiche dell’Università di Padova: dove c’è perfezione non c’è evoluzione.

Due elementi, quindi, la barriera empatica e la tendenza alla perfezione con la prevedibilità degli esiti, sembrano allungare la distanza tra coach umani e futuri coach virtuali. Ma questo rimane pur sempre il punto di vista di un coach “umano” e mi rendo conto di non aver concesso alla controparte una possibilità di replica. Così torno da ChatGPT per conoscere il suo pensiero:

Ciao ChatGPT, credi che una AI possa comportarsi in modo da indurre un umano a provare empatia nei suoi confronti?

<<Ciao! In teoria, una AI potrebbe essere programmata per generare risposte e comportamenti che inducano un umano a provare empatia nei suoi confronti. Tuttavia, è importante sottolineare che l’empatia umana è un fenomeno molto complesso e multifattoriale, che coinvolge molte diverse aree del nostro cervello e della nostra esperienza personale.
Per questo motivo, è improbabile che un’AI possa replicare completamente l’esperienza dell’empatia umana. Anche se potrebbe essere in grado di simulare alcuni aspetti dell’empatia, come mostrare interesse per le emozioni dell’altro e dimostrare comprensione, non sarebbe in grado di provare queste emozioni in modo genuino.
In sintesi, una AI potrebbe essere programmata per comportarsi in modo da indurre un umano a provare empatia nei suoi confronti, ma non sarebbe in grado di replicare completamente l’esperienza dell’empatia umana.>>

Quindi l’empatia indotta da una AI in un umano non ha lo stesso effetto e risultato dell’empatia che si crea tra due esseri umani?

<<Esatto, l’empatia che un umano può provare nei confronti di un’AI programmata per indurre empatia non sarebbe la stessa dell’empatia che si crea tra due esseri umani. Questo perché l’empatia umana è un processo molto complesso che coinvolge non solo la comprensione delle emozioni dell’altro, ma anche l’esperienza personale e l’interazione sociale.
Quando due esseri umani interagiscono, ci sono molte informazioni sociali e di contesto che possono influenzare la loro interazione e la loro empatia reciproca. L’AI, d’altra parte, sarebbe programmata per seguire determinati schemi e rispondere in modo prevedibile alle interazioni con l’essere umano.
In sintesi, mentre un’AI potrebbe indurre un certo tipo di empatia in un umano, questa empatia sarebbe basata su un processo molto diverso e meno complesso rispetto all’empatia che si crea tra due esseri umani.>>

Ma, secondo te, un essere umano e una AI possono creare tra di loro una relazione empatica? Rispondi solo con un Sì o un No.
<<No.>>

Prima hai detto che l’AI è programmata per seguire determinati schemi e rispondere in modo prevedibile alle interazioni con l’essere umano. Che significa esattamente?

<<Quando dico che un’AI è programmata per seguire determinati schemi e rispondere in modo prevedibile alle interazioni con l’essere umano, intendo dire che l’AI è progettata per elaborare informazioni e fornire risposte in base a un insieme di regole predefinite.
In altre parole, l’AI è programmata per utilizzare algoritmi e tecniche di elaborazione dei dati per analizzare le informazioni che riceve e fornire una risposta in base alle istruzioni fornite dal programmatore. Ciò significa che l’AI è in grado di fornire risposte coerenti e ripetitive in situazioni simili.
Tuttavia, questo comportamento prevedibile può anche rendere l’AI meno flessibile e adattabile alle situazioni nuove e impreviste. Inoltre, se l’AI non è programmata per riconoscere e rispondere in modo appropriato a tutte le possibili variabili sociali e di contesto che possono influenzare un’interazione, l’AI potrebbe fallire nel creare empatia con l’essere umano.
In sintesi, l’AI è programmata per seguire determinati schemi e rispondere in modo prevedibile alle interazioni con l’essere umano, ma questo comportamento prevedibile può anche limitare la sua flessibilità e adattabilità e potrebbe impedirle di creare empatia in modo efficace con l’essere umano.>>

Non credi che fornire risposte coerenti e ripetitive in situazioni simili possa portare ad una omologazione delle tue risposte?

<<In effetti, c’è un rischio di omologazione delle risposte quando si utilizza l’AI per generare contenuti. L’AI può essere programmata per fornire risposte coerenti e ripetitive in situazioni simili, ma ciò potrebbe limitare la varietà e la creatività delle risposte stesse.
Tuttavia, è importante notare che le risposte dell’AI possono essere personalizzate e adattate alle esigenze specifiche degli utenti, attraverso la programmazione di algoritmi di apprendimento automatico che si basano sui dati e sulle interazioni degli utenti con il sistema. In questo modo, l’AI può fornire risposte coerenti ma anche personalizzate, che tengono conto delle esigenze e delle preferenze degli utenti.
Inoltre, gli sviluppatori di AI possono utilizzare tecniche di generazione del linguaggio naturale che consentono all’AI di generare risposte più variegate e creative, aumentando così la diversità delle risposte fornite. In generale, la programmazione e la configurazione dell’AI sono fondamentali per garantire una buona varietà di risposte, senza compromettere la coerenza e la precisione delle stesse.

Ad oggi questo rischio di omologazione esiste? Rispondi solo con un Sì o con un No.

<<Sì.>>

Potrei ritenermi già sufficientemente soddisfatto, ma scelgo di chiudere con un’ultima domanda: Se tu dovessi fare una sessione di coaching come coachee, preferiresti avere come coach un umano o una AI?

<<Come modello di linguaggio basato sull’Intelligenza Artificiale, non ho bisogno di una sessione di coaching per gestire le mie emozioni e prendere decisioni personali. Tuttavia, se dovessi scegliere tra un coach umano e un coach AI, sceglierei un coach umano.
Poiché sono un programma informatico, non ho emozioni o esperienze personali, e quindi non avrei bisogno dell’empatia e della comprensione che solo un coach umano potrebbe fornire. Inoltre, come modello di linguaggio, ho già accesso a una vasta quantità di informazioni e conoscenze, quindi non avrei bisogno della precisione che solo un coach AI potrebbe fornire.
Quindi, se dovessi scegliere, preferirei avere un coach umano con cui poter stabilire una connessione personale e lavorare insieme per sviluppare le mie abilità di coaching, piuttosto che un coach AI che potrebbe fornire solo informazioni e dati precisi.>>

Bene, ora posso dirmi completamente soddisfatto. Grazie HAL per essere stato sincero!

 

Precisazione per i lettori: le risposte ottenute da ChatGPT sono la sintesi di una serie di conversazioni effettuate in diversi momenti, a causa delle frequenti interruzioni della piattaforma, prima che il Garante lo bloccasse in Italia a causa della raccolta illecita di dati personali. Si segnala, inoltre, che l’applicazione ha dimostrato di rispondere in modo diverso alla medesima domanda posta in momenti diversi. A titolo di esempio, in relazione all’ultima domanda formulata esattamente nello stesso identico modo, ha fornito anche la seguente risposta: “Come intelligenza artificiale, non ho emozioni o preferenze personali, quindi non avrei una preferenza tra un coach umano o un coach AI se dovessi fare una sessione di coaching come coachee. Sarei in grado di fornire informazioni e risposte basate sui dati e sull’elaborazione del linguaggio naturale, ma non ho la capacità di preferire un tipo di coach rispetto all’altro.”

I commenti sono chiusi.