
OpenAI, la società che ha sviluppato ChatGPT, leader nel campo dell'intelligenza artificiale, si sta preparando ad introdurre il suo prossimo modello di punta GPT-5. L' aggiornamento più importante è quello che riguarda la possibilità da parte della celebre chatbot di rilevare la presenza di un possibile disagio mentale o emotivo da parte degli utenti.
L' esigenza è nata non soltanto dal massiccio utilizzo tra i giovani del sistema di messaggistica, ma soprattutto dal fatto che sempre più persone utilizzano le chatbot come supporto psicologico. Grazie a queste novità ChatGPT sarà in grado di migliorare le risposte quando emergono segnali di stress emotivo o disagio mentale, dando risposte più ricche di fonti, dati e spunti di riflessioni maggiori rispetto al passato e introducendo una funzione specifica per gestire domande che riguardano decisioni personali ad alto rischio. Per esempio, non darà più risposte dirette a domande come: “Devo lasciare il mio ragazzo?” ma guiderà l’utente a riflettere attraverso domande di approfondimento. Personalmente, non so se sia più strano che esistano persone che pongono questo tipo di interrogativi ad una AI, oppure che una AI sia in grado di dare una risposta ad una domanda del genere, ma sta di fatto che l'esigenza ha richiesto questa tipologia di aggiornamento e OpenAI non si è potuta esimere dal problema.
La società americana ha pensato anche al tempo che gli utenti trascorre davanti alla chat: se le conversazioni si prolungano troppo apparirà infatti un messaggio che gentilmente inviterà l'utente a prendersi una pausa. Un invito che non blocca la chat ma che dovrebbe portare l'utente a riflettere sulla sua permanenza on line. Ci sarebbe da capire come possa il sistema di AI far fronte a problematiche più complesse quando si troverà di fronte a persone con disturbi psicologici importanti, se è predisposto qualche sistema di controllo specifico in questi casi. Vedremo cosa succederà e come si evolverà il sistema, ma al di là delle buone intenzioni della società americana di migliorare il servizio, non posso fare a meno di notare come questo aggiornamento rifletta un problema sociale molto più ampio, legato alla mancanza di comunicazione tra le persone.
Il fatto che sempre più persone si fidino e si affidino ad una AI per i propri problemi personali lo trovo molto avvilente. Significa che nella società iperconnessa di oggi siamo sempre più soli: se non riusciamo più ad affidarci agli altri, se non abbiamo più un supporto nei genitori, nei fratelli, negli amici o negli insegnanti, e se una chatbot sostituisce la figura dello psicologo, significa che c'è un problema sociale rilevante. Non è semplicemente un disagio emotivo o un disturbo psicologico, siamo di fronte al fallimento della società come sistema di supporto ed integrazione personale.
La comunicazione interpersonale è forse uno degli aspetti più importanti dell'interazione sociale ma quando questa manca non rimane che rivolgersi ad altro, a qualsiasi cosa possa sostituirla, anche una macchina perché essa sarà sempre meglio della completa solitudine, ed è quello che in pratica sta succedendo oggi. Società significa unione e cooperazione ma ciò che emerge in questo modo è un quadro di isolamento sul quale dovremmo riflettere, anche perché probabilmente non sarà l'unico paradosso verso il quale le moderne tecnologie ci stanno spingendo.