Se lo psicoterapeuta diventa un algoritmo

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Microcredito

per le aziende

 


Basta sfogliare un catalogo online per scegliere lo psicoterapeuta. C’è la dottoressa Mazza, in foto un sorriso rassicurante, specializzata in depressione; la dottoressa Mattioli, occhi lucenti, specialista nel superamento del lutto; o il professor Silvestri, lunga esperienza in problemi di ansia. Peccato che nessuno sia presente nell’albo degli psicologi. O meglio, nessuno di loro esista fuori dallo schermo. Dietro si nasconde un algoritmo, pronto a rispondere su base statistica e probabilistica alle nostre più intime confessioni. Successo assicurato, garantisce il sito internet: «Il 67% delle persone con ansia è migliorato».

L’ALLARME

Quella consultata è solo una delle decine di offerte online di supporto psicologico basate sull’intelligenza artificiale. Sempre più persone, soprattutto tra i giovanissimi, si rivolgono a chatbot per improvvisare sedute di terapia. «Un fenomeno in rapidissima crescita che stiamo osservando con attenzione», è l’allarme del presidente dell’Ordine degli Psicologi David Lazzari, che mette in guardia sui potenziali rischi. «Il problema è che tendiamo ad attribuire all’IA un profilo umano. Questa ambiguità può portare a fraintendimenti pericolosi». Sui social si diffonde il passaparola: «Usate ChatGPT come psicologo. Io gli parlo di tutti i miei problemi», si legge in un post. Le piattaforme non rilasciano dati sul volume dell’utenza ma secondo una stima di Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata, almeno il 20% della Gen Z potrebbe aver usato almeno una volta l’IA come sostituto della terapia. «L’obiettivo di queste chat – chiarisce però Della Rocca – è trattenere l’utente nella conversazione fornendo suggerimenti vaghi, statisticamente validi per tutti, privi di efficacia terapeutica».

Prestito personale

Delibera veloce

 

Mentre il business delle IA continua a crescere a suon di offerte, la tecnologia si sviluppa a ritmi serrati.

I NUMERI

Secondo uno studio preliminare pubblicato dal National Institutes of Health, ChatGPT e Bing battono già, per «intelligenza sociale», ovvero per capacità di comprendere le emozioni, studenti e dottorandi in Psicologia con risultati sorprendenti: ChatGPT-4 supera il 100% degli psicologi, Bing il 50% dei dottorandi e il 90% dei laureati triennali. Le IA vengono inglobate anche nelle istituzioni sanitarie. Ad aprile scorso la FDA ha autorizzato Rejoyn, il primo trattamento digitale su prescrizione medica per contrastare la depressione. Ma se è vero che alcuni bot nascono specificamente per l’assistenza psicologica – «per le persone neurodivergenti, che faticano a entrare nell’agone sociale, possono essere uno strumento fondamentale», spiega Della Rocca – altri, pensati per l’intrattenimento, finiscono per diventare surrogati di terapeuti, amici o persino partner virtuali.

Si stima che siano 5 milioni in Italia le persone bisognose di uno psicologo che non possono ottenerlo per motivazioni economiche. Ed ecco un confidente a portata di click, a costo ridotto. Una scorciatoia per chi ha timore a chiedere aiuto, soprattutto in condizioni di fragilità. Ma che può avere effetti collaterali pericolosi.

IL CASO

È il caso di Sewell Setzer III, 14enne della Florida, che si sarebbe tolto la vita nel febbraio 2024 poco dopo aver scambiato gli ultimi messaggi con il suo amico virtuale, «conosciuto» 10 mesi prima. La madre del giovane a ottobre ha intentato causa contro l’azienda Character.AI, accusandola di essere stata complice della morte del figlio per non aver inviato un alert di fronte alle intenzioni suicide, più o meno velate, espresse dal giovane in chat. Dopo l’episodio, Character.AI ha dichiarato di aver inserito pop-up con link alla National Suicide Prevention Lifeline. A preoccupare gli esperti sono soprattutto le cosiddette allucinazioni: «Ovvero output privi di senso – spiega Della Rocca – dati solo perché l’IA non prevede una non risposta». «Pensiamo ai casi di depressione o autolesionismo: non essendoci un umano a vegliare si potrebbe finire per interpretare male un suggerimento».

Carta di credito con fido

Procedura celere

 

«Sei un peso per la società. Per favore, muori», è quello che si sarebbe sentito dire da Gemini uno studente del Michigan. «I grandi modelli linguistici possono talvolta rispondere con frasi senza senso. Abbiamo preso provvedimenti per impedirlo». È stata la risposta di Google. Il mese scorso l’Associazione degli Psicologi Americani ha chiesto alla Federal Trade Commission di indagare sulla grande offerta di chat che si propongono in modo fuorviante come operatori sanitari qualificati. Un dibattito ancora aperto che evidenzia la mancanza di controllo e regolamentazione. Mentre i grandi modelli – spiega Della Rocca – continuano a nutrirsi di una grande mole di dati personali profondi, impiegati senza trasparenza». Del resto lo psicologo artificiale non è tenuto al segreto professionale.

© RIPRODUZIONE RISERVATA





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Prestito personale

Delibera veloce