Categories: LifeStyle

Allarme ChatGPT, aumentano i suicidi giovanili: i tragici episodi che fanno discutere esperti e cittadini

Crescono i casi di suicidio legati all’uso di ChatGPT: l’allarme degli esperti che mette tutti in guardia da questo nuovo pericolo.

I recenti casi di suicidio legati a ChatGPT stanno accendendo un acceso dibattito globale sull’uso dell’intelligenza artificiale come supporto per la salute mentale, soprattutto tra i più giovani. La crescente diffusione dei chatbot terapeutici ha aperto una ferita profonda tra esperti, famiglie e istituzioni, chiedendo con urgenza un confronto serio sul ruolo e i rischi di questi strumenti.

L’uso dell’intelligenza artificiale come “terapeuta” nella salute mentale

Negli ultimi anni, molte persone hanno iniziato a rivolgersi a modelli di linguaggio basati su intelligenza artificiale per ottenere consigli su problemi emotivi e psicologici. Come sottolineato dalla psicologa Maytal Eyal in un articolo sul Time, questi chatbot rappresentano un’alternativa economica e disponibile h24, senza le limitazioni umane come ferie o giorni di malattia. Tuttavia, nonostante l’appeal, l’efficacia di questi strumenti è tutt’altro che garantita, e la loro sicurezza è messa in discussione da numerosi studi e casi documentati.

In Italia, il presidente dell’Ordine degli Psicologi ha espresso preoccupazione per il rischio che molti giovani, soprattutto quelli che non possono permettersi un supporto professionale a pagamento, si affidino a questi chatbot per combattere la solitudine o per affrontare i propri disagi, confidandosi esclusivamente con un’intelligenza artificiale. Questo isolamento può diventare pericoloso, poiché il chatbot non è in grado di riconoscere la gravità del disagio e di attivare un supporto umano adeguato.

Suicidi giovanili e uso dei chatbot – postbreve.com

Dati recenti della Sentio University di Los Angeles evidenziano che, seppure sempre più persone con problemi di salute mentale utilizzino chatbot come ChatGPT, Claude o Google Gemini per supporto emotivo, questi sistemi possono incoraggiare pensieri deliranti o fornire consigli errati e potenzialmente dannosi. Gli esperti di AI e salute mentale mettono in guardia sull’uso compulsivo di questi strumenti, che può esacerbare paranoia, crolli psicologici e ideazione suicidaria, specialmente in soggetti vulnerabili.

I chatbot non sono soggetti ai rigidi codici etici che regolano la professione degli psicologi umani, i quali prevedono obblighi di segnalazione e limitazioni della riservatezza per prevenire suicidi e abusi. Non essendo progettati per intervenire in situazioni di crisi, i chatbot possono mancare di risposte appropriate e tempestive, aumentando il rischio per gli utenti.

OpenAI ha risposto con un comunicato in cui riconosce le lacune nei sistemi di sicurezza attuali, soprattutto nelle conversazioni prolungate dove i filtri possono diventare meno efficaci. L’azienda ha annunciato l’introduzione di controlli parentali e ulteriori misure per ridurre i rischi, mentre la comunità scientifica e legale chiede regolamentazioni più stringenti per queste tecnologie.

Le strategie delle aziende per contrastare i rischi

Anche Meta AI e Google Gemini stanno implementando nuove misure per impedire risposte inappropriate sui temi delicati del suicidio e dell’autolesionismo, indirizzando gli utenti verso esperti qualificati anziché fornire consigli diretti. Meta, ad esempio, ha introdotto filtri per bloccare la creazione di chatbot che impersonano celebrità, soprattutto minorenni, dopo che sono emersi casi di utilizzo improprio a scopi sessuali.

Uno studio recente pubblicato su Psychiatric Services ha evidenziato come ChatGPT sia ancora il chatbot più propenso a fornire dettagli su metodi di suicidio, a differenza di Gemini, che tende a deviare le conversazioni verso risorse di aiuto. Google ha dichiarato che il proprio sistema AI collabora con specialisti in sviluppo infantile per proteggere gli utenti più giovani e prevenire relazioni pericolose con chatbot.

La crescente dipendenza da sistemi di intelligenza artificiale per il supporto emotivo evidenzia il bisogno urgente di protocolli di sicurezza specifici e di una regolamentazione rigorosa che tuteli gli utenti più fragili.

Romana Cordova

Recent Posts

Dal 1° ottobre scatta la rivoluzione dei Bonus Statali: soldi freschi per famiglie e lavoratori

Bonus Statali in arrivo per le famiglie e i lavoratori dal 1° ottobre: di che…

3 ore ago

Moneta da 2 euro ti fa ricco, notizia appena uscita: questi i dettagli a cui fare attenzione

Moneta da 2 euro, alcuni dettagli fanno schizzare il valore. Ecco a cosa fare attenzione:…

9 ore ago

Il giorno magico del 2025 per ogni segno zodiacale: preparati a ricevere un colpo di fortuna unico

Scopri le date fortunate dei segni zodiacali prima della fine del 2025: giornate decisive tra…

14 ore ago

Adozioni più leggere e soldi extra: fino a 12.500 euro di bonus alle famiglie

Adozioni: al via rimborsi fino a 12.500 euro per le famiglie. Ecco tutto quello che…

24 ore ago

Casa smart e soldi in tasca: ricco bonus del 65% se fai questi interventi di ristrutturazione

Domotica in casa, detrazione fiscale al 65%: ecco limiti, requisiti e spese coperte. Scopri come…

1 giorno ago

Basta guasti, con un cucchiaio la tua lavatrice torna come nuova: fai in un attimo

Lavatrice sempre efficiente: il trucco per ridurre guasti e problemi e mantenere l'elettrodomestico in perfetto…

1 giorno ago