video suggerito
video suggerito

L’IA come psicologo economico per i bambini? Gli esperti: “Per ora impossibile sostituire la terapia umana”

L’intelligenza artificiale si sta affermando nel supporto alla salute mentale, ma il suo impiego con i bambini solleva numerosi per l’efficienza del supporto, oltre a diverse questione etiche. Alcuni esperti hanno infatti riflettuto sui rischi di un’eccessiva dipendenza dai chatbot terapeutici e chiedodo nuove regolamentazioni per garantire sicurezza ed equità nell’accesso alle cure anche per i più piccoli.
A cura di Niccolò De Rosa
5 CONDIVISIONI
Immagine

La cura della salute mentale è importante tanto quanto quella del corpo, ma rivolgersi a un terapeuta comporta dei costi che non tutte le famiglie possono sostenere. In questo scenario, sempre più persone stanno iniziando a rivolgersi ai potenti mezzi dell'Intelligenza Artificiale per provare a ottenere un aiuto di qualche tipo, conversando con i chatbot dei propri problemi o ricorrendo alle tante App di tracking dell'umore che si avvalgono dell'IA per fornire agli utenti consigli e supporti sempre più mirati.

Di fronte a questo nuovo approccio, decisamente più economico e accessibile, la comunità scientifica ha sviluppato un atteggiamento duplice: da un lato le potenzialità dell'IA possono effettivamente rappresentare uno strumento in più per affiancare (ma non sostituire) l'intervento umano. Dall'altro però gli esperti sollevano interrogativi etici e potenziali rischi che non devono essere mai sottovalutati, soprattutto quando si ricorre ai "terapisti robot" per aiutare i bambini. In un recente commento comparso sul Journal of Pediatrics, alcuni studiosi hanno infatti ricordato come i più piccoli abbiano delle necessità psicologiche specifiche, non comparabili a quelle di un adulto e non è affatto detto che l'IA ne sia ancora sufficientemente consapevole.

AI e Bambini: un'etica da riconsiderare

Gli esperti intervenuti nel paper hanno fatto notare che la maggior parte delle applicazioni di salute mentale basate sull'AI risulta progettata per adulti e non appare ancora regolamentata in modo adeguato. In più, quando si parla di bambini, la situazione diventa ancora più complessa, poiché la loro mente ancora in "fase di costruzione" presenta dinamiche psicologiche peculiari e molto diverse da quelle di un uomo o una donna che ha già raggiunto la propria maturità mentale.

Immagine

I bambini, ha ricordato Bryanna Moore, docente di Bioetica presso l'Università di Rochester, hanno un modo diverso di pensare, decidere e interagire con il mondo. In più sono particolarmente vulnerabili e il loro sviluppo emotivo e cognitivo non è paragonabile a quello degli adulti. Per tutte queste ragioni, affidarsi ciecamente a una macchina per cercare un aiuto nel supporto psicologico dei bimbi potrebbe non essere la soluzione migliore.

Il rischio di sostituire le relazioni umane

Uno dei principali pericoli dei chatbot terapeutici, ha proseguito Moore, è la loro possibile interferenza con lo sviluppo sociale dei bambini. Diversi studi hanno già dimostrato che i più piccoli tendono ad attribuire ai robot caratteristiche umane, rischiando di sviluppare un attaccamento che potrebbe compromettere la costruzione di relazioni sane con le persone reali.

Un ulteriore elemento di riflessione riguarda poi il fatto che – proprio alla luce delle specificità dei soggetti più giovani – gli psicologi infantili lavorano sempre tenendo conto del contesto familiare e sociale del bambino: un elemento che l'IA, per il momento, non riesce ancora a considerare. Tale lacuna comporta però l'enorme rischio di ignorare alcuni segnali cruciali di disagio (o pericolo), impedendo quindi di fornire supporto efficiente per le necessità del giovane paziente.

AI e disuguaglianze nella salute mentale

Un altro aspetto critico della questione riguarda poi le disuguaglianze nell’accesso e nella distribuzione delle cure. Jonathan Herington, docente di Filosofia e Bioetica, ha infatti fatto notare che i sistemi AI funzionano solo in base ai dati con cui sono stati addestrati. Se questi però non rappresentano la diversità della popolazione, il risultato sarà immancabilmente un servizio inadeguato per molte persone, in particolare per i bambini appartenenti a comunità svantaggiate, con esperienze traumatiche o difficoltà economiche, che potrebbero non ricevere l'aiuto necessario.

Immagine

Il genere, l'etnia, il luogo in cui si vive, il contesto sociale e la ricchezza relativa della famiglia, ha sottolineato Herington, influiscono enormemente sul rischio di sperimentare eventi infantili avversi, come l'esposizione – diretta o indiretta – a violenze o la perdita di persone care. Ciò però genera un piccolo paradosso, poiché i minori che vivono simili situazioni – e che quindi avrebbero ragionevolmente maggiori probabilità di aver bisogno di cure di salute mentale – sono anche quelli meno rappresentati agli occhi dell'IA, poiché la minore possibilità di accedere a servizi psicologici strutturati diminuisce anche la quantità di dati a disposizione della macchina per poter elaborare strategie efficienti e personalizzate.

"I chatbot AI potrebbero diventare strumenti preziosi ma non dovrebbero mai sostituire la terapia umana", ha quindi concluso Herington.

La necessità di una regolamentazione

L’assenza di regolamentazioni specifiche per i chatbot terapeutici lascia molte questioni aperte: come garantire la sicurezza degli utenti? Come evitare l'uso improprio di questi strumenti? Come assicurare che i dati utilizzati siano equi e rappresentativi? Per Moore, Herington e i loro colleghi questi quesiti sono di vitale importanza per salvaguardare il benessere delle fasce di popolazione più fragili, e pur non opponendosi all'uso dell’AI nella salute mentale, gli esperti hanno caldamente invitato a un approccio cauto e consapevole, soprattutto quando si tratta di bambini.

In quest'ottica, Moore, Herington e la filosofa della psichiatria Serife Tekin stanno lavorando per coinvolgere gli sviluppatori nella discussione etica sulla progettazione dei chatbot terapeutici. L'obiettivo è capire se e come vengano integrate considerazioni sulla sicurezza e il benessere degli utenti più giovani. Solo attraverso un dialogo aperto tra ricercatori, terapeuti, sviluppatori e famiglie sarà possibile garantire che l’uso dell’intelligenza artificiale nella salute mentale sia davvero un'opportunità e non un rischio per le nuove generazioni.

5 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views