I medici di base stanno già usando l’intelligenza artificiale per ricette e diagnosi: i dati
E se la tua prossima ricetta medica fosse scritta da un'intelligenza artificiale (IA)? Da tempo parliamo di come i large language model verranno applicati in diversi ambiti, tra questi la sanità. In parte sta già succedendo. E infatti, uno studio pubblicato sulla rivista BMJ Health and Care Informatics, ha rivelato che un medico di base su cinque usa l'intelligenza artificiale per scrivere ricette ai pazienti o valutare terapie o diagnosi alternative.
Il sondaggio ha coinvolto 1.006 medici di base nel Regno Unito, a cui è stato chiesto se avessero mai utilizzato un chatbot AI, come ChatGPT, Bing AI o Gemini di Google. Uno su cinque ha confermato. Quasi un terzo (29%) ha utilizzato l'IA per la documentazione dopo gli appuntamenti con i pazienti, mentre il 28% come strumento per suggerire una diagnosi diversa.
Secondo i ricercatori "i medici di base possono trarre vantaggi da questi strumenti, in particolare per quanto riguarda i compiti amministrativi e per supportare il trattamento clinico". Rimane però una grande questione aperta, quella della privacy. I medici infatti potrebbero inserire informazioni sensibili dei pazienti, come dati sanitari, e “non è chiaro come le aziende dietro l’intelligenza artificiale generativa utilizzino le informazioni che raccolgono”.
Hanno aggiunto: "Sebbene questi chatbot siano sempre più al centro degli sforzi normativi, non è ancora chiaro in che modo la legislazione agirà in modo pratico con questi strumenti nella pratica clinica". Non solo, l'intelligenza artificiale non è aggiornata e potrebbe anche commettere errori. I "bias degli algoritmi" potrebbero portare a diagnosi sbagliate.
Quali sono i rischi di usare l'IA in ambito medico
Secondo Ellie Mein, consulente medico-legale presso la Medical Defence Union, la privacy non sarebbe l'unico problema. "È naturale che i professionisti sanitari vogliano trovare modi per lavorare in modo più intelligente con le pressioni che affrontano", ha spiegato al Guardian. "Insieme agli usi identificati nel documento del BMJ, abbiamo scoperto che alcuni dottori si stanno rivolgendo a programmi di intelligenza artificiale per aiutarli a redigere le risposte ai reclami. Abbiamo messo in guardia i membri MDU sui possibili problemi, tra questi l'inesattezza e la riservatezza del paziente. Ci sono anche considerazioni sulla protezione dei dati".
"Quando si tratta di reclami dei pazienti, le risposte elaborate dall'IA possono sembrare plausibili, ma possono contenere inesattezze e fare riferimento a linee guida errate che possono essere difficili da individuare se inserite in passaggi di testo molto eloquenti. È fondamentale che i medici utilizzino l'IA in modo etico e rispettino le linee guida e le normative pertinenti. Chiaramente questa è un'area in evoluzione e concordiamo con gli autori sul fatto che i medici attuali e futuri hanno bisogno di una maggiore consapevolezza dei vantaggi e dei rischi dell'utilizzo dell'IA sul lavoro".
I precedenti di ChatGPT
La Federal Trade Commission, agenzia governativa statunitense per le tutela dei consumatori, ha già indagato su OpenAI. L'azienda madre di ChatGPT infatti potrebbe violare le leggi sulla protezione dei consumatori, “metterebbe a rischio i dati personali e la reputazione dei singoli individui”.
Non solo, il Garante della Privacy aveva deciso già a marzo 2023 di bloccare ChatGPT in Italia per un mese. Secondo le dichiarazioni del Garante, il software raccoglieva dati personali senza nessuna giustificazione e non aveva nessun sistema per verificare l’età degli utenti. Secondo Kamila Hawthorne, presidente del Royal College of GPs, "l'IA non potrà mai essere considerata un sostituto della competenza di un professionista medico qualificato. È fondamentale che venga implementata con attenzione e regolamentata attentamente nell'interesse della sicurezza del paziente".