BENEFICIS PELS PACIENTS DE L’ÚS DE LA INTEL·LIGÈNCIA ARTIFICIAL EN MEDICINA


Font: INFOBAE
Els xatbots, com el ChatGPT, poden utilitzar-se per buscar dades en històries clíniques i prendre decisions per donar accés a llits, assaigs clínics, i tractaments, entre altes opcions. Però., quins són els riscos?
L’ús de la intel·ligència artificial en la salut i medicina va guanyant continuant guanyant adeptes. Actualment, s’usen aplicacions per saber quants passos hem de fer al dia, practicar meditació o accedir a sessions de teràpia cognitiu-conductual, entre altres aspectes.
Però avui en dia, la disponibilitat de xatbots sofisticats, que són impulsats per programes com ChatGPT, obre la porta a què la intel·ligència artificial es converteixi en una font primària a l’hora de donar diagnòstics mèdics i indicar tractaments. Aquesta realitat desperta dues preguntes essencials: ¿es podria alterar la relació entre metges i pacients?, i, sobretot, ¿pot implicar això riscos per a l’atenció mèdica?
ChatGPT és un model lingüístic que s’ha entrenat amb volums massius de textos d’internet. Intenta imitar el text humà i pot exercir diverses funcions en la investigació sanitària i de la salut. Recentment, es va desenvolupar ‘Stability AI’, una plataforma que també genera contingut a través de textos amb l’objectiu de competit amb l’eina d’OpenAI.
Amb la nova tecnologia, els models lingüístics comencen a mostrar la seva capacitat per assumir tasques que avanç només estaven reservades a professionals. Això ha generat converses i debats entre els metges sobre com la tecnologia pot ajudar-los a atendre els pacients.
Els professionals de la medicina esperen que els models puguin usar informació de les històries clíniques digitals o donar als pacients resums de notes tècniques extenses. Però, també existeix la por que puguin enganyar als metges i brindar respostes inexactes que condueixin a un diagnòstic o pla de tractament incorrectes.
Robert Pearl, professor de la Facultat de Medicina de la Universitat de Stanford, va ser director de Kaiser Permanente, un grup de mèdics dels Estats Units amb més de 12 milions de pacients. Segons la seva opinió, els metges haurien d’utilitzar ChatGPT a les seves consultes: “Serà més important pels metges del que va ser l’estereoscopi en el passat” va declarar a la revista Wired.
Les empreses que desenvolupen tecnologia d’intel·ligència artificial han convertit els exàmens de les facultats de medicina en una referència en la competència per construir sistemes més capaços.
El 2022, Microsoft Researh va presentar BioGPT, un model de llenguatge que va obtenir altes puntuacions en una sèrie de tasques mèdiques. A més, un document d’OpenAI de l’Hospital General de Massachusetts i AnsibleHealth afirmava que ChatGPT pot assolir o superar el 60% d’aprovats en l’examen de llicència dels Estats Units.
Setmanes més tard, els investigadors de Google i DeepMind van presentar Med-PaLM, que va aconseguir un 67 % de precisió a la mateixa prova, malgrat que també van escriure que, encara que encoratjadors, els resultats encara són inferiors als clínics.
MNicrosoft i un dels majors proveïdors de software sanitari del món, Epic Sustems, han anunciat plans per utilitzar el GPT-4 d’OpenAI, en el que es basa ChatGPT, per buscar tendències en les històries clíniques electròniques.
Consultada per la revista Wierd, Heather Mattie, professora de salut pública de la Universitat Harvard que estudia l’impacte de l’IA en l’atenció sanitària, va confessar que va quedar impressionada la primera vegada que va fer servir ChatGPT. I va demanar un resum de com s’ha usat el modelatge de les connexions socials per estudiar el VIH, un tema que ella investiga.
Però l’experta de Harvard també va assenyalar limitacions. Pot ser una eina útil per tasques com resumir un text. Malgrat que s’ha de considerar que el bot pot no encertar al cent per cent i que pot generar resultats esbiaixats.
A la doctora Mattie li preocupa, especialment, el tracte de ChatGPT dona a les eines de diagnòstic de malalties cardiovascular i de puntuació de lesions en cures intensives, que tenen un historial d’esbiaixats racials i de gènere. També va advertir que ChatGPT en un entorn clínic a vegades inventa fets i no deixa en clar d’on i quina data té la informació que usa.
Els usuaris també haurien de tenir cura amb el fet que els bots de l’estil ChatGPT poden presentar informació fabricada, adverteixen els experts. Això pot conduir a errades greus si una persona no comprova els fets en les respostes d’un algoritme. Sent que el text generat per la intel·ligència artificial pot influir en els humans de forma subtil.
Un estudi publicat en gener, que no ha estat revisat per pars, plantejaven preguntes ètiques a ChatGPT i va concloure que el chatbot és un conseller moral incoherent. Però que pot influir en la presa de decisions humanes fins i tot quan les persones saben que el consell procedeix d’un software d’intel·ligència artificial.
Treballar com mèdic és molt més que decidir d’acord amb coneixements mèdics enciclopèdics. Per això, alguns experts en bioètica estan preocupats per la possibilitat que els mèdics demanin consell al bot quan s’enfrontin a una decisió ètica difícil.
Per exemple, es podria utilitzar per escollir que pacients poden accedir a diàlisi renal o a llits de cures intensives, les quals podrien ser participants en assaigs clínics i decidir si es fa una cirurgia en cas que un pacient tingui poques probabilitats de supervivència o recuperació.
Jaime Webb, bioeticista del Centre de Futurs Tecnomorals de la Universitat d’Edimburg, en el Regne Unit, i un equip de psicòlegs morals van estudiar que faria falta per crear un “assessor moral” basat en intel·ligència pel seu ús en medicina. Es van inspirar en investigacions anteriors que suggerien la idea.
Webb i els seus coautors van arribar a la conclusió que seria difícil que aquests sistemes equilibressin de forma fiable diferents principis ètics. Van identificar el risc que els mèdics i altres professionals poguessin patir una “desqualificació moral” si depenguessin excessivament d’un robot en lloc de pensar ells mateixos les decisions difícils.
L’èxit i l’eficàcia de l’IA depenen de l’aprenentatge automàtic. Això requereix que les dades és retroalimentin constantment a les xarxes neuronals dels chabots. Si s’introdueix en ChatGPT informació identificable del pacient, aquestes dades passen a formar part de la informació que el xatbot utilitzarà en el futur.
D’aquesta manera, van advertir, pot ser vulnerable a la seva divulgació a tercers, sent que la confidencialitat de la informació del pacient és la base de la confiança en la relació mèdic-pacient.