Advierten uso ChatGPT en la medicina

WhatsApp_Image_2023-03-20_at_9.55.29_AM.jpeg

WhatsApp_Image_2023-03-20_at_9.55.29_AM.jpeg¿Quién es responsable si un paciente sufre daños debido a un error diagnóstico o de tratamiento basado en información errónea proporcionada por una IA? Estas situaciones podrían generar demandas de negligencia médica y complicar la atribución de responsabilidad entre el paciente, el profesional médico y el desarrollador de la IA.

Introducción

La inteligencia artificial (IA) ha avanzado rápidamente en los últimos años, y aplicaciones como ChatGPT han demostrado ser útiles en una amplia gama de campos, incluyendo la medicina. A pesar de las advertencias sobre los riesgos potenciales de la IA y los errores convincentes que puede generar, algunas personas han ignorado estas preocupaciones y han utilizado estas herramientas de manera irresponsable. En este artículo, exploraremos los peligros asociados con el uso indebido de ChatGPT y otras IA en la medicina, examinando casos de uso como errores diagnósticos y mal uso de la herramienta.

Errores diagnósticos y el papel de la IA.

Uno de los principales riesgos asociados con el uso irresponsable de la IA en la medicina es la posibilidad de errores diagnósticos. Aunque herramientas como ChatGPT pueden proporcionar información útil basada en su amplio conocimiento, no están diseñadas para reemplazar el juicio clínico y la experiencia de los profesionales médicos. Estas herramientas de IA no pueden considerar todos los factores relevantes y matices específicos de un caso individual, lo que aumenta el riesgo de errores diagnósticos si se confía únicamente en su información.

Por ejemplo, un paciente que busca orientación médica en línea podría obtener un diagnóstico erróneo de ChatGPT u otra IA, que no tiene acceso a su historial médico completo y no puede realizar un examen físico. Esto podría llevar a un tratamiento inadecuado, retrasos en el diagnóstico correcto y posibles complicaciones de salud.

Errores en el uso de la herramienta.

Otro peligro relacionado con el uso indebido de la IA en la medicina es el riesgo de errores en el uso de la herramienta por parte de los usuarios. Aunque ChatGPT y otras IA pueden ser fáciles de usar, los usuarios podrían no comprender completamente sus limitaciones o malinterpretar la información proporcionada.

Un ejemplo de esto podría ser un paciente que busca información sobre la dosificación de un medicamento. Si el paciente no proporciona información suficiente o detallada a la IA, como su edad, peso, historial médico y otros factores relevantes, la IA podría generar una respuesta inexacta o incluso peligrosa. Esto podría resultar en una sobredosis, una interacción medicamentosa no deseada o efectos secundarios graves.

Además, los profesionales de la salud también pueden correr riesgos al depender demasiado de la IA. Si un médico confía en la información proporcionada por ChatGPT sin verificarla con sus conocimientos y experiencia clínica, podría cometer errores en el diagnóstico, el tratamiento o la atención al paciente.

Responsabilidad legal y ética

El uso indebido de la IA en la medicina también plantea preguntas legales y éticas.

¿Quién es responsable si un paciente sufre daños debido a un error diagnóstico o de tratamiento basado en información errónea proporcionada por una IA? Estas situaciones podrían generar demandas de negligencia médica y complicar la atribución de responsabilidad entre el paciente, el profesional médico y el desarrollador de la IA

Gilberto Objío Subero @objiog

En virtud de la complejidad intrínseca que suscita la atribución de responsabilidad en casos de menoscabo sufrido por pacientes a consecuencia de un diagnóstico o tratamiento erróneo fundamentado en información inexacta proporcionada por un sistema de inteligencia artificial, cabe dilucidar que la responsabilidad podría recaer en diversas partes involucradas en el proceso médico.

Tal responsabilidad podría imputarse, inter alia, al facultativo sanitario, quien ostenta la obligación de llevar a cabo decisiones informadas y basadas en la evidencia al momento de diagnosticar y tratar a los pacientes; a los desarrolladores y proveedores de sistemas de inteligencia artificial, cuya labor podría verse comprometida por errores de programación, falta de actualización de las bases de datos o un entrenamiento inadecuado de la IA; a las instituciones y centros hospitalarios, en virtud de no haber llevado a cabo una evaluación exhaustiva de la tecnología previa a su implementación o no haber proporcionado la capacitación y el soporte requeridos para la utilización eficaz y segura de la IA por parte de los profesionales de la salud; e incluso al propio paciente, en caso de haber proporcionado información imprecisa o incompleta respecto a su historial médico o síntomas, lo cual podría haber derivado en un diagnóstico o tratamiento inadecuado basado en la información suministrada a la IA.

Por consiguiente, es menester recalcar que las normativas y regulaciones concernientes a la responsabilidad en el uso de la inteligencia artificial en el ámbito sanitario divergen entre países y jurisdicciones. A medida que la tecnología de la IA prosiga su avance y su adopción en el ámbito médico se consolide, es de prever que las leyes y regulaciones se adecuarán y evolucionarán con el propósito de abordar las cuestiones éticas y legales que emergen en relación con la atribución de responsabilidad.

En síntesis, la responsabilidad en casos de perjuicios a pacientes derivados de errores diagnósticos o terapéuticos fundamentados en información incorrecta proporcionada por una IA podría ser compartida entre médicos, desarrolladores y proveedores de IA, instituciones y centros hospitalarios, e incluso pacientes. La determinación de la responsabilidad específica en cada caso dependerá de las circunstancias particulares y de las disposiciones legales aplicables en cada jurisdicción

En resumen, el uso irresponsable de ChatGPT y otras IA en la medicina puede tener consecuencias graves y potencialmente peligrosas. Para mitigar estos riesgos, es fundamental que tanto los pacientes como los profesionales médicos estén conscientes de las limitaciones de estas herramientas y utilicen la información proporcionada con precaución y discernimiento.

La IA tiene el potencial de revolucionar la medicina y mejorar la atención médica en todo el mundo, pero es fundamental recordar que no debe reemplazar el juicio clínico y la experiencia de los profesionales médicos. Para garantizar que se utilicen de manera segura y efectiva, los usuarios deben seguir las recomendaciones y advertencias proporcionadas por los desarrolladores de IA y siempre consultar con profesionales médicos antes de tomar decisiones importantes sobre su salud. De esta manera, podemos aprovechar el potencial de estas innovadoras tecnologías sin poner en riesgo la seguridad y el bienestar de los pacientes.

Por Gilberto Objio Subero, abogado experto en Responsabilidad Civil y en Derecho Médico.