El documento incluye una serie de consideraciones y recomendaciones clave para el uso de los LMM en la práctica médica.
Sin importar si somos defensores o detractores de la inteligencia artificial generativa, lo innegable es que llegó a nuestras vidas para quedarse; esto ha generado mucho interés, pero también gran inquietud.
Cuando el 30 de noviembre del 2022 la empresa Open AI liberó al público su versión más avanzada de ChatGPT, todos nos quedamos sorprendidos por la fácil interacción con este desarrollo tecnológico, pero sobre todo con la velocidad, calidad aparente, y enorme coherencia de sus respuestas.
A partir de ese momento, nuestra interacción con la IA —elemento que, vale la pena recordar, está incorporado desde hace mucho a los equipos y tecnologías que utilizamos cotidianamente— cambió por completo. De repente, IA no era esa función que nos recomendaba películas en las plataformas de streaming con mucho acierto, o la que se anticipaba a sugerir una palabra de uso frecuente en nuestro procesador de textos, por mencionar solamente unos pocos ejemplos: para nada, esto es algo totalmente diferente.
Las versiones de IA generativa, al igual que muchas otras invenciones humanas, tienen una cara luminosa que anticipa nuevos descubrimientos y la mejora de muchos procedimientos, incluidos los de diagnóstico temprano y preciso, y el desarrollo de nuevos medicamentos, pero también tiene un lado oscuro que preocupa a muchas personas.
“OpenAI es una empresa de investigación e implementación de IA. Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad”. Declaración de principios de la empresa Open AI
Como lo hablamos en el podcast La Esfera de códigoF emitido el 15 de enero, la IA por sí misma no puede ser calificada de buena o mala, de creadora o destructora, porque ella depende de la intencionalidad y los fines para los que se la utilice. Como en todos los descubrimientos realizados por el homo sapiens, el uso que se les da a los inventos depende de una ética orientada al bien común, o una que transgreda (esperemos que no) las normas de respeto y convivencia establecidas.
“Los LLM son una clase de modelo fundacional, que se entrena con enormes cantidades de datos para proporcionar las capacidades fundamentales necesarias para impulsar múltiples casos de uso y aplicaciones, así como resolver una multitud de tareas. Esto crea un marcado contraste con la idea de construir y entrenar modelos específicos de dominio para cada uno de estos casos de uso individualmente, lo cual es prohibitivo en función de muchos criterios (los más importantes son el costo y la infraestructura), sofoca las sinergias, e incluso puede conducir a un menor rendimiento”. IBM
Buscando colaborar influir en el uso correcto de las IA generativas, la Organización Mundial de la Salud (OMS) publicó una nueva versión de la Guía sobre la ética y la gobernanza de los grandes modelos multimodales (LMM), aplicados a toda la cadena de atención médica (la versión anterior se publicó en junio del 2021), en la que se incluyen más de 40 recomendaciones para los gobiernos, empresas tecnológicas, y proveedores de atención médica, a fin de garantizar el uso adecuado de los LMM para la promoción y la protección de la salud.
“Los LMM pueden aceptar uno o más tipos de entradas de datos, como texto, vídeos e imágenes, y generar diversas salidas que no se limitan al tipo de datos introducidos. Los LMM son únicos en su imitación de la comunicación humana y su capacidad para llevar a cabo tareas para las que no estaban explícitamente programados. Los LMM se han adoptado más rápido que cualquier aplicación de consumo en la historia, con varias plataformas, como ChatGPT, Bard y Bert, entrando en la conciencia pública en 2023”. OMS
En este contexto, el Dr. Jeremy Farrar, científico jefe de la OMS, declaró: “Las tecnologías de IA generativas tienen el potencial de mejorar la atención médica, pero solo si aquellos que desarrollan, regulan y utilizan estas tecnologías identifican y tienen plenamente en cuenta los riesgos asociados. Necesitamos información y políticas transparentes para gestionar el diseño, el desarrollo y el uso de los LMM con el fin de lograr mejores resultados de salud y superar las desigualdades en salud persistentes”.
La guía de la OMS describe cinco aplicaciones generales de los LMM para la salud:
- Diagnóstico y atención clínica, dando respuesta a las consultas escritas de los pacientes
- Uso guiado por el paciente, como para investigar los síntomas y el tratamiento
- Tareas administrativas, como documentar y resumir las visitas de los pacientes en los registros médicos electrónicos
- Educación médica y de enfermería continua, incluido el suministro de aprendices de encuentros simulados con pacientes
- Investigación científica y desarrollo de medicamentos, incluida la identificación de nuevos compuestos
Quienes nos involucramos en el uso y aplicaciones de las IA generativas, sabemos que a pesar de su espectacular desempeño y valor, también pueden producir declaraciones falsas, inexactas, sesgadas o incompletas, información que podría llegar a perjudicar la salud de quienes las consultan para tomar decisiones sobre ella. Hay que considerar que las IA generativas obtienen la información que procesan de las fuentes disponible en la red, pero son incapaces de juzgar la calidad y veracidad de la información, llevándolas generalmente a producir textos coherentes, pero potencialmente inexactos, e incluso cargados de prejuicios.
A ello, habría que sumar que, al igual que cualquier otro sistema informático, los LMM pueden ser ciber atacados, poniendo en peligro la información del paciente, y la fiabilidad de estos algoritmos, y la prestación de atención médica en general.
La OMS considera el riesgo latente de que los LMM fomenten involuntariamente el llamado “sesgo de automatización” por parte de los profesionales de la salud y los pacientes, ocasionando que se pasan por alto errores que de otro modo se habrían identificado, delegando las consideraciones difíciles en un LMM.
Recomendaciones clave:
- Invertir o proporcionar infraestructura pública, o sin fines de lucro, incluida la potencia informática y los conjuntos de datos públicos, accesible para los desarrolladores de los sectores público, privado y sin fines de lucro, que requiere que los usuarios se adhieran a principios y valores éticos a cambio de acceso.
- Utilizar leyes, políticas y regulaciones que garanticen que los LMM y las aplicaciones utilizadas en la atención médica y la medicina, independientemente del riesgo o beneficio asociado con la tecnología de IA, cumplan con las obligaciones éticas y las normas de derechos humanos que afectan, por ejemplo, la dignidad, la autonomía o la privacidad de las personas.
- Asignar una agencia reguladora existente, o nueva, para evaluar y aprobar los LMM y las aplicaciones destinadas a ser utilizados en la atención médica o la medicina, según lo permitan los recursos.
- Introducir auditorías obligatorias posteriores a la publicación y evaluaciones de impacto, incluso para la protección de datos y derechos humanos, por parte de terceros independientes cuando se implementa un LMM a gran escala. Las evaluaciones de auditoría y de impacto deben publicarse e incluir resultados e impactos desglosados por tipo de usuario, incluyendo, por ejemplo, por edad, raza o discapacidad.
Si le interesa, puede leer la Guía sobre la ética y la gobernanza de los grandes modelos multimodales (LMM) dando click aquí.
Por: Manuel Garrod, miembro del Comité Editorial de códigoF
Fuentes:
Organización Mundial de la Salud. (18 de enero de 2024).
La OMS publica una guía de ética y gobernanza de la IA para grandes modelos multimodales
Organización Mundial de la Salud. (s.f.).
Ethics and governance of artificial intelligence for health: guidance on large multi-modal models
códigoF. (15 de enero de 2024).
La Esfera de códigoF | Inteligencia artificial
IBM. (s.f.).
¿Qué son los modelos de lenguaje de gran tamaño?