La Organización Mundial de la Salud (OMS) pide que se tenga cuidado al usar herramientas de modelo de lenguaje grande (LLM) generadas por inteligencia artificial (IA) para proteger y promover el bienestar humano, la seguridad humana y la autonomía, y preservar la salud pública.
Los LLM incluyen algunas de las plataformas de más rápida expansión, como ChatGPT, Bard, Bert y muchas otras que imitan la comprensión, el procesamiento y la producción de la comunicación humana. Su difusión pública meteórica y su creciente uso experimental con fines relacionados con la salud están generando un entusiasmo significativo en torno al potencial para apoyar las necesidades de salud de las personas.
Es imperativo que se examinen cuidadosamente los riesgos cuando se utilizan LLM para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad.
Si bien la OMS está entusiasmada con el uso apropiado de las tecnologías, incluidos los LLM, para apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos, existe la preocupación de que la cautela que normalmente se ejercería para cualquier tecnología nueva no se está ejerciendo de manera coherente con los LLM. Esto incluye la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.
La adopción precipitada de sistemas no probados podría generar errores por parte de los trabajadores de la salud, causar daño a los pacientes, erosionar la confianza en la IA y, por lo tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.
Las preocupaciones que exigen una supervisión rigurosa necesaria para que las tecnologías se utilicen de manera segura, eficaz y ética incluyen:
- los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión;
- Los LLM generan respuestas que pueden parecer autorizadas y plausibles para un usuario final; sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente para las respuestas relacionadas con la salud;
- Los LLM pueden recibir capacitación sobre datos para los cuales es posible que no se haya proporcionado previamente el consentimiento para dicho uso, y los LLM pueden no proteger los datos confidenciales (incluidos los datos de salud) que un usuario proporciona a una aplicación para generar una respuesta;
- Los LLM pueden usarse indebidamente para generar y difundir desinformación altamente convincente en forma de contenido de texto, audio o video que es difícil para el público diferenciar del contenido de salud confiable; y
- Si bien está comprometida con el aprovechamiento de las nuevas tecnologías, incluida la IA y la salud digital para mejorar la salud humana, la OMS recomienda que los formuladores de políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los LLM.
La OMS propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.
La OMS reitera la importancia de aplicar los principios éticos y la gobernanza adecuada, tal como se enumeran en la guía de la OMS sobre la ética y la gobernanza de la IA para la salud , al diseñar, desarrollar y desplegar la IA para la salud. Los 6 principios básicos identificados por la OMS son:
(1) proteger la autonomía;
(2) promover el bienestar humano, la seguridad humana y el interés público;
(3) garantizar la transparencia, la explicabilidad y la inteligibilidad;
(4) fomentar la responsabilidad y la rendición de cuentas;
(5) garantizar la inclusión y la equidad;
(6) promover una IA que responda y sea sostenible.
NOTA DE PRENSA