La OMS pide una IA segura y ética para la salud

Ginebra, Suiza - Organización, OMS - OMS, SedeGinebra, Suiza - Organización, OMS - OMS, Sede. Foto. Depositphotos con licencia para notiactual.com

La Organización Mundial de la Salud (OMS) pide que se tenga cuidado al usar herramientas de modelo de lenguaje grande (LLM) generadas por inteligencia artificial (IA) para proteger y promover el bienestar humano, la seguridad humana y la autonomía, y preservar la salud pública.

Los LLM incluyen algunas de las plataformas de más rápida expansión, como ChatGPT, Bard, Bert y muchas otras que imitan la comprensión, el procesamiento y la producción de la comunicación humana. Su difusión pública meteórica y su creciente uso experimental con fines relacionados con la salud están generando un entusiasmo significativo en torno al potencial para apoyar las necesidades de salud de las personas.

Es imperativo que se examinen cuidadosamente los riesgos cuando se utilizan LLM para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad.

Si bien la OMS está entusiasmada con el uso apropiado de las tecnologías, incluidos los LLM, para apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos, existe la preocupación de que la cautela que normalmente se ejercería para cualquier tecnología nueva no se está ejerciendo de manera coherente con los LLM. Esto incluye la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.

La adopción precipitada de sistemas no probados podría generar errores por parte de los trabajadores de la salud, causar daño a los pacientes, erosionar la confianza en la IA y, por lo tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.

Las preocupaciones que exigen una supervisión rigurosa necesaria para que las tecnologías se utilicen de manera segura, eficaz y ética incluyen:

  • los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión;
  • Los LLM generan respuestas que pueden parecer autorizadas y plausibles para un usuario final; sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente para las respuestas relacionadas con la salud;
  • Los LLM pueden recibir capacitación sobre datos para los cuales es posible que no se haya proporcionado previamente el consentimiento para dicho uso, y los LLM pueden no proteger los datos confidenciales (incluidos los datos de salud) que un usuario proporciona a una aplicación para generar una respuesta;
  • Los LLM pueden usarse indebidamente para generar y difundir desinformación altamente convincente en forma de contenido de texto, audio o video que es difícil para el público diferenciar del contenido de salud confiable; y
  • Si bien está comprometida con el aprovechamiento de las nuevas tecnologías, incluida la IA y la salud digital para mejorar la salud humana, la OMS recomienda que los formuladores de políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los LLM.

La OMS propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.

La OMS reitera la importancia de aplicar los principios éticos y la gobernanza adecuada, tal como se enumeran en la guía de la OMS sobre la ética y la gobernanza de la IA para la salud , al diseñar, desarrollar y desplegar la IA para la salud. Los 6 principios básicos identificados por la OMS son:

(1) proteger la autonomía;

(2) promover el bienestar humano, la seguridad humana y el interés público;

(3) garantizar la transparencia, la explicabilidad y la inteligibilidad;

(4) fomentar la responsabilidad y la rendición de cuentas;

(5) garantizar la inclusión y la equidad;

(6) promover una IA que responda y sea sostenible.

NOTA DE PRENSA


¿Te gustó este artículo? ¿Quieres recibir notificaciones en tu correo sobre este tema?

Suscribete a nuestro Newsletter GRATIS haciendo Click Aquí



Categoria(s) de contenido(s):
Salud y Vida Sana,Última Hora
Tema(s) de Contenido(s):


¿Quieres emigrar?
Postulate a las ofertas de trabajo disponibles en las mejores ciudades del mundo donde mudarte a vivir y trabajar, visita:
The Best Cities to Live and Work

BestCities.work

Comparte en tus redes sociales:

Te recomendamos leer los siguientes contenidos relacionados:

Cómo parafrasear el contenido de marketing utilizando IA
Simulación realizada por IA predice que Venezuela con una acción relámpago tomaría el Esequibo en 4 semanas
¿Puedo crear páginas webs con inteligencia artificial (IA) ?
¿En qué se diferencia ChatGPT de otras herramientas de IA?
Lanzan primer médico artificial, diagnostica hasta ahora con 91% de certeza
La Inteligencia Artificial acabará con estos oficios en los próximos años
El lenguaje secreto de la Inteligencia Artificial de Google
IBM ofrece su arquitectura de inteligencia artificial para luchar contra el Virus del Zika
Google patenta un botón para «apagar» la inteligencia artificial peligrosa
Inteligencia Artificial de Google gana la primera partida de máquina contra humano

Sigue leyendo los temas más populares:

Síguenos en nuestras redes sociales:

instagram notiactual
twitter notiactual
Facebook notiactual
Pinterest notiactual
Telegram notiactual