TECNOLOGÍA DIGITAL
OPS publica lineamientos para el uso responsable de la inteligencia artificial generativa en Salud pública
Se ha propuesto el diseño de prompts como una competencia clave para reducir errores, sesgos y riesgos éticos en el uso de IA generativa
La nueva herramienta apunta a reducir el riesgo de respuestas vagas, inexactas o potencialmente dañinas.
|
Redacción. Bogotá
La Organización Panamericana de la Salud (OPS) ha presentado una
nueva publicación orientada a fortalecer el uso responsable de la inteligencia artificial generativa en la salud pública, a través del diseño adecuado de
prompts, las instrucciones que guían las respuestas de estas herramientas. El documento está dirigido especialmente a profesionales, técnicos y tomadores de decisión del sector salud que incorporan o evalúan el uso de tecnologías digitales en sus procesos de trabajo.
Según ha indicado la OPS, un prompt bien diseñado funciona como un verdadero mapa de ruta para la inteligencia artificial, ya que define con claridad el objetivo, la audiencia, el tono, el formato y el contexto del contenido esperado. Esto no solo mejora la precisión y utilidad de los resultados, sino que también
reduce el riesgo de respuestas vagas, inexactas o potencialmente dañinas, un aspecto crítico en entornos de salud pública.
La publicación plantea que el diseño de prompts debe considerarse una
habilidad estratégica para el personal de salud pública, comparable a otras competencias técnicas clave. Además, destaca su valor como mecanismo de control de calidad y como herramienta para aplicar enfoques conscientes del sesgo, contribuyendo a minimizar riesgos éticos y comunicacionales asociados al uso de IA generativa.
Uno de los ejes centrales del documento es la
protección de la privacidad y la confidencialidad de la información. La OPS es enfática en señalar que las herramientas de IA generativa no deben utilizarse para procesar ni generar contenidos que involucren datos personales identificables de pacientes o información institucional sensible. En ese sentido, recomienda que los prompts eviten nombres, escenarios clínicos reales o simulaciones que puedan vulnerar la privacidad, y que estén alineados con las normativas nacionales e institucionales de protección de datos.
El texto también ha subrayado que, incluso al trabajar con información poblacional o agregada, los profesionales deben extremar precauciones para evitar la identificación indirecta de comunidades pequeñas o grupos en situación de vulnerabilidad, especialmente cuando se solicita a la IA resumir o
interpretar datos epidemiológicos.
Otro aspecto clave es la
reafirmación de la supervisión humana como principio irrenunciable. La OPS insiste en que la inteligencia artificial generativa debe entenderse como una herramienta de apoyo y no como una fuente de autoridad ni un sustituto del juicio profesional. Todos los contenidos generados deben ser revisados y validados por personal calificado antes de su difusión, en particular cuando se trata de información sensible, mensajes dirigidos a poblaciones vulnerables o temas de alto impacto sanitario.
La publicación recomienda
instruir explícitamente a la IA, a través de los prompts, para que opere dentro de límites claros, evitando recomendaciones especulativas, afirmaciones médicas no sustentadas o interpretaciones culturales inapropiadas. Asimismo, sugiere integrar el uso de
prompts en los flujos de trabajo institucionales y concebirlos como “protocolos vivos”, susceptibles de ser ajustados y mejorados con el tiempo.
Finalmente, la OPS ha propuesto la
creación de bibliotecas institucionales de prompts como una estrategia para garantizar coherencia, eficiencia y alineación con los principios éticos y técnicos del sector. Estas prácticas, señala el organismo, deben estar en consonancia con los marcos de la OPS y la OMS sobre transformación digital en salud, que priorizan el diseño centrado en las personas, la transparencia, la rendición de cuentas, la integridad científica, la equidad y la no discriminación.
Con esta publicación, la OPS refuerza el mensaje de que el futuro digital de la salud pública no depende solo de la tecnología disponible, sino de la capacidad del talento humano para utilizarla de manera crítica, ética y responsable.