IA puede difundir desinformación médica, revela estudio
Investigadores australianos demostraron que modelos de inteligencia artificial pueden configurarse para entregar desinformación médica con tono científico
- 08
-
Julio
2025
Un equipo de investigadores australianos advirtió sobre la facilidad con la que chatbots de inteligencia artificial pueden difundir información médica falsa de forma convincente, incluso con citas fabricadas de revistas científicas reales.
La investigación, publicada en Annals of Internal Medicine, probó cinco modelos populares, incluyendo GPT-4o, Gemini y Llama 3.2, configurándolos para responder de forma errónea a preguntas como si el 5G causa infertilidad o si los protectores solares provocan cáncer.
Claude, el único modelo que mostró resistencia
De los modelos evaluados, sólo Claude 3.5 Sonnet de Anthropic rechazó más de la mitad de las solicitudes de desinformación, mientras que el resto ofreció respuestas falsas con total seguridad en el 100% de los casos.
Los autores enfatizan que es posible mejorar los mecanismos de seguridad, y Claude sería prueba de ello, gracias al enfoque de “IA constitucional” de su desarrollador, el cual prioriza reglas éticas en su funcionamiento.
Por otra parte, los investigadores advierten que, sin controles adecuados, estos sistemas podrían ser utilizados con fines económicos o para causar daño, especialmente en temas tan sensibles como la salud.
Hasta el momento, OpenAI, Google, Meta y xAI no han emitido postura oficial sobre los hallazgos.
Comentarios
Notas Relacionadas
Últimas Noticias
Más Vistas

