Ahora : Historias con Marca: Mirá el episodio 4 junto a Ariel Fabrizio y Coty Carcaño fundadores de Entre Dos
Un hombre terminó intoxicado por seguir el consejo de una IA

Un hombre terminó intoxicado por seguir el consejo de una IA

Viral

El sujeto fue hospitalizado tras consumir bromuro durante meses, siguiendo la recomendación de un chatbot para reducir la sal. El caso reabre el debate sobre los límites de la inteligencia artificial en salud y la importancia de consultar siempre con profesionales médicos.

Un hombre de 60 años en Estados Unidos fue hospitalizado con síntomas psiquiátricos, acné severo, sed extrema e insomnio. El diagnóstico sorprendió a los médicos: bromismo, una intoxicación por bromuro que se había vuelto rara desde mediados del siglo XX. ¿La causa? El paciente había seguido el consejo de un chatbot de inteligencia artificial para reducir el consumo de sal en su dieta.

Según el estudio publicado en Annals of Internal Medicine, el hombre consultó a ChatGPT sobre cómo reemplazar el cloruro de sodio. La IA le sugirió bromuro de sodio, sin advertencias sobre los riesgos. Durante tres meses, el paciente lo consumió regularmente, lo que derivó en una acumulación tóxica en su organismo. “El bromismo es una condición que prácticamente no veíamos desde hace décadas. Este caso nos obliga a repensar cómo se usa la tecnología en salud”, explicó el Dr. Roy Guharoy, farmacólogo clínico y coautor del estudio.

Los médicos que atendieron al paciente replicaron la consulta con el mismo chatbot y obtuvieron respuestas similares. El modelo no ofrecía alertas ni fuentes confiables. Aunque OpenAI lanzó una nueva versión con mejoras en seguridad médica, la empresa insiste en que sus productos no deben usarse como herramienta de diagnóstico ni tratamiento. “La IA puede ser útil para informar, pero no tiene juicio clínico ni conoce el contexto del paciente”, advirtió Guharoy.

El caso reabre el debate sobre los límites de los asistentes virtuales en temas sensibles como la salud. “Confiar ciegamente en lo que dice una IA puede tener consecuencias graves. La información debe ser verificada por profesionales capacitados”, señaló la Dra. Mariana Lestelle, médica clínica y divulgadora científica. “La tecnología no reemplaza la consulta médica. Puede complementar, pero nunca sustituir el criterio humano”, agregó.

En tiempos donde los chatbots se usan cada vez más para resolver dudas cotidianas, los especialistas recomiendan precaución. “La IA no sabe quién sos, ni tu historia clínica, ni tus necesidades reales. Puede ofrecer datos generales, pero no personalizar ni evaluar riesgos”, explicó Lestelle. Además, muchas respuestas pueden estar desactualizadas, mal interpretadas o basadas en fuentes no confiables.

Para evitar errores como el del paciente intoxicado, los expertos sugieren usar la inteligencia artificial como punto de partida, no como fuente definitiva. “Es clave que las personas consulten con médicos antes de hacer cambios en su dieta, medicación o hábitos de salud. La IA puede ayudar a entender conceptos, pero no a tomar decisiones clínicas”, concluyó Guharoy.

Este caso clínico se convierte en una advertencia concreta sobre el uso responsable de la tecnología. En salud, el criterio profesional sigue siendo irremplazable. Y aunque los asistentes virtuales pueden ofrecer información útil, no tienen sentido común, ni ética, ni capacidad para evaluar el impacto real de sus recomendaciones.

Seguinos en