Un hombre de 60 años en Estados Unidos fue hospitalizado tras desarrollar bromismo, un cuadro raro de toxicidad, luego de intentar sustituir la sal común por bromuro de sodio, siguiendo una sugerencia de ChatGPT, según reporta la revista médica Annals of Internal Medicine.
El paciente, preocupado por los efectos negativos del cloruro de sodio, recurrió al chatbot de OpenAI para encontrar un reemplazo.
ChatGPT recomendó el bromuro, usualmente empleado en otros contextos como productos de limpieza, sin advertir sobre riesgos.
Los síntomas
Tras consumir bromuro de sodio durante tres meses, el hombre presentó síntomas graves: acné facial, insomnio, sed intensa y psicosis, que requirieron su hospitalización involuntaria.
Los especialistas de la Universidad de Washington explican que este tipo de toxicidad era más frecuente en el siglo XX, pero desapareció con el abandono del bromuro de sodio como sedante.
El caso demuestra cómo la información generada por IA puede carecer de discernimiento crítico y propagar desinformación si no se filtra a través de un profesional sanitario.
Advertencias sobre el uso de IA en medicina
Tras replicar la consulta, los médicos observaron que ChatGPT volvió a sugerir bromuro sin alertar sobre peligros.
OpenAI ha destacado que su nueva versión GPT-5 incorpora mecanismos para advertir sobre riesgos físicos o mentales graves, pero enfatiza que el chatbot no sustituye la consulta profesional.
Los autores del informe advierten que, aunque la IA puede acercar la ciencia al público, su uso sin supervisión médica puede resultar peligroso.
La recomendación central es clara: sistemas como ChatGPT no deben usarse para diagnóstico ni tratamiento de condiciones de salud y los médicos deben verificar siempre qué fuentes consultan los pacientes.
Visita nuestras secciones: Servicios e Internacionales
Para mantenerte informado sigue nuestros canales en Telegram, WhatsApp y Youtube