
Un hombre de 60 años en Estados Unidos estuvo a punto de morir envenenado después de seguir un consejo de ChatGPT para eliminar la sal de su dieta. El caso, documentado en la revista Annals of Internal Medicine, pone en evidencia los peligros del uso de la Inteligencia Artificial (IA) para fines médicos.
El hombre acudió a emergencias con alucinaciones paranoicas, creyendo que su vecino lo estaba envenenando. Sin embargo, los médicos descubrieron que sufría de una intoxicación por bromuro.
El peligro de la desinformación
Según el informe, el paciente había consultado a ChatGPT para sustituir la sal (cloruro de sodio) en su alimentación. La IA le sugirió usar bromuro de sodio, una recomendación peligrosa. Durante tres meses, el hombre consumió esta sustancia, lo que le causó el envenenamiento.
Leer también : ¿Tu mejor amigo es ChatGPT? Su desarrollador aclara su propósito
Ante esta situación, expertos de la salud han advertido sobre el riesgo de usar sistemas de IA como sustitutos del consejo médico profesional.
Resaltan que estas herramientas pueden tener imprecisiones científicas y carecen de la capacidad para ofrecer una evaluación crítica de la información, lo que podría llevar a la propagación de datos erróneos con consecuencias fatales.
Con información de Caraota digital