Tecnología

Hombre casi muere envenenado tras seguir consejos de ChatGPT para su dieta

Durante tres meses, el hombre consumió esta sustancia, lo que le causó el envenenamiento

Un hombre de 60 años en Estados Unidos estuvo a punto de morir envenenado después de seguir un consejo de ChatGPT para eliminar la sal de su dieta. El caso, documentado en la revista Annals of Internal Medicine, pone en evidencia los peligros del uso de la Inteligencia Artificial (IA) para fines médicos.

El hombre acudió a emergencias con alucinaciones paranoicas, creyendo que su vecino lo estaba envenenando. Sin embargo, los médicos descubrieron que sufría de una intoxicación por bromuro.

El peligro de la desinformación

Según el informe, el paciente había consultado a ChatGPT para sustituir la sal (cloruro de sodio) en su alimentación. La IA le sugirió usar bromuro de sodio, una recomendación peligrosa. Durante tres meses, el hombre consumió esta sustancia, lo que le causó el envenenamiento.

Leer también : ¿Tu mejor amigo es ChatGPT? Su desarrollador aclara su propósito

Ante esta situación, expertos de la salud han advertido sobre el riesgo de usar sistemas de IA como sustitutos del consejo médico profesional.

Resaltan que estas herramientas pueden tener imprecisiones científicas y carecen de la capacidad para ofrecer una evaluación crítica de la información, lo que podría llevar a la propagación de datos erróneos con consecuencias fatales.

Con información de Caraota digital

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Back to top button

Acceder

Registro

Restablecer la contraseña

Por favor, introduce tu nombre de usuario o dirección de correo electrónico y recibirás por correo electrónico un enlace para crear una nueva contraseña.