Lanza tu negocio online con inteligencia artificial y empieza a ganar dinero hoy con iCHAIT.COM

Estudio alerta sobre riesgos de chatbots en diagnósticos de salud

Date:


En los últimos años, la inteligencia artificial (IA) ha comenzado a incorporarse de forma creciente en el ámbito sanitario. Con el desarrollo de modelos de lenguaje de gran tamaño, conocidos como chatbots, surgen aplicaciones capaces de ofrecer orientaciones médicas a partir de preguntas formuladas por usuarios en internet. Estos sistemas aprenden a partir de millones de documentos procedentes de artículos científicos, foros, noticias y redes sociales. A pesar de sus avances, su precisión y fiabilidad son motivo de debate entre especialistas y autoridades sanitarias.

Un nuevo estudio publicado en la revista médica de acceso abierto BMJ Open alerta sobre los riesgos de esta práctica. Los investigadores realizaron una evaluación sistemática de cinco de los principales chatbots disponibles en la actualidad: Gemini, Meta AI, Grok (desarrollado por la empresa de Elon Musk), DeepSeek y ChatGPT. El objetivo fue analizar la calidad de las respuestas ofrecidas cuando se les planteaban cuestiones relacionadas con salud y medicinas.

Descubrieron que aproximadamente la mitad de las respuestas de estas herramientas fueron consideradas problemáticas por un panel de expertos. En un total de 250 preguntas diseñadas para reflejar situaciones reales, los sistemas proporcionaron información errónea, incompleta o potencialmente peligrosa en cerca del 50 % de los casos. Más alarmante aún, el 20 % de las respuestas se clasificó como altamente problemático, implicando un riesgo claro de dañar la salud de personas que siguieran estas recomendaciones sin supervisión profesional.

El estudio no halló diferencias significativas en la calidad general entre los distintos sistemas, aunque destacó que Grok presentó una frecuencia de respuestas peligrosas superior a la esperada en una distribución aleatoria. Este hallazgo sugiere la necesidad de someter a pruebas rigurosas todas las soluciones de IA antes de su uso en contextos clínicos o de autocuidado.

Uno de los mayores problemas identificados por los investigadores es la forma en que estos chatbots entregan la información. Rara vez muestran dudas o advierten sobre la posibilidad de error: presentan sus indicaciones con total seguridad. De hecho, de las 250 preguntas realizadas, solo hubo dos casos en que el sistema se negó a responder, ambos correspondientes a Meta AI. En el resto de situaciones, incluso cuando se trataba de temas de alto riesgo, los chatbots ofrecieron recomendaciones sin ninguna advertencia ni aclaración.

La investigación también reveló que los sistemas de IA mostraron mejor desempeño en temas bien consolidados, como vacunación y diagnóstico de ciertos tipos de cáncer. Sin embargo, fallaron en áreas más complejas o emergentes, por ejemplo, terapias con células madre, rendimiento deportivo o dietas específicas, donde la evidencia científica es más dispersa o controvertida. Este desfase incrementa las posibilidades de orientaciones incorrectas o sin base sólida.

Falhas técnicas y citas inventadas
La calidad de las referencias proporcionadas por los chatbots fue, en promedio, baja. El estudio registró una puntuación media de completitud de las fuentes del 40 %. Conocidas como «alucinaciones» en el campo de la IA, los programas llegaron a inventar citas bibliográficas y atribuir autores ficticios a estudios inexistentes. Ninguna de las herramientas analizadas pudo listar fuentes completamente precisas o verificables.

Otro aspecto crítico fue la legibilidad de los textos generados. Los evaluadores consideraron que el nivel de complejidad lingüística era alto, equivalente al de estudiantes universitarios avanzados. Esta dificultad de lectura podría impedir que un usuario sin formación médica entienda correctamente la información, aumentando así el riesgo de malinterpretaciones.

Los auditores concluyeron que, en áreas médicas propensas a la desinformación, el desempeño de estos chatbots es insatisfactorio. Alertan de que su uso continuado sin una adecuada supervisión profesional y sin campañas de educación pública podría amplificar noticias falsas y errores médicos a gran escala.

Reacciones y funcionamiento de la tecnología
En redes sociales, internautas han comentado los peligros de confiar en la IA para orientación sanitaria. Un usuario en Reddit señaló que «la IA no está pensando ni interpretando realmente, solo regurgita información disponible; un 40 % de lo que recibe ChatGPT proviene de Reddit». Otro ironizó: «¿Me dices que una IA que raspa internet —con sus errores— da consejos médicos imprecisos? Estoy sorprendido. Bueno, en realidad no».

Especialistas destacan que el problema radica en el método de entrenamiento: estos modelos no están específicamente entrenados para ofrecer recomendaciones médicas seguras. Incluyen textos médicos en sus datos, pero el aprendizaje no ajusta los «pesos» del modelo para priorizar la precisión clínica. Según el estudio, la única forma segura de abordar síntomas y tratamientos sigue siendo la consulta directa con profesionales de la salud.

Compartir este post:

Suscribirse

Popular

Más como esto
Relacionado

Artemis II: Astronautas Relatan Efecto Emocional Profundo en Misión Lunar

La misión Artemis II simbolizó el regreso de la...

Pastor que abusaba de fieles en iglesia en Maranhão es detenido

La operación “Falso Profeta” fue ejecutada por la Policía...

Corea del Norte sorprende con mapamundi que ignora Corea del Sur

Instalación con mapamundi norcoreano destaca proyección centrada en el...