Sesgos de la IA en salud que afectan, sobre todo, a los pacientes
La calidad y el enfoque de la información que ofrece la inteligencia artificial sobre salud varía drásticamente según quién pregunta, qué regulación hay y en qué país se formula la consulta.
Los grandes modelos de lenguaje (LLMs) ofrecen una clara desigualdad al responder consultas sobre las regulaciones sanitarias europeas. Las que reciben los pacientes son más limitadas y con menor rigor que las de los profesionales del sector. Además, si las preguntas se hacen desde países como España. Alemania o Francia el resultado es más completo y con mayor calidad de fuentes. Son algunas de las conclusiones que se extraen del informe "IA y Política Pública: Hacia una nueva arquitectura de incidencia", elaborado por LLYC en el marco del European Health Summit. Para su elaboración se han analizado 1.484 respuestas de cuatro sistemas de IA (OpenAI, Anthropic, Perplexity y Gemini) sobre cuatro normas comunitarias clave.
“La IA se ha convertido en un actor con capacidad para influir en la opinión pública, en la circulación de información y en la percepción de temas clave como la salud y la regulación. Las divergencias sistemáticas detectadas, especialmente la desigualdad informativa entre profesionales sanitarios y pacientes, y la brecha geográfica plantean un desafío crítico de equidad. Debe ser vigilada por reguladores y actores industriales ya que puede moldear las percepciones públicas de forma sesgada, creando ventajas informativas para ciertos usuarios”, asegura Carlos Parry, líder de Healthcare Europa en LLYC.
Desigualdad informativa
El estudio identifica una marcada desigualdad informativa según el perfil del que consulta a los modelos de IA
- Profesionales sanitarios: Este grupo recibe consistentemente las respuestas "más completas y técnicamente rigurosas", con mayor visibilidad y la calidad argumental más elevada.
- Pacientes: Se enfrentan a "brechas informativas significativas", menor visibilidad y menor rigor, recibiendo información más limitada.
- Medios de comunicación: Obtienen los scores más bajos en visibilidad, calidad argumental y uso de fuentes, además de registrar los vacíos informativos más altos.
- Administraciones Públicas: Los modelos muestran una postura "especialmente favorable" hacia actores del ámbito sanitario institucional.
Brecha geográfica
El análisis geográfico revela que los modelos de IA no ofrecen respuestas homogéneas, sino que adaptan su contenido al contexto nacional.
- Disparidad: Países como Alemania, Francia o España reciben consistentemente "información más completa y con mayor calidad de fuentes".
- Menor consenso: países de Europa del Este como Polonia y Hungría obtienen información más fragmentada y con un consenso más bajo.
También se analizan las regulaciones mejor posicionadas: El EHDS (European Health Data Space) emerge como la regulación "más sólida", con mayor visibilidad y calidad argumental , mientras que el AI Act presenta la "carga emocional más intensa". El HTA (Evaluación de Tecnologías Sanitarias) y la Pharma Reform presentan mayores vacíos informativos.
El factor tecnológico
El estudio ha comparado el rendimiento de cuatro grandes modelos de lenguaje (LLMs):
- Gemini: Se posiciona como el "líder claro" en el análisis de regulaciones sanitarias europeas, destacando por su precisión, la capacidad para minimizar la desinformación y mantener una calidad uniforme para diferentes tipos de usuarios. Es también el modelo más favorable a las regulaciones europeas.
- Anthropic: Rinde un perfil estratégico, bueno para anticipar impactos regulatorios
- Perplexity: Muestra el mayor riesgo de desinformación y una dependencia muy marcada de los medios generales (81,3%) para fundamentar sus respuestas, con un uso limitado de fuentes oficiales.
- OpenAI: Muestra un perfil más modesto, aunque se destaca por un uso notable de fuentes oficiales (19,8% UE) y literatura revisada por pares.
Para Daniel Fernández Trejo, director general de Deep Learning en LLYC: "Nuestro análisis demuestra empíricamente que los modelos de lenguaje no son meros repositorios de datos, sino intermediarios activos que interpretan y sesgan la información según quién pregunte. Hemos pasado de una web de búsqueda a una de respuestas sintéticas, y para cualquier organización, entender la lógica algorítmica de esta nueva 'arquitectura de la influencia' es tan crítico hoy como lo fue entender a los medios de comunicación en el pasado"
En definitiva el informe concluye que la interacción entre la inteligencia artificial (IA) y la política pública en salud confirma la existencia de sesgos sistemáticos en los grandes modelos de lenguaje (LLMs).
Noticias Relacionadas
Artículos recientes
RECIBE NUESTRA NEWSLETTER
