Publicación especializada en estrategias de marketing, publicidad y medios de comunicación.
Formación y estudios

Los periodistas usan la IA, pero con límites éticos y narrativos

Los periodistas usan la IA, pero con límites éticos y narrativos
Comparte
viernes, 10 de octubre 2025

Según un reciente estudio de Axicom, existe un consenso profesional entre los periodistas sobre la inteligencia artificial: la mayoría reconoce que es útil, pero afirman que la responsabilidad editorial no se delega.

El periodista se reafirma como el garante del criterio, la ética y la responsabilidad editorial en un nuevo entorno digital. Así lo demuestra el barómetro “Informar en tiempos de inteligencia artificial”, un estudio que analiza el uso real de la IA generativa en el periodismo español y cómo los profesionales están liderando su integración con mirada crítica.

El informe, elaborado por la agencia de comunicación Axicom a partir de una encuesta a 120 periodistas de medios nacionales, regionales y digitales, revela que el 74% ya incorpora herramientas de IA en su día a día, pero lo hace sin ceder su rol. Los periodistas eligen cuidadosamente qué tareas delegar y cuáles no, marcan límites claros y exigen marcos éticos y formativos para garantizar que la tecnología esté al servicio del oficio, y no al revés.

“La IA puede sugerir un titular, pero no sustituir la voz del periodista. Puede documentar, pero no decidir qué es noticia. Lo que revela este estudio es que el periodismo no renuncia a su función, sino que la redefine desde el conocimiento y la responsabilidad”, señala Mónica González Ortín, Country Manager de Axicom.

La IA está en las redacciones, pero no toma decisiones

Entre las tareas más habituales donde la IA actúa como asistente funcional están la sugerencia de titulares (56,3%), la transcripción de entrevistas (46,5%), la documentación (42,3%) o el apoyo creativo (49,3%). Pero su uso en funciones críticas como la generación automática de noticias (4,2%) o el fact-checking (11,3%) es marginal, por decisión consciente de los periodistas.

Además, más de la mitad de los profesionales (53,5%) cree que ciertas funciones deberían estar prohibidas o limitadas, como la redacción autónoma de noticias. Esto refleja un consenso profesional sobre la utilidad de la IA, pero en que la responsabilidad editorial no se delega. “El periodismo no rechaza la tecnología, pero no está dispuesto a sacrificar sus principios. La supervisión humana no es negociable, pues supone el punto de anclaje entre la automatización y la credibilidad”, apunta González Ortín.

Una profesión que exige garantías, sin atajos

Aunque el aterrizaje de la IA en redacciones es una realidad, persisten preguntas complejas que los periodistas deben responder desde la práctica diaria. ¿Puede integrarse una tecnología tan potente sin entender del todo cómo funciona? ¿Debe el lector saber cuándo una máquina ha participado en el proceso informativo?

El estudio muestra que, si bien tres de cada cuatro periodistas ya utilizan herramientas de IA generativa, muchos lo hacen sin una formación completa, sin protocolos definidos y con interrogantes éticos abiertos. Y esto está dando lugar a un proceso de reflexión activa dentro del oficio. “Estamos en una fase de transición, donde el periodista no lo sabe todo sobre IA, pero sí tiene clara su responsabilidad. No se trata de esperar a dominar la tecnología para actuar, sino de actuar con conciencia mientras se aprende”, explica Mónica González Ortín. “El periodismo debe seguir siendo, una fuente fiable de información. Lo que este estudio pone sobre la mesa es la oportunidad de que la incorporación de nuevas herramientas venga acompañada de más ética, más transparencia y más criterio profesional”.

Entre las preocupaciones más frecuentes destacan la pérdida de calidad informativa (55,7%), la difusión de errores o sesgos (48,2%), el temor al reemplazo del trabajo humano (41,8%) o la dependencia acrítica de tecnologías opacas (38,7%). Para los periodistas, el riesgo no está en el uso de IA, sino en hacerlo sin garantías éticas ni transparencia.

El futuro será híbrido, pero con criterio humano

El barómetro apunta hacia un modelo híbrido, ético y centrado en el valor diferencial del periodismo. La IA puede aportar agilidad, personalización y nuevas posibilidades narrativas, pero el juicio humano, la voz autoral y el compromiso con el lector siguen siendo insustituibles.

Herramientas como ChatGPT (82,3%), Microsoft Copilot (31,3%) o Gemini/Bard (30,2%) dominan el ecosistema actual, aún en fase exploratoria. Este uso generalista refleja una etapa de prueba y error, donde la autonomía tecnológica aún es incipiente, y la reflexión editorial crítica resulta clave para evitar una dependencia sin criterio.

El estudio, por tanto, apunta la emergencia de un modelo donde la tecnología se incorpora, pero no sustituye. Un periodismo que prueba, explora y utiliza IA, pero sin perder el control de los procesos fundamentales que sostienen su legitimidad pública.

  • La IA se usa, pero bajo control humano: un 74% la aplica para tareas operativas y solo el 4% la deja redactar.
  • Una transformación donde las líneas rojas son claras y más de la mitad rechaza la automatización de noticias sin supervisión.
  • Un entorno en el que se exige transparencia, con un 60% considerando que el lector debe ser informado si se ha usado IA.
  • Un escenario donde la formación no está al día, dado que solo un tercio se siente capacitado, pero el 73% quiere aprender más.
  • Y donde solo el 31% de los periodistas trabaja en medios que tengan políticas definidas sobre IA, lo que convierte cada decisión en un dilema individual. La ausencia de gobernanza institucionalizada debilita los mecanismos de responsabilidad compartida y hace urgente la adopción de protocolos de uso.

Recibe nuestra
Newsletter

Con toda la actualidad informativa sobre el mundo de la publicidad, los medios y el marketing.

Comparte

RECIBE NUESTRA NEWSLETTER

Suscríbete gratis a nuestra newsletter para recibir cada día el contenido más actual sobre creatividad, publicidad, marketing, y comunicación.