Cuando los datos comunican emociones y generan cambio

Convertir datos en experiencias humanas y debates sociales: esa es la especialidad de Domestic Data Streamers, el estudio barcelonés que lleva una década mezclando arte, tecnología y comunicación para transformar cifras en conciencia, cambio e impacto social. Hablamos con Martina Nadal, Partner y Directora de operaciones e impacto social de la firma, sobre ética en inteligencia artificial, visualización responsable y el poder de diseñar preguntas que cambian el rumbo de un proyecto.
Ctrl.- En Domestic Data Streamers os enfocáis en convertir datos no dataficados en insights significativos. ¿Podrías compartir algunas claves o ejemplos donde este enfoque haya generado un cambio tangible en la percepción pública o en la toma de decisiones?
Martina Nadal, Partner, COO & Head of Social Impact en Domestic Data Streamers.- Muchas veces, los efectos tangibles de un proyecto no se manifiestan de inmediato. Trabajar con datos no dataficados implica traducir vivencias y realidades humanas en herramientas que pueden impulsar decisiones, conversaciones o transformaciones sociales—muchas veces de forma acumulativa, a lo largo del tiempo.
Un ejemplo reciente es Countdown for Change, construido para UNICEF en 2024, una instalación inmersiva que debutó en la Asamblea Mundial de la Salud en Ginebra, para revalorizar el papel histórico de las vacunas y movilizar tanto a líderes como a ciudadanos. Desde entonces, ha viajado a Lagos (Nigeria) y otros destinos, generando 317 compromisos por parte de decisores políticos de 76 países. Recientemente ganó el Silver Award en la categoría Immersive & Interactive for Advocacy Causes en los Telly Awards 2025.
Otro caso es el proyecto sobre suicidios en Catalunya, que hicimos en 2022. Creamos una instalación portátil con 62 teléfonos, cada uno representando una llamada que podría salvar una vida—un homenaje interactivo y personal a las 62 personas que intentan suicidarse cada año en la región. Esta instalación ha itinerado por varias universidades catalanas, ayudando a romper tabúes en torno a la salud mental. Desde su lanzamiento, se ha reportado un aumento significativo de adolescentes que llaman al número de ayuda vinculado a la pieza.
Mencionas la creación de "arquitecturas del debate" a través de la visualización de datos. ¿Cómo se equilibran la objetividad de los datos con la necesidad de provocar una reflexión crítica en el público? ¿Es una forma más fiable y técnica de "dirigir" la conversación?
Siempre habrá un grado de subjetividad—en cualquier instalación, en cualquier proyecto. El diseño, influido por la materialidad y la fisicalidad que se experimenta de forma directa, nunca será 100% objetivo ni 100% subjetivo. Por eso, lo que hacemos no es imponer nuestras perspectivas, sino construir herramientas que fomenten debates y permitan a los usuarios formarse sus propias opiniones.
Las “arquitecturas del debate”, precisamente por apoyarse en lo subjetivo y en la experiencia personal, son nuestra forma de acercarnos a una cierta objetividad colectiva. No buscamos cerrar el discurso, sino activarlo: hacer que el público piense, cuestione, reflexione.
Así, no vemos una dicotomía entre objetividad y reflexión crítica. De hecho, la objetividad a veces puede resultar fría, abstracta, incluso simplificadora. Más que objetividad, buscamos rigor: datos precisos, análisis cuidados. Y al mismo tiempo, diseñamos espacios para pensar sin decir “esto es lo que debes pensar”. Así es como trabajamos con los datos de forma fiable: creando las condiciones para una reflexión crítica basada en evidencia empírica.
En proyectos como "The Privilege of Choice" con Oxfam, se observó que la personalización aumenta el engagement. ¿Qué métodos se utilizan para personalizar experiencias sin comprometer la privacidad o la integridad de los datos?
En proyectos como The Privilege of Choice con Oxfam, se ha comprobado que la personalización aumenta el engagement sin la necesidad de recoger datos personales sensibles. Sin embargo, personalizar experiencias no significa necesariamente recopilar datos personales, sino más bien fomentar una experiencia auténticamente personal, basada en un proceso interno y reflexivo.
Siempre trabajamos desde la transparencia y la ética, utilizando herramientas y sistemas actualizados que garantizan la protección y el respeto a la privacidad. Para ello, establecemos criterios claros de evaluación que aseguran el cumplimiento de directrices éticas, rechazamos aplicaciones de IA que puedan promover prácticas discriminatorias o desinformación, y priorizamos la seguridad mediante el cifrado de datos, la minimización de la recolección y el cumplimiento de normativas como GDPR y CCPA.
Además, realizamos auditorías periódicas para verificar el respeto a los estándares éticos y de privacidad, y mantenemos la transparencia a través de revisiones internas y documentación pública de las decisiones éticas tomadas durante el proyecto.
¿Os ha ocurrido en alguna ocasión más, como con Oxfam o Befeater, que el cliente os pide algo en concreto y, tras vuestro análisis, acabáis reorientándole a cubrir otras necesidades nuevas descubiertas?
Nos pasa a menudo, y suelen ser los mejores proyectos, cuando nos permitimos hacernos las buenas preguntas al inicio y re encuadrar los problemas.
¿Qué nivel tiene la consultoría en vuestro negocio, sobre todo con temas de inteligencia artificial?
En DDS contamos con Cedra AI, nuestra consultora propia especializada en inteligencia artificial responsable. Cedra trabaja con entidades públicas y sociales, ayudándoles a integrar IA de forma ética y segura, adaptándose a normativas como GDPR. Su enfoque combina capacitación, consultoría estratégica, desarrollo de herramientas a medida y evaluación de impacto, colaborando con clientes como el Ayuntamiento de Barcelona o los servicios sociales, posicionándonos como referentes en consultoría avanzada de IA dentro de nuestro negocio.
En el apartado de su web "From the fear of an AI monster to the hope of augmented empathy", se aborda la dualidad de la IA. ¿Qué principios éticos guían el uso de IA en sus proyectos para fomentar la empatía en lugar del temor?
En DDS, contamos con un conjunto claro de principios éticos fundamentales que guían nuestro uso de la inteligencia artificial, enfocándonos en fomentar la empatía y evitar el miedo. Estos principios —transparencia, responsabilidad, supervisión humana, inclusión, justicia y sostenibilidad— son la base de todos nuestros proyectos.
Pero para nosotros, los principios son tan importantes como su aplicación práctica. Por eso conceptualizamos ejemplos concretos cómo Synthetic Memories, donde usamos IA para generar imágenes visuales de memorias de personas vulnerables, garantizando siempre transparencia, control de los usuarios y un enfoque ético riguroso. Por otro lado, rechazamos aplicaciones que perpetúen sesgos o desinformación, priorizamos la privacidad y diseñamos de manera colaborativa. Así, la ética no es solo un marco teórico, sino una práctica activa que convierte la IA en una herramienta para amplificar la empatía y generar impactos positivos reales.
Con un equipo que abarca desde diseñadores hasta científicos de datos como periodistas, ¿cómo fomentan la colaboración efectiva entre disciplinas tan diversas?
Somos un equipo de poco más de 40 personas con perfiles muy diversos, desde diseñadores hasta científicos de datos y periodistas. Aunque contamos con una amplia variedad de especialidades, lo que realmente nos une es una mentalidad versátil y una gran capacidad para entender y escuchar otras perspectivas. Cada persona aporta su granito de arena, lo que nos permite abordar proyectos muy 360º. Esta diversidad no solo es bienvenida, sino indispensable: un proyecto físico o digital no se puede entender solo desde la perspectiva del diseño, el desarrollo o la creatividad. Para fomentar una experiencia personal, intuitiva y real en el usuario, necesitamos considerar la experiencia humana desde múltiples aspectos, y eso requiere diferentes perfiles.
Para que esta colaboración funcione, hemos desarrollado y afinado con el tiempo workflows y procesos claros que fomentan la comunicación constante y el trabajo conjunto. Alternamos entre sesiones de trabajo interdisciplinarias y espacios más específicos para cada área, asegurando que todas las voces se escuchen y que las decisiones se tomen con una visión integrada. Esta combinación de estructura y flexibilidad, junto con una cultura de respeto y curiosidad, es la clave para que nuestro equipo diverso colabore de manera efectiva y creativa.
Habéis creado una extensión para ayudar a ofrecer otras perspectivas en la lectura de artículos de información y vídeos de YouTube y detectar falacias. ¿Qué diferencia hay de un 'fact-checking' hecho por humanos y qué resultados está aportando en la lucha contra la desinformación?
Skeptic Reader es una extensión gratuita para navegadores que analiza en tiempo real artículos y vídeos de noticias para detectar sesgos, falacias lógicas y ofrecer
contraargumentos. Funciona como una herramienta que acompaña al usuario, señalando posibles problemas en la información y proporcionando métricas de equilibrio y coherencia, sin ofrecer un veredicto definitivo. Su objetivo es transformar la lectura pasiva en un ejercicio activo de pensamiento crítico.
Aunque es un fact-checking hecho por humanos, la diferencia esencial con el fact-checking tradicional es que Skeptic Reader no reemplaza al lector ni ofrece respuestas absolutas. En vez de eso, proporciona pistas concretas —como identificar falacias específicas, revelar sesgos implícitos, sugerir perspectivas alternativas y destacar información omitida— para que el usuario pueda cuestionar y reflexionar por sí mismo. Así, no se trata de delegar la verdad a un algoritmo, sino de fomentar un hábito de escepticismo informado y autonomía crítica.
Este enfoque impacta la lucha contra la desinformación a dos niveles: individualmente, fortalece la capacidad del usuario para analizar la información de forma habitual y autónoma; y colectivamente, impulsa una cultura donde la agencia humana es central, ampliando la idea de que combatir la desinformación requiere empoderar a las personas para cuestionar y no solo recibir verdades prefabricadas.
¿Hacia dónde crees que se dirige el futuro de la comunicación de datos? ¿Qué papel jugarán la IA y las experiencias personalizadas en la forma en que las personas interactúan con la información?
Con la inteligencia artificial, tenemos la capacidad de expandir las formas, los contextos y los formatos en los que comunicamos datos, incorporando por primera vez una dimensión emocional que transforma radicalmente la experiencia del usuario. Este cambio de paradigma abre la puerta a llevar la comunicación y visualización de datos a espacios donde antes no se exploraba, como las humanidades, la educación o la salud, permitiendo conectar con las personas de manera más profunda y humana.
Pero este crecimiento también trae un reto esencial: en un mundo saturado de datos e información, la comunicación de datos debe dejar de ser una cuestión de mostrarlo todo para convertirse en un ejercicio de selección consciente. Elegir qué comunicar y qué omitir es una decisión ética con un impacto profundo, porque define qué historias se amplifican y cuáles quedan invisibilizadas.
Por eso, el futuro de la comunicación de datos pasa por una alianza entre IA y responsabilidad ética: tecnologías que no solo personalicen y amplíen la experiencia informativa, sino que también ayuden a discernir, filtrar y contextualizar la información con sensibilidad humana. Así, la IA será una aliada para crear narrativas más relevantes, inclusivas y emocionalmente conectadas, sin perder nunca de vista la ética y el propósito social.
Noticias Relacionadas
No se han encontrado noticias relacionadas.
Artículos recientes


RECIBE NUESTRA NEWSLETTER
