Bienvenidos a la semana en dos minutos, el audioresumen de la revista Ctrl ControlPublicidad.
Si los europeos no fuéramos tan etnocéntricos podríamos decir que esta semana ha estallado la Tercera Guerra Mundial. Cuando a Einstein le preguntaron una vez cómo sería la tercera, dijo que no tenía ni idea, pero que la cuarta seguro que sería con palos y piedras. Esperemos que no se cumpla el pronóstico, pero tampoco vamos a ignorar que estamos viviendo la primera gran guerra en la que la inteligencia artificial será un arma de combate. Viene esto a cuento porque esta semana se ha producido la ruptura definitiva de Anthropic con la administración Trump. Al presidente de Estados Unidos no le ha gustado nada que no le dejen usar Claude, la herramienta de inteligencia artificial de Anthropic, para sus juegos de guerra. La consecuencia es que a partir de ahora el proveedor de inteligencia artificial de la administración Trump será OpenAI, la propietaria de ChatGPT, que no tiene ningún escrúpulo en permitir que se use su tecnología para espiar a los ciudadanos o automatizar armas letales en función de patrones probabilísticos.
Para Dario Amodei, el fundador de Anthropic, empresa fundada por antiguos trabajadores de Google que se fueron de allí por motivos éticos, esto de que haya armas autónomas movidas por IA es peligroso. Será porque Dario es un woke, como dice Trump, o porque, como sabe muy bien cualquier usuario, la inteligencia artificial también se equivoca, se inventa lo que no sabe o incluso tiene alucinaciones.
Por no hablar de la llamada discriminación algorítmica. Un ejemplo: La empresa Stratesys nos ha revelado que “Entre un 60 y un 70% de las ONGs no aparece o aparece mal descrita cuando se consulta sobre causas sociales en buscadores o asistentes con IA”.
Otro: la Universidad Oberta de Catalunya habla de una nueva brecha de género en las empresas: los procesos de selección de personal en los que se utiliza la inteligencia artificial, que ya son el 65%, reproducen patrones machistas y discriminatorios en el estudio de los candidatos a un puesto de trabajo. Esto de que la IA es un poco machista o racista o edadista no sorprende a nadie. En una reciente encuesta de empresa HireVue el 66% de los 4000 encuestados dijo que estaba en contra de que la IA tome decisiones finales sobre a quién contratar.
O sea, que los humanos usamos la IA pero nos fiamos poco de ella. Si no queremos que el departamento de recursos humanos lo lleve un robot, mucho menos vamos a querer que manejen armas de guerra con cierta autonomía.
Para decirlo con humor, recomendamos el falso documental que ha lanzado esta semana la startup belga AICandy. Se llama Energym y es una distopía al estilo "Black Mirror" en la que la Inteligencia Artificial ha reemplazado al 80% de los empleos y la gente tiene que ganarse la vida pedaleando en unas turbinas que convierten la energía física en electricidad para mantener los servidores y centros de datos de la IA.
A lo mejor, Einstein se quedó corto en su profecía.
La semana que viene, más noticias.