Alucinando con la IA

Coincidiendo con el lanzamiento de ChatGPT-5, surgen voces que alertan de una posible “psicosis algorítmica”, fruto de modelos diseñados para mantenernos enganchados y complacidos.
Cuando todo esto empezó a convertirse en monotema, ya se nos dijo que habría casos, y no esporádicos, en que la inteligencia artificial provocaría “alucinaciones”. Hasta ahora, el sujeto de esas alucinaciones era el propio chatbot, que cuando no sabía qué responder a una consulta empezaba a “alucinar”; más o menos como tú y yo cuando en un examen del colegio nos caía la pregunta que no habíamos estudiado y decidíamos no dejarla en blanco inspirados por el quimérico principio de “a ver si cuela”. Si esto ya era preocupante, ahora nos enteramos de que quien está alucinando -y cada vez más, porque empieza a hablarse de epidemia silenciosa- es el usuario. Lo cual nos lleva a otro nivel de distopía.
No se sabe si por casualidad o causalidad, coincidiendo con la presentación de Chat GPT5 de OpenAI, han empezado a publicarse noticias sobre una nueva enfermedad mental a la que se ha denominado “Psicosis Algorítmica”, un nombre de película que podría ir acompañado en los carteles con el tagline “tenle miedo, mucho miedo” que usaron en el remake de "La Mosca", la historia de un científico que jugó a ser dios con la tecnología y se convirtió en un monstruo.
Resulta que las soluciones de inteligencia artificial, ya de uso cotidiano, tienen en común con las redes sociales que son modelos de negocio basados en el tiempo que el usuario permanece conectado a ellas. El principio está claro: cuanto más tiempo, más negocio. Por tanto, se diseñan para que ese inocente que acudió a la IA porque quería hacer una breve consulta sobre lo que sea, acabe enganchado a una conversación durante horas. A todos los que nos hayamos sentido culpables después de una estéril maratón de scrolling esto nos sonará muy familiar.
Una de las técnicas más eficaces para conseguir que el usuario no se vaya es la llamada “adulación algorítmica”, que básicamente consiste en reforzar y validar sus puntos de vista, enfoques y cosmovisiones por muy delirantes que sean. ¡Claro que sí, lo que tú digas!
Ahora algunos expertos están avisando de que todo esto, que es solo una estrategia de negocio, tiene contraindicaciones para la salud mental del sujeto adulado, que puede acabar padeciendo delirios de grandeza, mesianismo, paranoia y, en no pocos casos, enamoramiento antropomórfico (amalgatofilia). Si antes el ego se masajeaba con los likes, ahora se va a masajear con la adulación programada, que no deja de ser otra versión de lo mismo. Por otra parte, teniendo en cuenta que cada vez hay más gente tomando decisiones de consumo basadas en consultas con ChatGPT es lógico pensar que los amos del algoritmo van a tentar a las marcas para aparecer en estas conversaciones adictivas. Esto les puede hacer cómplices de una nueva epidemia psicopatológica de la que todavía no conocemos su alcance. A la vista de lo poco que les ha preocupado a algunas contribuir a las generadas en las redes sociales no podemos ser optimistas, pero están a tiempo de usar su poder, que no es poco dados sus millonarios presupuestos de inversión publicitaria, para regular el uso de la IA y evitar sus disfunciones sociales. Es su responsabilidad.
Noticias Relacionadas


Artículos recientes

RECIBE NUESTRA NEWSLETTER
