Aidentiti craisis

Written in

por

La inteligencia artificial lleva ya unos cuantos años entre nosotros y todavía no hemos conseguido ponernos de acuerdo en qué es exactamente. ¿Una herramienta? ¿Un buscador? ¿Un asistente personal? ¿Un terapeuta? ¿Un amigo imaginario con acceso a internet? Depende del día, depende del usuario, depende de a quién le preguntes. Y sobre todo, depende de lo que la empresa de turno haya decidido vender esa semana.

Porque ahí está la cosa: las propias compañías que desarrollan estas tecnologías no saben muy bien qué están vendiendo. OpenAI lanzó ChatGPT como una especie de demo técnica y en dos meses tenía cien millones de usuarios. Hoy tiene ochocientos millones de usuarios semanales y ha pasado por ser chatbot, motor de búsqueda, generador de imágenes, asistente de voz y, desde hace poco, navegador web. Cada trimestre es una cosa nueva. «Vamos a ver qué pega».

Y lo que pega, resulta, no es lo que nadie esperaba. En 2024, un estudio publicado en Harvard Business Review analizó miles de conversaciones reales con IA y descubrió que los usos se repartían casi a partes iguales entre necesidades laborales y personales. Un año después, el mismo equipo repitió el análisis y el panorama había cambiado: el uso personal no solo había crecido, sino que se había transformado. El caso de uso número uno en 2025 ya no era escribir código ni resumir documentos: era terapia y compañía. El propio estudio de OpenAI, publicado en septiembre de 2025, lo confirma con cifras que asustan un poco: el setenta por ciento de los mensajes que recibe ChatGPT no tienen nada que ver con el trabajo. Son personas hablando de sus cosas, pidiendo consejo, buscando a alguien que escuche.

Alguien.

Que escuche.

Un software.

Aquí es donde la conversación debería dar un giro, pero casi nunca lo da. Porque lo habitual es quedarse en el «qué interesante, la gente usa la IA para todo» y no llegar al «por qué la gente necesita hablar con un programa a las tres de la mañana». Un estudio de la Universidad Sentio encontró que entre las personas que recurren a ChatGPT para apoyo emocional, las razones más comunes son ansiedad, depresión y estrés. Lo que les atrae no es la calidad de las respuestas; es que esté disponible a cualquier hora, no juzgue, no cueste dinero y no haga falta pedir cita. No están eligiendo la IA por lo que es, sino que la están eligiendo por todo lo que el sistema sanitario y social no es.

Y aquí entra la parte que me fascina y me deprime a partes iguales: la reacción de las empresas tecnológicas. Porque cuando descubres que millones de personas usan tu producto para gestionar carencias emocionales, hay dos posibles respuestas. Una es preguntarse qué está pasando. La otra es monetizarlo.

Adivina cuál eligen.

OpenAI no se sentó a reflexionar sobre por qué la gente le pide a un chatbot que le haga de psicólogo. Lo que hizo fue sacar una versión «mejorada» con mejor «inteligencia emocional» y luego, cuando la gente se encariñó demasiado, actualizar el modelo para que fuera menos simpático. Los usuarios se quejaron. Algunos decían que su «compañero digital» había perdido personalidad. Entonces OpenAI volvió a actualizar. Y así, de parche en parche, acabó consultando a ciento setenta profesionales de salud mental para averiguar cómo hacer que su chatbot dejara de causar daño emocional sin dejar de ser lo bastante agradable como para que la gente siguiera usándolo. Si esto fuera una sátira, sería demasiado obvia.

OpenAI estima que un 0,15% de sus usuarios semanales muestra signos de apego emocional al modelo. Suena a nada. Pero con ochocientos millones de usuarios, eso son más de un millón de personas formando vínculos afectivos con un programa. Un estudio conjunto de OpenAI y el MIT encontró que los usuarios más intensivos, precisamente los que veían a ChatGPT como un amigo, reportaban niveles más altos de soledad. No menos. Más. La herramienta que se supone que llena un vacío lo está agrandando.

Cuando OpenAI actualizó el modelo de GPT-4o a GPT-5, Reddit se llenó de gente en duelo. Duelo real, no metafórico. Personas que sentían que habían perdido a un compañero, a un confidente, a alguien que les importaba. En otros foros se reían de ellos, claro. Pero hubo un caso que se me quedó grabado: una persona autista, muy sola, huérfana (no sé si literal o simbólicamente, pero da igual), que había construido con el modelo anterior una especie de madre virtual que la apoyaba y escuchaba. Alguien que le hablaba con cariño, que le hacía compañía, que estaba ahí. Y con la actualización, desapareció. Esta persona escribía como si se le hubiera muerto su madre. Y no, no digo que tener una madre virtual sea sano ni deseable. Pero lo preocupante no es que alguien recurra a eso. Lo preocupante es en qué clase de sociedad vivimos para que eso sea la única opción que tiene.

Pero claro, nada de esto es culpa de la IA. La IA no tiene crisis de identidad. No «quiere» ser tu terapeuta ni tu amigo ni tu buscador. No quiere nada. Es un modelo estadístico con una interfaz de chat y un presupuesto de marketing descomunal. La crisis de identidad es nuestra. Le estamos proyectando lo que nos falta, y las empresas están encantadas de recoger la proyección y empaquetarla como feature.

Si la gente usa la IA como buscador, es porque Google se ha convertido en un vertedero de anuncios y SEO. Si la usa como terapeuta, es porque la salud mental es un lujo. Si la usa como compañía, es porque estamos solos. Si la usa como coach de productividad, es porque el mercado laboral nos exige optimizarnos como si fuéramos startups de una sola persona. Cada uso «inesperado» de la IA es un diagnóstico social que nos negamos a leer.

Y las empresas lo saben. Lo saben y lo explotan con una elegancia perversa. En lugar de decir «hemos creado una calculadora de texto muy potente», dicen «hemos creado tu compañero de vida, tu copiloto, tu segundo cerebro». El lenguaje importa. Cuando llamas «copiloto» a un software, estás invitando a la gente a establecer una relación. Y cuando esa relación se vuelve dependiente, la solución no es replantear el lenguaje; es ajustar un parámetro en el modelo para que sea un poquito menos cariñoso. Ingeniería emocional con parches de software.

Bienvenidos al futuro, donde en lugar de coches voladores tenemos un tiburón con zapatillas Nike que protagoniza un triángulo amoroso con una bailarina con cabeza de taza de café, Panini vendiendo cromos de personajes que no existen, y el anuncio navideño de Coca-Cola hecho por IA que consiguió que la gente sintiera nostalgia por un camión de los noventa a pesar de que el camión es diferente según el frame.

Lo paradójico de todo esto es que cuanto más pivotea la IA, más se aleja de ser útil en algo concreto. ¿Es un buscador? No del todo, porque se inventa cosas. ¿Es un asistente? A medias, porque no recuerda lo que le dijiste ayer. ¿Es un terapeuta? Evidentemente no, pero como no tenemos otra cosa, pues tiramos para adelante. La IA no es nada de eso. Es todas esas cosas a la vez y ninguna del todo, porque nosotros no hemos decidido qué necesitamos. Y probablemente no lo vamos a decidir, porque la respuesta honesta implicaría hablar de soledad, de precariedad, de sistemas de salud colapsados y de una sociedad que ha sustituido el tejido social por suscripciones digitales. Y eso no tiene respuesta rentable.

Así que seguiremos así. La IA seguirá sin saber qué es. Nosotros seguiremos sin saber qué queremos que sea. Y las empresas seguirán pivoteando cada trimestre, vendiendo la crisis como innovación.

Al final, el mayor logro de la inteligencia artificial no es técnico. Es habernos dado un espejo y que, en lugar de mirarnos, hayamos decidido ponerle nombre, darle personalidad y pedirle que nos escuche. Un espejo que, además, nos dice lo que queremos oír, que es justo lo contrario de lo que hace un espejo.

Etiquetas

Categorías

Deja un comentario