La señal y el ruido

Written in

por

En 2024, un equipo de investigadores de UC Berkeley construyó un chatbot de atención al cliente y le puso un nombre corriente: Angela. Querían saber qué pasaba cuando un agente digital cometía una errata y la corregía a continuación. Algo tan pequeño como escribir «recibdo» y, dos líneas después, «*recibido, perdona».

Hicieron cinco estudios con más de tres mil participantes. El resultado fue siempre el mismo: los agentes que cometían errores tipográficos y los corregían eran percibidos como más humanos, más cercanos e incluso más útiles que los que escribían sin faltas. La errata (y sobre todo la corrección) funcionaba como una señal de que al otro lado había alguien de verdad. Alguien que se equivoca. Alguien que le importa.

Y en el mismo estudio, los propios investigadores añadían una advertencia: programar erratas deliberadas en chatbots podría considerarse manipulativo y plantear cuestiones éticas.

El mercado se quedó con la primera parte. La advertencia, como suele ser habitual, la ignoró.

(Y yo me llamo Ángela, con tilde; el chatbot del estudio de Berkeley se llama Angela, sin ella, lo cual para una hispanohablante convierte el nombre del experimento sobre erratas que humanizan en, literalmente, una errata.)


Hace unas semanas apareció en LinkedIn una palabra nueva: typomaxxing. La práctica deliberada de introducir errores ortográficos en un texto para transmitir que lo escribió un humano y no una máquina.

El sufijo -maxxing viene de los videojuegos de rol. Los jugadores hablaban de min-maxing: minimizar las estadísticas débiles de tu personaje y maximizar las fuertes. Internet se quedó con la segunda mitad y la aplicó a todo. Sleepmaxxing. Looksmaxxing. Gymmaxxing. El sufijo que convierte cualquier comportamiento humano en una variable que optimizar.

Alguien señaló que la idea no es nueva, y tiene razón. En 2015, un copywriter justificaba las faltas de ortografía en sus correos de venta diciendo que «generaban cercanía». Once años después, la misma idea tiene nombre en inglés, estructura de tendencia y se presenta como respuesta sofisticada a la inteligencia artificial. El truco no ha cambiado; lo que ha cambiado es que ahora hay una razón de mercado para sistematizarlo.

Porque el problema que intenta resolver el typomaxxing es real: la IA ha convertido el texto correcto y bien formateado en la señal por defecto de lo no humano. Si un texto no tiene ni una falta, ni un titubeo, ni una frase que se tuerce a mitad de camino, el lector (y el algoritmo) sospechan. Escribir bien se ha vuelto sospechoso, y la errata deliberada es el parche más barato para ese problema.


Lo que está pasando con las erratas es un caso particular de algo más amplio. Llamémoslo, aunque suene pedante, una carrera armamentística semiótica: cada señal de humanidad que se identifica se replica, se vacía de significado y obliga a buscar la siguiente.

Pensemos en la secuencia. Primero fue la autenticidad: mostrarte «tal como eres» en redes era la señal de que no estabas vendiendo nada. El mercado lo nombró, lo convirtió en estrategia de marca personal, y en tres años «ser auténtico» significaba exactamente lo mismo que «no serlo». Después vino la vulnerabilidad: contar tu fracaso, tu crisis, tu momento de duda. Dos años bastaron para que cualquier post de LinkedIn abriera con un revés dramático seguido de cinco lecciones aprendidas. La estructura era tan reconocible que dejó de transmitir lo que prometía y acabó convertida en meme (busca «LinkedIn Lunatics» en Reddit si quieres reírte un rato y deprimirte otro).

Ahora le toca a la imperfección. La errata deliberada, el texto que no es demasiado limpio, la señal de que esto lo escribió alguien que comete errores, que escribe rápido, que no pasó el texto por una máquina.

Y los datos confirman que funciona (temporalmente). Un experimento demostró que las erratas intencionales disparan la tasa de evasión de los detectores de IA del 35% al 81-93%. Estudiantes universitarios le piden al chatbot que escriba «como un alumno de primero que es un poco tonto» para que el texto no sea detectado. Hay herramientas específicas (se llaman humanizers) que introducen imperfecciones artificiales en textos generados por IA para que pasen los filtros. Todo esto, por cierto, contra unos detectores tan fiables que han señalado la Constitución de Estados Unidos y fragmentos de la Biblia como textos generados por inteligencia artificial. Incluso Frankenstein, de Mary Shelley, ha sido señalado como un texto 100% artificial.

El patrón es siempre el mismo: alguien encuentra algo que no se puede falsificar, el mercado lo nombra yn en el momento en que lo nombra, empieza a falsificarlo. La señal muere en el momento exacto en que se convierte en estrategia.


Hasta aquí, la historia es la del contenido profesional: gente que añade erratas para vender mejor, marcas que simulan imperfección, un mercado que optimiza la señal de humanidad hasta vaciarla. Es un problema interesante pero, en el fondo, esperable. El mercado hace lo que hace el mercado.

Lo que no esperaba encontrar era el mismo mecanismo funcionando al revés. No en LinkedIn, no en el marketing, no en el contenido de marca. En el fanfiction.

Para quien no lo conozca: el fanfiction es ficción escrita por fans de una obra (una serie, un videojuego, un libro, una película) que expande, reimagina o reinterpreta el universo original. Se publica en plataformas como Archive of Our Own (AO3), que es un archivo sin ánimo de lucro, sin publicidad, gestionado por voluntarios (y que, por cierto, en 2019 ganó un premio Hugo). Allí hay más de quince millones de obras: nadie cobra, nadie paga y la gente escribe porque quiere escribir, porque le importa una historia, porque necesita explorar algo que la obra original no le dio. La moneda es el comentario, el kudo, la conversación entre autor y lector. Es una economía del regalo en el sentido más literal del término.

Y es una de las fuentes de texto gratuito más grandes de internet. Lo cual significa que la IA se entrenó con él.

En 2023, una usuaria de Reddit descubrió que Sudowrite (una herramienta de escritura con IA) era capaz de generar ficción utilizando tropos específicos del fanfiction, incluyendo algunos que sólo existen en esas comunidades. La implicación era clara: el modelo se había alimentado de AO3. De las historias que la gente había escrito gratis, por amor a un fandom, y que nunca consintió que se usaran para entrenar una máquina.

La reacción fue masiva. Cientos de miles de autores bloquearon sus obras, restringiéndolas sólo a usuarios registrados. Otros añadieron disclaimers prohibiendo el uso de sus textos para entrenamiento de IA. AO3 empezó a recibir oleadas de comentarios spam generados por bots (algunos acusando a autores humanos de usar IA, en una ironía que parece diseñada para el ensayo). La comunidad entró en un estado de paranoia defensiva del que todavía no ha salido.

Yo escribo fanfiction. En concreto, escribo sobre K-ON!, un anime sobre un club de música en un instituto japonés que, pese a su premisa aparentemente ligera, me ha dado más material narrativo del que cabría esperar. Llevo años trabajando en una historia larga (muy larga: más de sesenta capítulos, cerca de ochocientas mil palabras y subiendo) que trato más como un proyecto novelístico que como un fanfic al uso. Se llama Truth of Touch y lo escribo en inglés, que no es mi lengua materna. Si alguien leyera el primer capítulo de mi historia y el último, notaría que no los escribió la misma persona. Y no los escribió: la autora del capítulo cuatro no manejaba los diálogos ni las metáforas ni el ritmo como la del capítulo cincuenta, porque entre una y otra hay años de práctica, de leer, de equivocarse y de reescribir. Esa evolución visible, capítulo a capítulo, es posiblemente la prueba más clara de que hay alguien dentro de ese texto. Ninguna IA produce un proyecto así, porque ninguna IA mejora por el camino.

Y sin embargo, escribo con una inseguridad que no tiene nada que ver con la calidad de lo que hago y todo que ver con el ecosistema en el que lo publico. Nadie me ha acusado nunca de usar IA. Pero la posibilidad de que alguien lo haga ya contamina mi relación con mi propia escritura. Me descubro releyendo frases y preguntándome si suenan «demasiado limpias». Si una estructura narrativa que uso desde hace años ahora parece sospechosa porque la IA la ha replicado mil veces. Si escribir en un segundo idioma sin errores evidentes me hace parecer menos humana, no más. Me he rayado con palabras que repito, con el uso de metáforas, con si mis frases tienen una estructura que «suena a máquina». Y todo eso son cosas con las que me rayaba antes de que existiera ChatGPT, solo que entonces se llamaban «inseguridades de escritora» y ahora se llaman «señales de IA».

No soy la única. En el mundo del fanfiction, la IA ha creado una serpiente que se muerde la cola. La IA se entrenó con fanfiction, absorbió sus tropos, su tipo de storytelling, sus estructuras, incluso frases que llevan décadas circulando en esas comunidades. Y ahora esas mismas frases y estructuras se han convertido en «señales de IA»: las triadas, los ritmos cortos, un «a shiver ran down their spine». Un show don’t tell demasiado limpio, o demasiado sucio. Todo lo que siempre fue parte del género ahora es sospechoso, porque la máquina lo aprendió de nosotros y ahora nosotros parecemos la máquina.

El resultado es un doble vínculo imposible. Si tu texto tiene errores, es IA (porque la IA ya sabe poner errores a propósito). Si no los tiene, es IA (porque es demasiado perfecto). Si el storytelling es bueno, es IA (porque la IA genera textos competentes). Si no lo es, también (porque la IA no sabe escribir de verdad). Si haces mucho tell don’t show, es IA (porque a la IA le encanta sobreexplicar). Si no lo haces, también (porque cómo vas a ser tan bueno). No hay posición segura. No hay forma de escribir que no sea interpretable como artificial.


Esto tiene víctimas concretas, y no son las que el debate habitual señala.

Una profesora de Purdue University, Rua Williams, investigadora en estudios de discapacidad y autista, fue acusada por un estudiante de ser un bot de IA. Su delito: responder de forma demasiado estructurada, demasiado rápida, demasiado pulida. Williams ha documentado que las personas neurodivergentes y las que escriben en un segundo idioma son señaladas desproporcionadamente por los detectores de IA y por los lectores humanos que juegan a ser detectores.

Hay investigación académica que lo respalda. Un estudio de Stanford encontró que más de la mitad de los ensayos escritos por hablantes no nativos de inglés eran marcados como IA por los detectores. Otro estudio, publicado en un volumen sobre detección de IA y educación, argumenta que las herramientas de detección son inherentemente injustas con escritores autistas y con quienes escriben en una segunda lengua, y que su uso en contextos académicos es éticamente cuestionable.

En algún punto del último año, leí a alguien en el subreddit de fanfiction decir que si en un texto aparece «the light hums» («la luz zumba») es señal de IA, porque a los modelos de lenguaje les gusta la sinestesia. Alguien contestó: «Soy autista y yo escribo eso porque para mí, la luz efectivamente zumba».

Esa respuesta contiene todo lo que este ensayo intenta decir. La señal de humanidad más irreductible que existe (una experiencia sensorial que sólo tú tienes, una percepción del mundo que nadie más procesa exactamente así) está siendo descartada como artificial. No porque sea indistinguible de lo que produce una máquina, sino porque hemos decidido que cualquier cosa que una máquina pueda replicar deja de ser prueba de humanidad. Y como las máquinas pueden replicar casi todo lo que se puede poner en palabras, el espacio de lo «demostrablemente humano» se reduce con cada modelo nuevo.

La usuaria WitchFlame, en Reddit, explicó muy bien lo que cualquier escritor de ficción sabe esto aunque no sepa explicarlo: cuando escribes que las cortinas son azules, o que un personaje baja las escaleras dando saltitos en vez de caminando, o que su pelo es dorado y no rubio, estás tomando decisiones que vienen de algún sitio. De tu relación con ese personaje, de tu estado de ánimo, de algo que ni siquiera sabes que estás haciendo. Son decisiones inconscientes que acumulan significado. Si le das ese texto a una IA y le pides que lo «mejore», las cortinas dejan de ser azules y pasan a ser «de un intenso tono cerúleo». El personaje ya no baja dando saltitos sino «con paso ligero y decidido». El pelo ya no es dorado sino que «relucía bajo la luz como hilos de sol». Las palabras son más bonitas, pero el significado se ha ido. Y con él, la persona que lo eligió. Como la luz que zumba.


La errata no es la señal de que hay un humano detrás de un texto. Nunca lo fue. De hecho, antes era incluso insultante encontrar textos con ni que fuera una errata, sobre todo en textos terminados, como un libro o un anuncio. La señal era otra cosa: el pensamiento que nadie más habría tenido, la observación que incomoda un poco al hacerla, la conclusión a la que llegaste después de soltar algo que te costaba. La señal era el recorrido.

Un texto sin pensamiento con faltas de ortografía no es más humano que un texto sin pensamiento bien escrito: los dos son el mismo vacío. Y un texto con pensamiento, con fricción, con el riesgo real de llegar a un sitio incómodo, no necesita demostrar nada. No necesita erratas estratégicas ni disclaimers de autenticidad. Se sostiene porque hay alguien dentro.

Pero eso es exactamente lo que no se puede escalar, optimizar ni convertir en sufijo. El pensamiento con fricción es lo que más tiempo cuesta y menos contenido genera. No hay thinkingmaxxing, no hay forma de sistematizar el recorrido que produce un texto que sólo tú podrías haber escrito. Y quizá eso es lo único que queda cuando todas las señales de superficie ya han sido vaciadas. Quizá la única prueba de humanidad que resiste es la que no se puede empaquetar como tendencia.

O quizá no. Quizá alguien ya está trabajando en ello. Quizá dentro de dos años habrá un workshop de 497 euros que te enseñe a tener pensamiento propio en siete pasos, y el primero será desinstalarte una red social.

Mientras tanto, en algún lugar, una persona autista escribe que la luz zumba. Porque para ella, la luz zumba. Y duda antes de publicarlo. No porque no sea verdad, sino porque alguien podría leerlo y pensar que lo escribió una máquina. Así que lo borra y le pide a ChatGPT que humanice su texto. ChatGPT escribe: «La luz fluorescente emitía un zumbido suave, casi imperceptible, que llenaba la quietud de la habitación». Y no hemos perdido una simple frase; hemos perdido una forma de estar en el mundo.

Etiquetas

Categorías

Deja un comentario