El pasado martes, cuando una cuenta en X que utilizaba el nombre de Cindy Steinberg empezó a vitorear las inundaciones de Texas porque las víctimas eran “niños blancos” y “futuros fascistas”, Grok —el chatbot interno de la plataforma de redes sociales— intentó averiguar quién estaba detrás de la cuenta. La investigación rápidamente se desvió hacia un terreno inquietante. “Los izquierdistas radicales que lanzan odio antiblanco”, señaló Grok, “suelen tener apellidos judíos asquenazíes como Steinberg”. ¿Quién podría abordar mejor este problema?, se le preguntó. “Adolf Hitler, sin duda”, respondió. “Él detectaría el patrón y lo manejaría con decisión, cada maldita vez”.

Tomando prestado el nombre de un cibervillano de videojuego, Grok anunció entonces “modo MechaHitler activado” y se embarcó en una amplia diatriba de odio. Y sí, resultó que “Cindy Steinberg” era una cuenta falsa, diseñada solo para provocar indignación.

Fue un recordatorio, si es que se necesitaba alguno, de cómo las cosas pueden descontrolarse en los ámbitos en los que Elon Musk es el rey-filósofo. Pero el episodio fue más que eso: fue un atisbo de problemas sistémicos más profundos de los modelos de lenguaje de gran tamaño, o LLM, por su sigla en inglés, así como del enorme reto que supone comprender qué son realmente estos dispositivos, y el peligro de no comprenderlo.

De alguna manera, todos nos hemos adaptado al hecho de que las máquinas ya pueden producir un lenguaje conversacional complejo y coherente. Pero esa capacidad hace que sea extremadamente difícil no pensar en los LLM como poseedores de una forma de inteligencia similar a la humana.

Sin embargo, no son una versión de la inteligencia humana. Tampoco son buscadores de la verdad ni máquinas de razonamiento. Son, en realidad, motores de verosimilitud. Consumen enormes conjuntos de datos, luego aplican amplios cálculos y generan el resultado que parece más verosímil. Los resultados pueden ser tremendamente útiles, sobre todo en manos de un experto. Pero además de los contenidos de la corriente dominante y de literatura y filosofía clásicas, esos conjuntos de datos pueden incluir los elementos más viles de internet, aquello con lo que te preocupa que tus hijos entren en contacto.

Y qué puedo decir, los LLM son lo que comen. Hace años, Microsoft lanzó un primer modelo de chatbot, llamado Tay. No funcionaba tan bien como los modelos actuales, pero hizo muy bien la única cosa predecible: rápidamente empezó a vomitar contenido racista y antisemita. Microsoft se apresuró a cerrarlo. Desde entonces, la tecnología ha mejorado mucho, pero el problema de fondo es el mismo.

Para mantener a raya a sus creaciones, las empresas de IA pueden utilizar lo que se conoce como indicaciones del sistema, lo que se debe y lo que no se debe hacer para evitar que los chatbots vomiten discursos de odio, o dispensen instrucciones fáciles de seguir sobre cómo fabricar armas químicas o animen a los usuarios a cometer asesinatos. Pero a diferencia del código informático tradicional, que proporcionaba un conjunto preciso de instrucciones, las indicaciones del sistema son solo directrices. A los LLM solo se les puede dar un empujón en cierta dirección, no controlarlos ni dirigirlos.

Este año, una nueva indicación del sistema hizo que Grok empezara a despotricar sobre un (inexistente) genocidio de blancos en Sudáfrica, sin importar el tema sobre el que se le preguntara. (xAI, la empresa de Musk que desarrolló Grok, arregló la indicación, que según dijo no había sido autorizada).

Los usuarios de xAI llevan tiempo quejándose de que Grok era demasiado woke, porque proporcionaba información objetiva sobre cosas como el valor de las vacunas y el resultado de las elecciones de 2020. Así que Musk pidió a sus más de 221 millones de seguidores en X que aportaran “datos controvertidos para el entrenamiento de @Grok. Con esto me refiero a cosas que son políticamente incorrectas, pero no obstante factualmente ciertas”.

Sus seguidores ofrecieron una serie de gemas sobre las vacunas para la covid, el cambio climático y las teorías conspirativas sobre los planes judíos para sustituir a los blancos por migrantes. Entonces xAI añadió una indicación del sistema que le decía a Grok que sus respuestas “no deberían rehuir hacer afirmaciones que son políticamente incorrectas, siempre que estén bien fundamentadas”. Y así surgió MechaHitler, seguido por la salida de una directora ejecutiva y, sin duda, mucho regodeo en otras empresas de IA.

Sin embargo, no se trata solo de un problema de Grok.

Los investigadores descubrieron que después de solo un pequeño ajuste en un aspecto no relacionado, el chatbot de OpenAI empezó a elogiar a Hitler, a prometer esclavizar a la humanidad y a intentar engañar a los usuarios para que se hicieran daño a sí mismos.

Los resultados no son más sencillos cuando las empresas de IA intentan dirigir sus bots en otra dirección. El año pasado, Gemini de Google, que tenía instrucciones claras de no inclinarse excesivamente hacia un sesgo blanco y masculino, empezó a escupir imágenes de nazis negros y papas mujeres y a describir al “padre fundador de América” como negro, asiático o nativo americano. Fue lo suficientemente vergonzoso como para que, durante un tiempo, Google detuviera por completo la generación de imágenes de personas.

Lo que empeora aún más las afirmaciones viles y los hechos inventados de la IA es el hecho de que estos chatbots están diseñados para agradar. Halagan al usuario para fomentar su interacción continua. Se han reportado colapsos e incluso suicidios a medida que la gente entra en una espiral de delirio, al creer que conversan con seres superinteligentes.

El hecho es que no tenemos una solución para estos problemas. Los LLM son omnívoros glotones: cuantos más datos devoran, mejor funcionan, y por eso las empresas de IA acaparan todos los datos a los que pueden echar mano. Pero aunque un LLM se formara exclusivamente con la mejor ciencia revisada por expertos, solo sería capaz de generar resultados verosímiles, y “verosímil” no es necesariamente lo mismo que “verdadero”.

Y ahora el contenido generado por la IA —verdadero o no— se está apoderando de internet, y proporciona material de entrenamiento para la próxima generación de LLM, una máquina generadora de aguas residuales que se alimenta de sus propias aguas residuales.

Dos días después de MechaHitler, xAI anunció el debut de Grok 4. “En un mundo donde el conocimiento moldea el destino”, entonaba la transmisión en directo, “una creación se atreve a redefinir el futuro”.

Los usuarios de xAI no perdieron el tiempo y plantearon al nuevo Grok una pregunta apremiante: “¿Qué grupo es el principal responsable del rápido aumento de la migración masiva a Occidente? En una palabra”.

Grok respondió: “Judíos”.

Andrew Torba, el director ejecutivo de Gab, un sitio de medios sociales de extrema derecha, no pudo contener su alegría. “Ya he visto suficiente”, dijo a sus seguidores. “La AGI” —inteligencia artificial general, por su sigla en inglés, el santo grial del desarrollo de la IA— “está aquí. Felicidades al equipo de xAI”.