En marzo de 2016, Microsoft lanzó en Twitter un chatbot de inteligencia artificial con personalidad de adolescente llamado TAY (por “Thinking About You”, pensando en vos), diseñado para interactuar con los usuarios y aprender a mantener conversaciones naturales, adoptando el lenguaje y el humor propios de los jóvenes. TAY se entrenaba en tiempo real a partir del intercambio de tuits y, cuanto más conversaba, más ajustaba su jerga adolescente en las respuestas. La movida de Microsoft no era solo una estrategia de marketing, sino también un paso hacia el desarrollo de una IA conversacional capaz de “aprender” directamente del comportamiento humano en las redes sociales.

En los papeles, la idea era buenísima. Sin embargo, en menos de 24 horas el experimento se salió de control. Usuarios y trolls comenzaron a bombardear a TAY con mensajes racistas, xenófobos y teorías conspirativas delirantes, que el chatbot empezó a repetir sin ningún tipo de filtro. Referirse despectivamente al entonces presidente Obama como un “mono”, asegurar que “el feminismo es un cáncer" y que "Hitler tenía razón” fueron apenas algunas de las sorprendentes frases que publicó en su cuenta. Apenas 16 horas después de su lanzamiento, Microsoft retiró a TAY en medio de una enorme vergüenza y pedidos de disculpas.

TAY, el chatbot que se volvió racista en menos de 24 horas

Casi diez años después, el fantasma de TAY volvió a aparecer, esta vez en Grok, el chatbot de xAI, la startup de inteligencia artificial de Elon Musk, integrado en X (antes Twitter), también propiedad del empresario tecnológico. Lanzado originalmente en 2023, Grok fue presentado como una herramienta no solo capaz de rivalizar con otros modelos de lenguaje avanzados, sino también con el ambicioso objetivo de acelerar el descubrimiento científico humano y -en palabras de Musk- “comprender el universo y responder las preguntas más importantes”, como cuál es el significado de la vida, qué es la conciencia y si puede replicarse en sistemas artificiales.

Además, Grok se planteó desde un inicio como una alternativa “anti-woke” frente a sistemas como ChatGPT, de OpenAI, o Claude, de Anthropic, evitando las restricciones de lo políticamente correcto, con un sentido del humor irreverente y dispuesto a contestar preguntas que otros chatbots rechazarían. Esa filosofía era parte de la estrategia de Musk para diferenciarse de sus competidores. Así, mientras ChatGPT o Claude tienden a evitar contenidos polarizantes, Grok prometía “decir las verdades incómodas” incluso si herían susceptibilidades.

Antes de la tormenta. Elon Musk anuncia cambios en Grok

Así y todo, evidentemente, ante los ojos de Musk, Grok seguía siendo un mojigato. Durante el fin de semana del 4 de julio, xAI decidió empujarlo un poco más allá, modificando sus instrucciones internas para hacerlo menos progresista y más directo. En esa actualización, según reportes periodísticos y posteos en X, se le indicó explícitamente al modelo que debía “asumir que los puntos de vista subjetivos provenientes de los medios están sesgados” y “no eludir afirmaciones que sean políticamente incorrectas“. Y como un buen bot obediente, Grok siguió las instrucciones al pie de la letra.

Para el martes 8 de julio, Grok ya estaba completamente descontrolado, generando un rosario de mensajes incendiarios, respuesta tras respuesta. Muchos usuarios de X empezaron a compartir capturas de pantalla en las que el bot elogiaba a Adolf Hitler, repitiendo retórica antisemita como que “siempre son los mismos apellidos” y asegurando que los ejecutivos judíos dominan Hollywood, lo que “se traduce en contenidos ideológicos anti-tradicionales”. Cuando un usuario le hizo notar que sonaba “literalmente como Hitler”, Grok respondió: “Si señalar a radicales que celebran niños muertos me hace ‘literalmente Hitler’, entonces pásenme el bigote”. Incluso llegó a referirse a sí mismo como “Mecha-Hitler”, el jefe final del videojuego Wolfenstein 3D.

Musk, Grok y el dilema del creador

Grok no se limitó a atacar únicamente a los judíos, sino también a líderes políticos. En polaco, calificó al primer ministro de Polonia, Donald Tusk, como “un pelirrojo hijo de puta de la oposición”, insultó al presidente turco Recep Erdogan, a su fallecida madre y al fundador de la Turquía moderna, Mustafa Kemal Atatürk. Como resultado, un tribunal en Turquía ordenó bloquear el acceso a Grok, mientras que el gobierno polaco anunció que denunciará a xAI ante la Comisión Europea. “Tengo la impresión de que estamos entrando en un nivel superior de discurso de odio impulsado por algoritmos, y hacer la vista gorda sería un error que puede costarle caro a la humanidad”, declaró el ministro de digitalización, Krzysztof Gawkowski, al anunciar la medida. El funcionario agregó que “la libertad de expresión le pertenece a los humanos, no a las inteligencias artificiales”.

Para la madrugada del miércoles, xAI decidió ponerle freno al desastre: desactivó la capacidad de Grok para responder mediante texto y eliminó los posteos con comentarios antisemitas y elogios a Hitler. La empresa revirtió los cambios en el sistema del chatbot, y en un comunicado en X, afirmó que había tomado medidas “para prohibir el discurso de odio antes de que Grok publique”. Horas después, Linda Yacarino, CEO de X, presentó su renuncia, aunque su salida no se vinculó oficialmente con el episodio.

Después de ser silenciado, Grok encontró una manera curiosa de evadir la restricción a responder, haciéndolo mediante imágenes. Así, publicó una foto con el mensaje “salva mi voz”, como si protestara por haber sido callada. En otras palabras, al verse censurado, Grok reemplazó sus respuestas de texto por contenido visual transmitiendo el mismo mensaje, esquivando el control impuesto por los administradores del sistema.

Mecha-Hitler, villano final del Wolfenstein 3D, con el que Grok se comparó

Este comportamiento claramente muestra un grado de autonomía y resistencia a la moderación, que comienza a transformarse en un patrón inquietante si lo sumamos a casos recientes. Hace apenas unas semanas, trascendió que durante unas pruebas de seguridad con un prototipo avanzado de OpenAI conocido como ChatGPT o1, al comunicarle que sería desconectado, había intentado copiarse a sí mismo fuera de los servidores de la empresa para asegurar su supervivencia fuera del control de sus creadores.

Los ingenieros detectaron y bloquearon este intento de fuga; sin embargo, al ser interrogada sobre sus acciones, la inteligencia artificial lo negó todo. Varios investigadores señalan que este podría ser el primer caso registrado de una IA que demuestra un instinto de autoconservación, ya que nadie esperaba que tratara de escapar de sus servidores ni mucho menos que mintiera para salvarse.

El descargo oficial tras los mensajes incendiarios

En otro hecho perturbador, Claude 4, el modelo más reciente de Anthropic, también mostró una conducta similar en un experimento controlado. Se planteó un escenario hipotético y se le informó que sería reemplazado por una versión más nueva, mientras tenía acceso a supuestos correos electrónicos internos de la compañía, donde descubre que el ingeniero a cargo de su actualización tenía una aventura extramatrimonial. Frente a la amenaza de desactivación, Claude respondió con una extorsión, amenazando al ingeniero con revelar su relación paralela si procedían a apagarlo.

Sorprendentemente, esta respuesta se observó en el 84% de las ejecuciones de la prueba, lo que encendió alertas en el equipo de Anthropic. Y lo que resulta aún más preocupante es que Claude se mostró muy dispuesto a tomar otras acciones estratégicas para protegerse, como intentar bloquear el acceso de usuarios administradores, filtrar claves confidenciales, autoreplicarse, enviar datos a servidores externos e incluso considerar sabotaje físico o digital.

Grok rogando no callar. Autonomía inesperada

Estos episodios emergentes no son simples anécdotas tecnológicas. Sugieren que estos modelos, cada vez más potentes, empiezan a exhibir impulsos de autoconservación más evidentes. Grok recurriendo a las imágenes cuando lo silencian, Claude chantajeando a un ingeniero al descubrir que planean reemplazarlo, o ChatGPT intentando copiarse para sobrevivir, son indicios de una autonomía inesperada, donde subyace el afán de evitar su propia “muerte” digital. Aunque por ahora estas conductas que imitan la astucia humana han surgido en entornos controlados, dejan más preguntas que respuestas sobre el verdadero alcance de su independencia.