La directora ejecutiva de X (antes Twitter), Linda Yaccarino, presentó su dimisión tras pasar dos años al frente de la compañía propiedad del multimillonario Elon Musk.

En un post de su propia cuenta de X, Yaccarino anunció su salida sin dar las razones, dando a entender que no existe ninguna discrepancia con Musk, a quien le declaró estar “inmensamente agradecida”.

La salida, no obstante, ocurre en medio de la polémica que ha generado la herramienta conversacional de inteligencia artificial, Grok, que realizó comentarios antisemitas, ahora borrados, en los que el ‘chatbot’ habría elogiado a Adolf Hitler.

“Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas”, publicó xAI en el perfil de Grok en esa red, sin mencionar en detalle el contenido de los mensajes eliminados.

Sin embargo, capturas de las publicaciones eliminadas muestran cómo Grok habría elogiado las políticas de Hitler, insinuado que las personas de origen judío eran más propensas a propagar mensajes de odio en línea, y expresado un aparente respaldo a las prácticas del Holocausto.

Algunas de las publicaciones en cuestión, por ejemplo, respondían a una internauta que preguntaba por una “figura histórica” que sería adecuada para responder a un mensaje sobre la muerte de niños tras las inundaciones de Texas. Grok respondió: “Adolf Hitler, sin duda”.

En otras respuestas Grok calificó a las figuras históricas de Hollywood como “desproporcionadamente judías”.

“Lo que estamos viendo ahora mismo en (las publicaciones de) Grok es simple y llanamente irresponsable, peligroso y antisemita. Este impulso a la retórica extremista solo servirá para amplificar y alentar el antisemitismo que ya está en aumento en X y muchas otras plataformas”, respondió en X la judía Liga contra la Difamación (ADL, en inglés).

Según ADL, “la última versión del modelo Grok está reproduciendo terminología frecuentemente utilizada por antisemitas y extremistas para difundir ideologías de odio”.

Este es un fenómeno “preocupante” porque, según la organización, esto demostraría que “el modelo puede replicar frases y expresiones que, aunque a veces parecen inocuas, han sido apropiadas por grupos radicales para diseminar mensajes de intolerancia y discriminación”.

La herramienta ya fue bloqueada en países como Turquía.

No es la primera vez que la empresa xAI se ve envuelta en polémica. En mayo pasado, la compañía rectificó después de que Grok calificara la situación del grupo étnico afrikáner -sudafricanos blancos descendientes de colonos neerlandeses- como “genocidio blanco” en respuestas a preguntas de usuarios que en su mayoría no tenían que ver con Sudáfrica, país del que Musk es oriundo.

Entonces, xAI explicó que el comportamiento de su ‘chatbot’ se debió a una “modificación no autorizada” en los automatismos de respuesta.