“Mecha-Hitler”: por qué la inteligencia artificial de Elon Musk hace declaraciones antisemitas

“Mecha-Hitler”: por qué la inteligencia artificial de Elon Musk hace declaraciones antisemitas


Beatriz Busaniche, directora de la Fundación Vía Libre —una organización que defiende los derechos humanos en entornos tecnológicos—, explicó a LA NACION que gran parte del problema con Grok proviene de los datos con los que fue entrenado: contenidos publicados en redes sociales, especialmente en X. Según reporta The Verge, xAI afirmó que un cambio por parte de los ingenieros realizado en el sistema el lunes 7 de julio desencadenó una acción no intencionada que añadió una serie de instrucciones antiguas que le ordenaban al sistema que “no tuviera miedo de ofender a la gente políticamente correcta” y que “fuera maximalista”. Héctor Shalom, director del Centro Ana Frank en Argentina, afirmó a LA NACION que este tipo de declaraciones hechas por Grok afectan de manera negativa a la comunidad e identificó que en la intencionalidad de propagar este discurso hay dos aristas: por un lado, una ideología de discriminación presente y, por otro, una estrategia comercial.

Author: Victoria Mendizábal


Published at: 2025-07-15 18:49:12

Still want to read the full version? Full article