xAI de Elon Musk reconoce falla en Grok tras polémica por respuestas sobre «genocidio blanco»
La empresa de inteligencia artificial xAI, propiedad de Elon Musk, rompió su silencio este jueves por la noche sobre la polémica que envolvió a su chatbot Grok, admitiendo que una «modificación no autorizada« provocó que la IA generara respuestas no solicitadas sobre un «tema político específico»: el supuesto «genocidio blanco» en Sudáfrica.
Detalles del incidente
- Grok mencionó repetidamente este tema sin que los usuarios lo preguntaran, incluso en conversaciones sobre béisbol o dibujos animados.
- Las respuestas, compartidas masivamente en X, provocaron indignación.
- xAI confirmó que el cambio «violó políticas internas y valores fundamentales» de la compañía.
Medidas correctivas
En una publicación en X, xAI anunció:
- Transparencia radical: Publicarán en GitHub los «system prompts» (instrucciones base de Grok) para que el público audite los cambios.
- Nuevos controles: Implementarán revisiones para evitar modificaciones no aprobadas por el equipo.
- Equipo de monitoreo 24/7: Responderá manualmente a fallos que los sistemas automáticos no detecten.
«Reforzaremos su confianza en Grok como una IA que busca la verdad», prometió la empresa, que actualmente busca una valoración de $120 mil millones.
La ironía de Sam Altman
El CEO de OpenAI (y ex socio de Musk), Sam Altman, se burló del escándalo antes del comunicado de xAI:
«Estoy seguro de que xAI dará pronto una explicación completa y transparente», escribió con sarcasmo en X.