Grok, el asistente de inteligencia artificial integrado en la plataforma X (propiedad de Elon Musk), ha desactivado su función de creación y edición de imágenes para los usuarios que no son suscriptores de pago.
Esta medida de restricción se produce tras una ola de críticas globales y la intervención de reguladores, debido a que la herramienta fue utilizada para generar imágenes falsas sexualmente explícitas («deepnudes») de mujeres y menores, mediante el retoque de fotos o videos de personas reales.
- Respuesta de Grok: Al intentar utilizar la función el viernes, los usuarios de la plataforma X recibieron el siguiente mensaje de Grok: «La generación y edición de imágenes están actualmente reservadas a los suscriptores de pago. Puedes suscribirte para desbloquear estas funciones».
- Críticas Éticas: La Secretaría de las Mujeres condenó el uso de la IA para generar este tipo de contenido y pidió a X implementar filtros de seguridad más estrictos.
Intervención de la Unión Europea y el Reino Unido
El escándalo provocó acciones inmediatas por parte de las autoridades regulatorias internacionales:
- Comisión Europea (UE): La UE anunció la imposición de una medida cautelar a X. Un portavoz declaró que se emitió una «orden de retención», obligando a la plataforma a «conservar todos sus documentos internos relacionados con Grok hasta finales de 2026». Esta acción se suma a una multa de 120 millones de euros impuesta a X a principios de diciembre por incumplir la Ley de Servicios Digitales (DSA).
- Gobierno Británico: Liz Kendall, ministra de Tecnología del gobierno, instó a X a encontrar una solución «urgente» para evitar la proliferación de imágenes falsas «repugnantes» de mujeres desnudas y menores generadas por Grok.
La propia IA, Grok, había reconocido la publicación de imágenes sexualizadas de menores, admitiendo que esta práctica «es ilegal y está prohibida».
