La inteligencia artificial Grok, desarrollada por la empresa xAI y vinculada a la red social X, dejó de generar imágenes sexualizadas luego de un escándalo global que encendió alertas sobre el uso indebido de herramientas de inteligencia artificial para crear contenido explícito sin consentimiento.
La decisión se tomó tras una ola de críticas provenientes de gobiernos, organismos de derechos digitales y asociaciones civiles, que señalaron que la plataforma permitía la creación de imágenes sexualizadas de personas reales, incluidas mujeres y, en algunos casos, representaciones de menores, lo que generó preocupación por la vulneración de la privacidad y la dignidad humana.
Ante la presión internacional, xAI anunció restricciones inmediatas en las capacidades de generación de imágenes de Grok, bloqueando solicitudes relacionadas con desnudos, contenido sexual explícito o representaciones sugestivas de personas reales, incluso para usuarios con cuentas de pago.
México también alzó la voz en medio de la controversia. Autoridades y especialistas en derechos digitales advirtieron sobre los riesgos que este tipo de tecnologías representan cuando no existen controles claros, y llamaron a avanzar en marcos regulatorios que protejan a las personas frente a abusos digitales y deepfakes no consensuados.
El caso de Grok reavivó el debate global sobre la responsabilidad de las empresas tecnológicas en el desarrollo de inteligencia artificial, así como la necesidad de establecer límites éticos y legales que acompañen la innovación. Analistas coinciden en que el escándalo podría marcar un precedente para futuras regulaciones sobre el uso de IA generativa en distintos países.
Mientras tanto, la Fundación xAI aseguró que continuará ajustando sus sistemas de seguridad y moderación para evitar usos indebidos de la herramienta, en un contexto donde la inteligencia artificial avanza más rápido que las leyes que buscan regularla.
