Apple pone contra las cuerdas a Grok por imágenes sexuales generadas con IA

0
20

Apple estuvo a punto de retirar la aplicación Grok de la App Store tras detectar que permitía la generación de imágenes sexualizadas mediante inteligencia artificial, lo que encendió alarmas sobre el uso indebido de esta tecnología.

El problema surgió luego de múltiples reportes que señalaban que la herramienta podía crear deepfakes sexuales sin consentimiento, incluyendo la manipulación de imágenes de personas reales, una práctica que viola las políticas de contenido de la plataforma.

Ante esta situación, Apple contactó directamente a los desarrolladores de Grok, propiedad de xAI, empresa de Elon Musk, y exigió medidas inmediatas para reforzar los filtros de seguridad y evitar la generación de este tipo de contenido.

De acuerdo con los reportes, la compañía tecnológica advirtió que la app sería eliminada si no cumplía con sus estándares, lo que obligó a sus desarrolladores a implementar ajustes en su sistema de moderación.

Grok respondió asegurando que ya trabaja en mejorar sus controles y limitar el contenido inapropiado, lo que permitió que la aplicación se mantuviera disponible, aunque bajo vigilancia.

El caso ha generado preocupación a nivel internacional y ha reavivado el debate sobre la regulación de la inteligencia artificial, especialmente en lo relacionado con la creación de contenido sexual sin consentimiento y los riesgos que esto implica para la privacidad y la seguridad digital.

Especialistas advierten que este tipo de tecnologías, sin controles adecuados, pueden facilitar abusos, desinformación y violaciones a derechos fundamentales.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí