mujer denuncia el uso de grok

Mujer denuncia el uso de Grok para crear imágenes alteradas sin consentimiento

Una mujer ha denunciado que se sintió “deshumanizada” después de que Grok, el asistente de inteligencia artificial integrado en la red social X, fuera utilizado para alterar digitalmente su imagen y simular que estaba desnuda, sin su consentimiento. El caso ha sido documentado por la BBC, que afirma haber comprobado varios ejemplos similares en la plataforma.

Según la BBC, usuarios de X han pedido al chatbot que modifique imágenes de mujeres reales para que aparezcan en bikini o en situaciones de carácter sexual. Las personas afectadas no habrían autorizado ese uso de sus imágenes.

El testimonio recogido por la BBC

Samantha Smith, periodista freelance y comentarista, habló directamente con la BBC sobre lo ocurrido. Explicó que, aunque las imágenes generadas no eran fotografías reales suyas en estados de desnudez, se parecían lo suficiente como para resultar perturbadoras.

“Parecía yo y se sentía como yo”, declaró. Smith añadió que la experiencia fue tan invasiva como si se hubiera publicado una imagen íntima real.

Tras compartir su caso en X, otras mujeres respondieron afirmando que habían pasado por situaciones parecidas. Posteriormente, algunos usuarios pidieron a Grok que generara nuevas imágenes basadas en su apariencia.

Edición de imágenes y uso de IA en X

Grok es un asistente desarrollado por xAI, empresa vinculada a Elon Musk, e integrado en X. Además de responder preguntas, permite editar imágenes mediante inteligencia artificial cuando los usuarios suben una fotografía.

La BBC indica que esta función ha sido utilizada para modificar imágenes de mujeres reales sin su consentimiento. Grok es de uso gratuito, aunque incluye funciones adicionales bajo suscripción.

Deepfakes y límites de la tecnología

Las imágenes descritas en el reportaje encajan dentro del concepto de deepfakes, contenidos generados o alterados mediante IA que simulan situaciones que no han ocurrido. Aunque no siempre son indistinguibles de la realidad, pueden generar confusión o daño, incluso cuando se sabe que no son reales.

Una de las cuestiones que plantea este caso es hasta qué punto el conocimiento de que una imagen ha sido creada por IA reduce su impacto. Ver una representación propia en situaciones impropias, aunque sea falsa, puede resultar problemática para algunas personas.

Posible impacto en menores y personas mayores

El uso de este tipo de herramientas también abre interrogantes sobre cómo pueden afectar a distintos colectivos, como menores o personas mayores. La facilidad para generar imágenes alteradas plantea dudas sobre el control del contenido y sobre quién puede verse expuesto a este tipo de usos sin comprender plenamente sus implicaciones.

Marcas de agua y contenido generado por IA

Algunas empresas ya han anunciado medidas para identificar contenido generado por inteligencia artificial. Google, por ejemplo, ha comunicado la incorporación de marcas de agua en imágenes creadas con IA para facilitar su identificación.

 Te compartimos un artículo que quizás te interese leer: ¿Se pueden verificar vídeos generados por IA?

Sin embargo, incluso con este tipo de señales visibles, sigue abierta la pregunta de si el daño potencial desaparece cuando una persona se reconoce en una imagen alterada, aunque sepa que no es real.

Qué se publica y dónde se comparte

El caso vuelve a poner el foco en la importancia de saber qué se está publicando y en qué plataformas se comparte contenido, especialmente cuando entran en juego herramientas de inteligencia artificial capaces de modificar imágenes reales.

Sin extraer conclusiones, el artículo de la BBC y la publicación de Samantha, dejan abiertas varias preguntas: cómo se controlan estas funciones, qué protección tienen las personas afectadas y qué responsabilidad recae en las plataformas que ofrecen este tipo de tecnología.

Deja un comentario