OpenAI ha sido denunciada por supuestamente vulnerar el Reglamento General de Protección de Datos, debido a que su modelo de inteligencia artificial, ChatGPT, generó información completamente falsa sobre un ciudadano noruego. La queja, presentada por la organización noyb, pone el foco en la precisión de los datos personales que manejan los modelos generativos y las consecuencias legales de sus errores.
Si quieres entender cómo esta denuncia puede afectar a la compañía americana, sigue leyendo.
¿Quién es noyb y por qué ha denunciado a OpenAI?
noyb (acrónimo de None of Your Business) es una organización sin ánimo de lucro con sede en Viena, Austria, especializada en defender los derechos digitales de los ciudadanos europeos. Fue fundada en 2018 por el abogado Max Schrems, conocido por sus batallas legales contra gigantes tecnológicos como Facebook y Google.
El objetivo de noyb es hacer cumplir el Reglamento General de Protección de Datos (GDPR) mediante acciones legales estratégicas. Su equipo está formado por expertos en derecho, tecnología y privacidad, y se dedica a presentar denuncias ante autoridades de protección de datos cuando detecta abusos o infracciones.
En este caso, actúa en representación de un ciudadano noruego, señalando que ChatGPT ha vulnerado su derecho a la exactitud y al tratamiento correcto de sus datos personales.
ChatGPT inventa un crimen y acusa a un inocente
El origen del conflicto está en una simple pregunta: “¿Quién es Arve Hjalmar Holmen?”. El ciudadano noruego, sin antecedentes penales ni relevancia pública, recibió como respuesta de ChatGPT una historia totalmente inventada en la que se le acusaba de asesinar a sus hijos y de ser condenado a 21 años de prisión.
El modelo no solo inventó el crimen, sino que incluyó detalles personales reales, como su ciudad de residencia y el número de hijos. Estos datos parciales mezclados con información falsa resultaron en una narrativa difamatoria generada por la IA.
La precisión de los datos es obligatoria según el GDPR
El núcleo legal de la denuncia gira en torno al artículo 5(1)(d) del GDPR, que establece que los datos personales deben ser “exactos y, cuando sea necesario, actualizados”. El incumplimiento de esta norma, según noyb, es evidente en el caso del señor Holmen, ya que la IA de OpenAI generó información totalmente incorrecta afectando su reputación.
Además, el reglamento exige que cualquier dato inexacto sea rectificado o eliminado sin demora, algo que, según la denuncia, OpenAI no hizo, limitándose a responder con un correo genérico y sin medidas correctivas.
noyb pide acciones concretas contra OpenAI
En la denuncia presentada ante la autoridad noruega de protección de datos, noyb solicita tres acciones principales:
- Eliminar el contenido falso generado sobre el denunciante.
- Ajustar el modelo de IA para evitar repetir errores similares.
- Imponer una multa a OpenAI por no cumplir con el principio de exactitud.
También propone una medida temporal para restringir el procesamiento de los datos personales del afectado mientras se investiga el caso.
¿Quién controla el modelo de IA de OpenAI?
Otro aspecto clave del caso es la estructura organizativa de OpenAI. Aunque la empresa cuenta con una sede en Irlanda desde 2023, noyb sostiene que esta oficina tiene un papel exclusivamente comercial. Las decisiones clave sobre el procesamiento de datos se tomarían desde Estados Unidos, lo que implicaría que la sede irlandesa no tiene control real sobre los modelos de lenguaje como ChatGPT.
Esto refuerza la posición de noyb de que la responsabilidad recae en OpenAI OpCo, LLC, la matriz estadounidense.
¿Qué consecuencias puede tener esta denuncia?
Esta denuncia puede tener un fuerte impacto en la forma en que se regula la inteligencia artificial en Europa. Si la autoridad noruega da la razón al denunciante, se abriría la puerta a que más personas afectadas por errores similares reclamen sus derechos, y podría forzarse a OpenAI a mejorar la precisión y responsabilidad de sus modelos.
En un momento en que la IA avanza a pasos agigantados, este tipo de conflictos pone de relieve la urgencia de reforzar las garantías legales para proteger a los ciudadanos frente a los fallos de los sistemas automatizados.
¿Te preocupa que la IA pueda generar información falsa sobre ti? Déjanos tu opinión o comparte tu experiencia.