Meta IA UE es una combinación de palabras que este verano ha ganado protagonismo, tras la decisión de la compañía de Mark Zuckerberg de rechazar el nuevo Código de Prácticas de IA promovido por la Unión Europea. Este movimiento ha provocado un nuevo enfrentamiento entre los gigantes tecnológicos de Estados Unidos y la UE. ¿Qué implica esta negativa y cómo puede afectar al futuro de la inteligencia artificial en Europa? Te lo contamos a continuación.
¿Qué es el Código de Prácticas de IA de la UE?
El Código de Prácticas para la Inteligencia Artificial es una guía voluntaria que forma parte del marco regulador europeo de IA. Aunque no es jurídicamente vinculante, anticipa algunas de las exigencias del futuro AI Act, que entrará en vigor en agosto de 2025.
Entre sus recomendaciones se incluyen:
- Mayor transparencia en los modelos de IA.
- Prácticas responsables en el entrenamiento de algoritmos.
- Protección de los derechos de autor y datos personales.
- Evaluaciones de riesgo y documentación técnica.
Firmar este código supone para las tecnológicas un compromiso con el desarrollo responsable, y puede facilitar su relación con las instituciones públicas europeas.
Las razones de Meta para no adherirse
Meta ha decidido no firmar este código voluntario.
Según Joel Kaplan, su director global de políticas públicas, el documento “crea incertidumbres legales” y va más allá de los requisitos reales del AI Act. En su opinión, la UE está intentando imponer reglas que podrían frenar la innovación en el sector.
Kaplan ha declarado al Wall Street Journal que prefieren ceñirse a la regulación oficial, en lugar de aceptar un marco ético “autoimpuesto” que comprometa su estrategia, especialmente en lo relacionado con sus modelos de código abierto como LLaMA.
¿Cómo han reaccionado otras empresas tecnológicas?
Otras grandes empresas han reaccionado de forma distinta. Microsoft, por ejemplo, ha mostrado interés en adherirse al código, reforzando su imagen como actor responsable. OpenAI también ha manifestado su intención de participar, tras recibir el visto bueno de los reguladores.
Esta diferencia de posicionamiento puede tener consecuencias en términos de acceso a proyectos públicos, licencias y percepción institucional. En un entorno cada vez más regulado, las empresas que colaboren activamente podrían obtener ventajas frente a las más reticentes.
El riesgo estratégico de Meta en Europa
La apuesta de Meta por la IA de código abierto en principio buscaría liberar el acceso y acelerar la innovación. Pero al rechazar el marco ético europeo, se arriesga a:
- Perder la confianza de los reguladores y limitar su influencia.
- Quedar fuera de futuras iniciativas públicas dentro del mercado europeo.
- Fortalecer a sus rivales, que sí adopten un enfoque más alineado con los valores comunitarios.
Este movimiento refleja un choque entre la visión estadounidense del mercado y la visión reguladora europea, cada vez más firme en proteger a los usuarios y garantizar el control de las tecnologías emergentes.
¿Cómo terminará este choque de titanes?
El enfrentamiento entre Meta y la regulación de IA de la UE es solo el comienzo de una serie de tensiones que definirán el desarrollo de la inteligencia artificial en los próximos años. La negativa de Zuckerberg a firmar el código europeo muestra que las grandes tecnológicas no están dispuestas a ceder su estrategia sin garantías legales claras.
¿Debe la innovación prevalecer sobre la regulación? ¿O es la supervisión un requisito para proteger los intereses públicos? La respuesta aún no está clara, pero lo que sí es seguro es que Europa y Silicon Valley siguen caminos diferentes.