la ue consulta sobre sistemas de ia de alto riesgo

La UE consulta sobre sistemas de IA de alto riesgo

La Comisión Europea ha lanzado una consulta pública sobre los sistemas de IA de alto riesgo, en el marco del nuevo reglamento europeo de inteligencia artificial, el AI Act. El objetivo es recabar opiniones prácticas que ayuden a definir qué se considera “alto riesgo” y cómo deben aplicarse las obligaciones legales. Si trabajas con inteligencia artificial o te interesa su regulación, sigue leyendo.

¿Qué son los sistemas de IA de alto riesgo según la UE?

Los sistemas de IA de alto riesgo son aquellos que, por su función o contexto de uso, pueden afectar significativamente a los derechos fundamentales, la seguridad o la vida de las personas. Según el AI Act, se consideran de alto riesgo, por ejemplo:

  • Los utilizados en selección de personal o evaluación de estudiantes.
  • Los que influyen en decisiones judiciales o policiales.
  • Los que gestionan infraestructuras críticas, como redes eléctricas o transporte.

El reglamento europeo exige a estos sistemas evaluaciones previas, transparencia, supervisión humana y controles continuos durante su ciclo de vida.

Cuándo estará disponible la consulta pública sobre sistemas de IA de alto riesgo

La consulta fue abierta el 6 de junio de 2025 y estará disponible hasta el 18 de julio de 2025. La Comisión Europea busca recopilar ejemplos concretos, dudas y sugerencias para poder publicar en 2026 una guía oficial de interpretación del artículo 6 y del capítulo III del AI Act.

Los temas clave incluyen:

  • Cómo identificar un sistema de IA de alto riesgo.
  • Qué tipo de pruebas deben realizarse antes de su puesta en marcha.
  • Qué responsabilidades asumen proveedores y usuarios.

El cuestionario se organiza en cinco bloques temáticos y puede completarse de forma online.

¿Quién puede participar en la consulta sobre sistemas de IA de alto riesgo?

La participación está abierta a todo tipo de actores implicados en el desarrollo, uso o supervisión de inteligencia artificial, entre ellos:

  • Empresas tecnológicas que desarrollen soluciones de IA.
  • Administraciones públicas que utilicen algoritmos en procesos decisivos.
  • Docentes e investigadores en ética, tecnología y derecho.
  • ONGs y colectivos que trabajen en derechos digitales.
  • Ciudadanía general, con experiencias o preocupaciones sobre la IA.

¿Quieres participar? Puedes acceder directamente al cuestionario desde la web oficial de la Comisión Europea. Accede aquí al formulario de consulta pública

Que será lo siguiente tras la consulta de la UE

Una vez finalizada la consulta, la Comisión Europea elaborará una guía interpretativa centrada en:

  • Clarificar cuándo un sistema entra dentro de la categoría de alto riesgo.
  • Detallar las obligaciones legales para cada actor implicado.
  • Asegurar una aplicación armonizada del AI Act en los 27 Estados miembros.

La publicación de estas guías está prevista para febrero de 2026, por lo que las aportaciones actuales serán clave para definir el marco europeo de la IA en los próximos años.

Deja un comentario