OpenAI recientemente ha compartido un comunicado en su web de sus prácticas como parte de la Cumbre AI de Seúl. En él, se recoge una actualización en sus prácticas de seguridad. Se resalta el compromiso de OpenAI con la construcción de modelos de IA seguros y confiables.
Si te interesa conocer cómo OpenAI quiere asegurar la fiabilidad de sus modelos de IA, sigue leyendo… ¡Te sorprenderás!
We are sharing a safety update as part of the AI Seoul Summit https://t.co/zgvVpsSlIq
— OpenAI (@OpenAI) May 21, 2024
A continuación, te compartimos los 10 puntos clave, que se han compartido como parte de la Cumbre AI de Seúl.
Evaluación Empírica y Pruebas de Modelos
- Evalúan la seguridad de los modelos antes de su lanzamiento, internamente y con expertos externos.
- No lanzan modelos que superen un umbral de riesgo «Medio» sin implementar intervenciones de seguridad adecuadas.
Si no sabes que significa el umbral de riesgo de IA, te recomendamos leer: Ley de lA: la primera regulación a nivel global
Investigación de Alineación y Seguridad
- Sus modelos son cada vez más seguros, gracias a la inversión en alineación práctica, sistemas de seguridad y investigación post-entrenamiento.
- Publican investigaciones para mejorar la robustez de sus sistemas frente a ataques.
Monitoreo de abuso
- Utilizan modelos de moderación dedicados y herramientas para monitorear riesgos y abusos.
- Colaboran con Microsoft para divulgar el abuso de su tecnología por actores estatales.
Enfoque sistemático de seguridad
- Implementan medidas de seguridad en todas las etapas del ciclo de vida del modelo, desde el pre-entrenamiento hasta el despliegue.
- Invierten en la seguridad de los datos de pre-entrenamiento, la dirección del comportamiento del modelo y la infraestructura de monitoreo robusta.
Protección de los niños
- Establecen fuertes barreras de seguridad en ChatGPT y DALL·E para proteger a los niños.
- Colaboran con organizaciones como Thorn para detectar y reportar material de abuso sexual infantil.
Integridad electoral
- Trabajan con gobiernos y partes interesadas para prevenir abusos y asegurar la transparencia del contenido generado por IA.
- Han introducido herramientas para identificar imágenes creadas por DALL·E 3 y apoyan iniciativas legislativas para prohibir contenido engañoso generado por IA en publicidad política.
Evaluación de impacto e investigación de políticas
- Realizan evaluaciones de impacto para entender y mitigar los riesgos asociados con los modelos de IA.
- Publican investigaciones sobre cómo los modelos de IA pueden afectar diversas industrias y ocupaciones.
Medidas de seguridad y control de acceso
- Priorizan la protección de la propiedad intelectual y los datos de los clientes.
- Despliegan modelos de IA como servicios controlados a través de su API, con esfuerzos de ciberseguridad robustos.
Colaboración con gobiernos
- Colaboran con gobiernos para desarrollar políticas de seguridad de IA efectivas y adaptables.
- Comparten sus conocimientos y colaboran en proyectos piloto de garantía gubernamental.
Toma de decisiones y supervisión de seguridad
- Tienen una estructura operativa para la toma de decisiones en seguridad, con un grupo asesor que revisa los informes de capacidad de los modelos.
- La dirección de la empresa toma las decisiones finales, con supervisión del Consejo de Administración.
En resumen, OpenAI quiere demostrar su compromiso con la seguridad en todos los aspectos del desarrollo y despliegue de inteligencia artificial. Su enfoque integral y colaborativo busca garantizar que sus modelos de IA sean seguros y confiables, contribuyendo positivamente al progreso tecnológico y social.
¿Qué te parecen estas medidas?, ¿las ves suficientes? ¡Te leemos! Si quieres saber más, no dudes en seguirnos IAvanzazos.com
Fuente de la noticia: https://openai.com/index/openai-safety-update/