Reino Unido publica una guía de ciberseguridad sobre inteligencia artificial

La administración británica quiere que su código de buenas prácticas se transforme en un estándar global.

Alberto Payo

Periodista

Guardar

Reino Unido busca posicionarse como líder en el sector de la inteligencia artificial.
Reino Unido busca posicionarse como líder en el sector de la inteligencia artificial.

El gobierno de Reino Unido ha publicado un código de buenas prácticas voluntario y con vocación global con el cometido de ayudar a abordar los riesgos de ciberseguridad de la inteligencia artificial. 

La guía es, por el momento provisional, ya que la idea es que en septiembre se actualice en consonancia con el Instituto Europeo de Normas de Telecomunicaciones (ETSI) para contar con una "amplia retroalimentación global" y que la norma también lo sea. Su idea es que la seguridad se promueva desde el diseño de los sistemas de IA. 

Una de las razones que aporta la administración británica para elaborar una guía de este tipo es que "muchas organizaciones que están implementando o considerando adoptar la IA no cuentan con una comprensión clara de las expectativas de seguridad que deben tener de los desarrolladores".

Así, un código y una norma técnica permiten a las empresas de ciberseguridad y a las compañías de certificación ayudar a las organizaciones a probar y garantizar sus productos y servicios. Así, los usuarios podrán verificar más fácilmente que los productos que utilizan están diseñados y desarrollados de manera segura, dándoles mayor confianza. 

"Millones de empresas y consumidores están utilizando modelos y sistemas de IA , y es importante que ello, y la economía global, puedan beneficiarse de las oportunidades que brinda la IA . Por lo tanto, es esencial que a medida que se implementen nuevas actualizaciones y lleguen al mercado nuevos productos, la seguridad sea una consideración fundamental durante todo el ciclo de vida de la IA", ha comentado Jonathan Camrose, Ministro de IA y Propiedad Intelectual. 

El responsable de esta cartera también revela que "el código tiene como objetivo ayudar a informar las políticas y prácticas que las organizaciones tienen actualmente en vigor". 

A quién va dirigida

El código busca ser de utilidad a desarrolladores, operadores del sistema, responsables del tratamiento y usuarios finales. 

Además, alberga varios principios, como el diseño seguro, la realización de modelos de las amenazas, el desarrollo seguro (la identificación, rastreo y protección de activos), asegurar la infraestructura, asegurar la cadena de suministro, la documentación de datos, modelos e indicaciones, la realización de pruebas y evaluaciones apropiadas, la comunicación y procesos asociados con los usuarios finales, el mantenimiento seguro y la supervisión del comportamiento del sistema.

La guía aconseja medidas como la adquisición de componentes de software seguros, incluyendo modelos, marcos o API externas, únicamente de desarrolladores verificados y garantizar la integridad de los datos de capacitación obtenidos de fuentes disponibles públicamente. 

Esta guía de buenas prácticas se ha publicado pocos días después de que el Instituto de Seguridad de IA de Reino Unido haya lanzado una plataforma de evaluación de modelos de IA llamada Inspect, que da la oportunidad a las startups, el mundo académico y los desarrolladores de evaluar capacidades específicas de modelos individuales y ofrecer una puntuación sustentándose en sus resultados.