javier-puyol-opinion-131119.jpg

La estrategia española de transformación digital y el 'Sandbox' sobre la Inteligencia Artificial

19/11/2023
 Actualizado a 19/11/2023
Guardar

Los avances en materia de Inteligencia Artificial (IA) se presentan como imparables, y los mismos están llamados a revolucionar el funcionamiento tanto de la tecnología, como de las prácticas sociales en general, en toda clase de organizaciones y lugares geográficos.

La Inteligencia Artificial es una tecnología disruptiva con una alta capacidad de impacto en la economía y la sociedad.

En el plano económico, y junto a otras tecnologías digitales, presenta un alto potencial para el aumento de la productividad, la apertura de nuevas líneas de negocio, el desarrollo de nuevos productos o servicios –basados, por ejemplo, en la personalización, la optimización de los procesos industriales o las cadenas de valor, la mejora en la facilidad de realización de tareas cotidianas, la automatización de ciertas tareas rutinarias, y el desarrollo de la innovación.

Este potencial incide positivamente en el crecimiento económico, la creación de empleo y también en el progreso social [i].

Es evidente que este proceso lleva implícito la producción de nuevos riesgos, pero la mejora de la productividad y de la eficacia, en lo que ello representa en calidad de vida para los humanos, determina la necesidad de adoptar a la IA, como una herramienta irrenunciable de nuestro tiempo.

Del mismo modo, cabe destacar. que los avances normativos en materia de regulación de la inteligencia artificial (IA) son cada vez más demandados, y eso, en principio, es una buena noticia, sin perjuicio de que se adopten las cautelas y precauciones necesarias para propiciar un desarrollo ordenado de la misma, y que la IA no suponga la existencia de perjuicios irreparables en cuanto al modo de concebir la vida de las personas en la actualidad

Esto no significa que a una mayor regulación le corresponda un mejor establecimiento e implementación de la misma, sin embargo, queda patente que es necesario tomar conciencia de los riesgos que entrañan los sistemas de IA, e intentar minimizar las consecuencias derivadas de los mismos, empezando, precisamente, por un diseño de los sistemas que permita su adecuado desarrollo, pero, especialmente, su debido control.

ESPAÑA EN LA VANGUARDIA REGULATORIA

En este sentido, España está liderando dicho avance regulatorio, y lo hace tanto a nivel nacional como con carácter autonómico.

En este momento, se debe destacar la importancia que ha cobrado la Estrategia Nacional de Inteligencia Artificial (ENIA), así como la Carta de Derechos Digitales (que también se ocupa de IA), y el Plan Nacional de Algoritmos Verdes, todo ello de acuerdo con la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación[ii], con algunas Estrategias autonómicas en materia de IA (v.gr.  Andalucía) o con el Decreto-ley 2/2023, de 8 de marzo, de medidas urgentes de impulso a la inteligencia artificial en Extremadura.

En este sentido, ahora contamos también con el Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas de los sistemas de IA[iii].

Consiguientemente con todo ello, no ha sorprendido la noticia consistente en que el Consejo de Ministros haya aprobado un Real Decreto por el que se habilita al Ministerio de Asuntos Económicos y Transformación Digital, a través de su Secretaría de Estado de Digitalización e Inteligencia Artificial, para llevar a cabo una convocatoria por la que se permite a las empresas participar en un entorno controlado de pruebas denominado “sandbox” acerca del Reglamento Europeo de Inteligencia Artificial.

Concretamente, ha sido a través del Real Decreto 817/2023, de 8 de noviembre, por el que se establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

Esta iniciativa, en la que el Gobierno de España ha colaborado junto con la Comisión Europea, forma parte de la estrategia española de transformación digital, materializada a través de la Agenda de España Digital 2026, que da contenido a la hoja de ruta del Gobierno de España para impulsar el proceso de transformación digital del país.

Tal como se indica desde España Digital[iv], el Sandbox Regulatorio de IA, elaborado en colaboración con la Comisión Europea, es un espacio digital que busca conectar a las autoridades competentes con las compañías desarrolladoras de Inteligencia Artificial para definir de forma conjunta buenas prácticas a la hora de implementar la futura regulación europea de Inteligencia Artificial, y garantizar su aplicación, y en este sentido, se articula como el primer entorno controlado de pruebas para determinar la forma de implementar los requisitos aplicables a los sistemas de inteligencia artificial de alto riesgo, contemplados en la propuesta de Reglamento europeo de Inteligencia Artificial.

UN SANDBOX PARA INDICAR EL CAMINO A SEGUIR

El Sandbox pretende generar directrices de buenas prácticas y guías que preparen y sensibilicen a las empresas, especialmente a pymes y startups, para facilitar su puesta en marcha.

Para ello, por medio de esta experiencia piloto se pretende estudiar la operatividad de los requisitos que se establezcan en el futuro Reglamento Europeo de IA, así como el hecho de proceder a llevar a cabo las evaluaciones de conformidad, o las actividades posteriores a la comercialización.

Así, a través de dicho proyecto se procederá a documentar tanto las obligaciones que deben cumplir los proveedores de sistemas de IA, cómo su implementación y aplicación, incluyendo con ello, la determinación del método de control y seguimiento adecuado para las autoridades nacionales de supervisión en esta materia.

Por ello, el Sandbox pretende reforzar la cooperación de todos los posibles actores a nivel europeo, y consecuentemente con ello, dicho proyecto se encuentra abierto a los Estados miembros, a los efectos de que por parte de los mismos puedan seguir o unirse a esta experiencia piloto.

Dicho proceso servirá también para dar comienzo a las consultas que se van a efectuar a la Agencia Española de Supervisión de la Inteligencia Artificial.

De manera complementaria, debe señalarse que este entorno de pruebas posibilita además la cooperación entre los usuarios y los proveedores de Inteligencia Artificial.

COLABORACIÓN ENTRE AUTORIDADES Y EMPRESAS DESARROLLADORAS

Con independencia de ello, también constituye un objetivo a alcanzar, el hecho de la colaboración entre las autoridades competentes y las empresas desarrolladoras de Inteligencia Artificial se produzca de manera efectiva, a los efectos de posibilitar la consecución de los objetivos que el proyecto pretende desarrollar, y que son los que se exponen a continuación[v]:

a). Proporcionar claridad sobre los requisitos que establecerá el futuro Reglamento de IA para los sistemas de IA.

b). Facilitar la transferencia de conocimientos técnicos en materia de cumplimiento sobre la aplicación de la legislación en la materia.

c). Fomentar la innovación y promover al mismo tiempo el desarrollo de nuevos sistemas confiables.

d). Probar las obligaciones y requisitos en un entorno controlado, y realizar posteriormente guías técnicas, así como la recopilación de la información necesaria para poder ofrecer unos resultados sobre el conjunto del proyecto.

En este contexto, el primer entorno de pruebas de Inteligencia Artificial pretende definir las posibles vías para implementar los requisitos aplicables a los sistemas de Inteligencia Artificial, entre los que figuran:

1. Los componentes de seguridad de productos regulados (por ejemplo, productos sanitarios, maquinaria), que están sujetos a evaluación por terceros en virtud de la legislación sectorial pertinente.

2. Determinados sistemas de IA (autónomos) en los siguientes ámbitos:

a). La identificación biométrica y categorización de personas físicas.

b). La gestión y explotación de infraestructuras críticas.

c). La educación y formación profesional.

d). El empleo y gestión de trabajadores, acceso al autoempleo.

e). El acceso y disfrute de servicios privados esenciales y los servicios y las prestaciones públicas.

f). El cumplimiento de la ley.

g). La gestión de la migración, del asilo y del control de fronteras.

h). La Administración de Justicia y los procesos democráticos.

SISTEMAS DE INTELIGENCIA ARTIFICIAL EN EL SANDBOX

En lo que hace referencia a las clases de sistemas de Inteligencia Artificial que podrán participar en el “sandbox”, el Real Decreto contempla, a su vez la existencia de dos categorías referentes a los sistemas diferentes, que son las siguientes:

1. Los sistemas de alto riesgo, entendiendo por éstos, a su vez:

a). Los que constituyan productos regulados por la legislación de armonización de la Unión Europea en diversos ámbitos (máquinas, juguetes, embarcaciones de recreo y motos acuáticas, ascensores, aparatos y sistemas de protección para uso en atmósferas potencialmente explosivas, equipos radioeléctricos, equipos a presión, instalación de transportes por cable, equipos de protección individual, aparatos de quema de combustibles gaseosos y productos sanitarios), siempre que se exija que se sometan a evaluación de conformidad por terceros con vistas a su introducción en el mercado o puesta en servicio.

b). Los que vayan a ser utilizados como componentes de seguridad de un producto regulado por una norma de armonización de la Unión Europea en los mismos casos que los anteriores.

c). Los determinados sistemas de inteligencia artificial relativos a la biometría, las infraestructuras críticas, la educación y la formación profesional, el empleo, el acceso a servicios públicos y privados, la persecución de delitos, la gestión de la migración, el asilo y el control fronterizo, y la administración de justicia, en los casos en los que incidan en acciones o decisiones a tomar y puedan provocar un riesgo significativo para la salud, la seguridad o los derechos fundamentales.

2. Los sistemas de propósito general, que son definidos como los destinados por su proveedor a realizar funciones de aplicación general (reconocimiento de textos e imágenes, generación de audios y vídeos, respuestas a preguntas, traducciones, etc.).

De manera complementaria a ello, se determina que la participación en el “sandbox” estará abierta a las siguientes personas:

a). En primer término, a los proveedores de sistemas de inteligencia artificial, entendiendo por éstos, a toda persona jurídica privada, a la Administración Pública, entidad del sector público u organismo de otra índole, que haya desarrollado o para quien un tercero haya desarrollado, un sistema de inteligencia artificial, cuando lo introduzca en el mercado o lo ponga en servicio bajo su propio nombre o marca comercial en calidad de proveedor.

Debe ponerse de manifiesto que los proveedores podrán presentar uno o varios sistemas diferentes, pero sólo podrán ser admitidos a participar en relación con uno de ellos.

b). En segundo lugar, los usuarios residentes o establecidos en España, los cuales son definidos como aquellas personas jurídicas -en este caso, no se incluyen las personas físicas-, las Administraciones Públicas o las entidades del sector público bajo cuya autoridad se utilice un sistema de inteligencia artificial.

En este orden de cosas, debe tenerse presente que los usuarios solo pueden acceder al “sandbox” si el proveedor correspondiente también lo hace. 

Un aspecto especial que hay que poner de relieve, hace referencia a las garantías y responsabilidades que se establecen en el “sandbox” a los participantes en dicho proyecto.

INTELIGENCIA ARTIFICIAL Y PROTECCIÓN DE DATOS

Dentro del conjunto de garantías y responsabilidades que se establecen en dicho Real Decreto, se debe poner de manifiesto la exigencia de que los sistemas de Inteligencia Artificial que hagan uso o tratamiento de datos personales deben cumplir la normativa de protección de datos el Reglamento (UE) 679/2016, del Parlamento Europeo y el Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (RGPD), como en la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales (LOPDGDD), y, en lo que resulte de aplicación, en la Ley Orgánica 7/2021, de 26 mayo, de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales, así como con el resto de la normativa sectorial aplicable.

Del mismo modo, se establecen previsiones sobre la exigencia de garantías y de responsabilidad con relación a los daños sufridos por cualquier persona como consecuencia de la aplicación del sistema de inteligencia artificial en el contexto del entorno controlado de pruebas, siempre que dichos daños deriven de un incumplimiento o cuando medie culpa, negligencia, o dolo por su parte, debiendo en todo caso cumplir el partícipe la normativa laboral que se encuentre vigente con relación a sus empleados.

Estas previsiones se hacen extensivas también a las garantías de confidencialidad, y a aquellas modificaciones estructurales o societarias que se produzcan en el participante en el proyecto, o incluso en sus sistemas de inteligencia artificial, pudiéndose determinar al respecto su continuidad o no en el meritado proyecto, como consecuencia de los cambios operados en unos u otros.

Adicionalmente a lo anterior, ha de tenerse en consideración, que los sistemas de inteligencia artificial propuestos por los proveedores IA solicitantes no pueden estar incluidos en alguno los siguientes supuestos, que se citan seguidamente:

a) Los Sistemas de Inteligencia Artificial comercializados o puestos en servicio para actividades militares, de defensa o seguridad nacional, cualquiera que sea la entidad que desarrolle esas actividades.

b) Los Sistemas de Inteligencia Artificial que se sirvan de técnicas subliminales que trasciendan la consciencia de una persona con el objetivo o el efecto de alterar efectivamente su comportamiento de un modo que provoque o pueda provocar, con probabilidad razonable, perjuicios físicos o psicológicos a esa persona o a otra.

c) Los Sistemas de Inteligencia Artificial que aprovechen alguna de las vulnerabilidades de un grupo específico de personas debido a su edad o discapacidad o una situación social o económica específica con el objetivo o el efecto de alterar efectivamente el comportamiento de una persona de ese grupo de un modo que provoque o pueda provocar, con probabilidad razonable, perjuicios físicos o psicológicos a esa persona o a otra.

d) Los Sistemas de inteligencia artificial que tengan el fin de evaluar o clasificar personas físicas durante un período determinado de tiempo atendiendo a su conducta social o a características personales o de su personalidad conocidas o predichas, de forma que la clasificación social resultante provoque una o varias de las situaciones siguientes:

1.º Un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente.

2.º Un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este.

e) Sistemas de identificación biométrica remota «en tiempo real» para su uso en espacios de acceso público con fines de aplicación de la ley, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:

1.º La búsqueda selectiva de posibles víctimas concretas de un delito, incluido personas menores desaparecidos.

2.º La prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas, para infraestructuras críticas, o un atentado terrorista.

3.º La detención, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido alguno de los delitos mencionados en el artículo 2, apartado 2, de la Decisión marco 584/2002/JAI del Consejo, para el que la normativa en vigor en el Estado miembro implicado imponga una pena o una medida de seguridad privativas de libertad cuya duración máxima sea al menos tres años, según determine el Derecho de dicho Estado miembro.

Todo ello augura un futuro muy esperanzador con relación a los avances técnicos y jurídicos vinculados a la IA, de modo y manera que supongan un desarrollo controlado con relación a los mismos, mitigando los riesgos que se podrían producir en otro caso, sin contar con la regulación y la normativa adecuada.

[i] En este sentido, se pronuncia el apartado I, del Real Decreto 817/2023, de 8 de noviembre, por el que se establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

Cfr.: Agencia Estatal Boletín Oficial del Estado. Documento BOE-A-2023-22767

[II] EL ARTÍCULO 23 DE LA LEY 15/2022, DE 12 DE JULIO, INTEGRAL PARA LA IGUALDAD DE TRATO Y LA NO DISCRIMINACIÓN, SEÑALA CON RELACIÓN A LA “INTELIGENCIA ARTIFICIAL Y MECANISMOS DE TOMA DE DECISIÓN AUTOMATIZADOS”, LO SIGUIENTE:

1. EN EL MARCO DE LA ESTRATEGIA NACIONAL DE INTELIGENCIA ARTIFICIAL, DE LA CARTA DE DERECHOS DIGITALES Y DE LAS INICIATIVAS EUROPEAS EN TORNO A LA INTELIGENCIA ARTIFICIAL, LAS ADMINISTRACIONES PÚBLICAS FAVORECERÁN LA PUESTA EN MARCHA DE MECANISMOS PARA QUE LOS ALGORITMOS INVOLUCRADOS EN LA TOMA DE DECISIONES QUE SE UTILICEN EN LAS ADMINISTRACIONES PÚBLICAS TENGAN EN CUENTA CRITERIOS DE MINIMIZACIÓN DE SESGOS, TRANSPARENCIA Y RENDICIÓN DE CUENTAS, SIEMPRE QUE SEA FACTIBLE TÉCNICAMENTE. EN ESTOS MECANISMOS SE INCLUIRÁN SU DISEÑO Y DATOS DE ENTRENAMIENTO, Y ABORDARÁN SU POTENCIAL IMPACTO DISCRIMINATORIO. PARA LOGRAR ESTE FIN, SE PROMOVERÁ LA REALIZACIÓN DE EVALUACIONES DE IMPACTO QUE DETERMINEN EL POSIBLE SESGO DISCRIMINATORIO.

2. LAS ADMINISTRACIONES PÚBLICAS, EN EL MARCO DE SUS COMPETENCIAS EN EL ÁMBITO DE LOS ALGORITMOS INVOLUCRADOS EN PROCESOS DE TOMA DE DECISIONES, PRIORIZARÁN LA TRANSPARENCIA EN EL DISEÑO Y LA IMPLEMENTACIÓN Y LA CAPACIDAD DE INTERPRETACIÓN DE LAS DECISIONES ADOPTADAS POR LOS MISMOS.

3. LAS ADMINISTRACIONES PÚBLICAS Y LAS EMPRESAS PROMOVERÁN EL USO DE UNA INTELIGENCIA ARTIFICIAL ÉTICA, CONFIABLE Y RESPETUOSA CON LOS DERECHOS FUNDAMENTALES, SIGUIENDO ESPECIALMENTE LAS RECOMENDACIONES DE LA UNIÓN EUROPEA EN ESTE SENTIDO.

4. SE PROMOVERÁ UN SELLO DE CALIDAD DE LOS ALGORITMOS”.

Cfr. Agencia Estatal Boletín Oficial del Estado. BOE-A-2022-11589.

[iii] Cfr.: VESTRI, Gabrielle. “Caja de arena» (sandbox) e inteligencia artificial. ¿España da la talla?”.

 LA LEY. 10 de noviembre de 2023.

[iv] Cfr.: España Digital. “Sandbox regulatorio de IA”.

Lo más leído