Universidad de La Rioja

Guardia Civil y UR analizan los riesgos de la Inteligencia Artificial

FOTO: EFE/ Raquel Manzanares.

España se ha marcado el objetivo de cerrar, durante su presidencia de turno de la Unión Europea, el reglamento europeo de uso de la Inteligencia Artificial (IA) para “salvaguardar” los derechos de los ciudadanos frente a este tipo de herramientas digitales.

Así lo ha explicado en declaraciones a los periodistas, el director general de Digitalización e Inteligencia Artificial del Gobierno de España, Salvador Estevan, que este miércoles ha pronunciado en Logroño una conferencia sobre la Agenda Digital para Europa, en el inicio del curso de verano sobre seguridad que organiza la Guardia Civil en la Universidad de La Rioja.

Este curso, al que acuden diferentes mandos del Instituto Armado y expertos en seguridad, se centra en el impacto de la IA en la seguridad interior de los estados.

Una cuestión que está relacionada principalmente, ha admitido, con la legislación que se cree para proteger a los ciudadanos de los efectos negativos que puede tener el uso de la IA y, en todos caso, “el favorecer un equilibrio entre la innovación y los derechos analógicos de las personas”, ha subrayado Estevan.

Ha incidido en el trabajo que se desarrolla en el seno de la UE “para regular los usos de la IA” por medio de un reglamento en el que, durante el primer semestre del año, ha sido Suecia quien ha coordinado el trabajo y, ahora, en el traspaso de la presidencia europea a España también cederá esa misión.

FOTO: EFE/ Raquel Manzanares.

 

“Vamos a intentar cerrarlo este mismo semestre y avanzar así en el desafío de regular cómo se usa la IA, a partir de valores europeos y con un equilibrio entre innovación y nuestros derechos analógicos”, ha explicado Estevan, que ha expresado su deseo de que la convocatoria electoral del 23 de julio no ralentice ese trabajo.

Ha incidido en que este futuro reglamento “va a perseguir los usos de la IA que de alguna manera choquen con los derechos fundamentales de los ciudadanos” y, por ejemplo, se va a prohibir el uso de sistemas tecnológicos para crear un “social scoring”, un sistema de reputación social creado a partir del uso que hace una persona de las nuevas tecnologías y que sí está admitido en China.

La regulación europea “tendrá muy en cuenta cómo se va a aplicar la IA en ámbitos como la empleabilidad” y tratará de “promover una supervisión muy eficiente de este tipo de soluciones” para “emplear lo que nos permita la innovación pero también mantener nuestros derechos como usuarios”.

Estevan ha asumido que el uso de la IA “tiene muchos riesgos” y por eso, además de crear esta regulación “tenemos que poner el foco en explicar claramente en qué consiste la IA para saber sus potencialidades, también sus riesgos y de esta manera poder afrontarlo con las mayores de las garantías”.

Además, ha reconocido que una regulación de este tipo “tiene que ser muy dinámica” y “de hecho, el texto que tenemos ahora no es el mismo que había hace un año” porque “trabajamos en un reglamento que se mantenga vivo”.

En la primera jornada de este curso también ha intervenido el doctor en Derecho por la Universidad de La Rioja, Roberto Yanguas, que dirigió equipos legales de la empresa Meta, una de las pioneras de la IA, en Dublín y Singapur.

Ha reconocido que en su trabajo -que ahora desarrolla para otra compañía- comprobó como en el desarrollo de la IA “existen unas normas internas de las empresas y un ordenamiento jurídico de los países que a veces no están alineados”.

“Cuando hablas de compañías como Meta y otras grandes tecnológicas hay que comprender que operan a escala, con millones de piezas de contenido y, por una parte, tienen que adaptarse a las legislaciones locales, pero hay casos en los que las normas no son claras y se producen zonas grises”.

Roberto Yanguas. | FOTO: EFE/ Raquel Manzanares.

Para afrontar esas “zonas grises” las compañías tecnológicas tienen equipos legales “que trabajan desde mucho antes de que exista una norma y se preparan para poder adaptarse a ellas” sin que “eso suponga que se las van a saltar”.

“La regulación normalmente va más lenta que la realidad, sobre todo en temas tecnológicos como la IA y para cuando el legislador llega a una conclusión ya nos hemos movido a lo siguiente y lo que estamos tratando de regular ha evolucionado, con lo que las normas ya no son correctas”, ha concluido.

Subir