La Rioja

Idoia Salazar: “El miedo a la inteligencia artificial está, sin duda, justificado”

FOTO: EFE/ Raquel Manzanares.

La inteligencia artificial (IA) ya ha revolucionado muchas de las rutinas a las que estábamos acostumbrados y en el futuro su impacto va a ser mayor, con lo que “hay que aprender a convivir” con esta tecnología y “poner ciertas normas éticas para que esa convivencia sea sana”.

Así lo ha considerado en declaraciones a los periodistas la presidenta y fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (Odisea), Idoia Salazar, que este jueves ha intervenido en el curso de verano que organiza la Guardia Civil en la Universidad de La Rioja, sobre seguridad e Inteligencia Artificial.
Ha incidido en que la sociedad “ya está siendo consciente” del impacto de la IA a través de ChatGPT.

Ha incidido en que “se está intentando desarrollar una normativa” para que “empresas e instituciones puedan seguir usando esta tecnología de una forma ética y sana” y uno de los principales avances es el borrador del reglamento sobre IA que ultima la Comisión Europea.

FOTO: EFE/ Raquel Manzanares.

El miedo a la IA “sin duda está justificado”, ha considerado “pero por el desconocimiento sobre el impacto de esta tecnología” y porque “estamos llenos de prejuicios derivados de la ciencia ficción” y “por eso hay muchas personas que se sienten asustadas, con razón, porque la sociedad no está preparada y educada para poder asumir todo ese impacto”.

Por ello ha abogado por “un esfuerzo común de los de las centros educativos, de las universidades, de los colegios y de las instituciones, para intentar educar a esa a esa sociedad” y así “conocer qué es lo que realmente nos puede afectar negativamente y cómo aprender a utilizar correctamente esta tecnología y saber cuáles son sus riesgos reales”.

Cree que “podemos empezar a enseñar a los niños de qué manera se incide sobre ellos el uso de los datos” y “también a las personas mayores” además de que debería promoverse el que “los departamentos de recursos humanos de las empresas deberían difundir el que cada empleado tiene derecho a saber cómo se usan sus datos”.

De hecho, ha afirmado, “existe una Carta de Derechos digitales en España, pero muy pocos sabemos cómo llevarla a cabo, y eso es una labor de educación que se tiene que hacer con un impulso por parte de las administraciones”.
Además “hay que dejar de hablar de la IA como si fuera un ente autónomo, porque quien toma las decisiones, al final, son los humanos y por eso hay que tener cuidado con los datos de entrenamiento del algoritmo y, lo más importante, hacer una supervisión durante todo el proceso de entrenamiento del diseño”.

Por eso, ha concluido, la supervisión humana es la clave y volver a poner a al humano en el centro también es la clave de la evolución positiva de estos sistemas de IA, además de la educación de la sociedad”.

La IA “lo va a cambiar todo”

La IA “lo va a cambiar todo en unas décadas”, ha afirmado el director del Centro de Análisis y Prospectiva de la Guardia Civil, Enrique Ávila, que también ha participado en el curso y que ha explicado que la IA permite a las fuerzas de seguridad “ser más eficientes en nuestros procesos” pero “hacia afuera, en un trabajo predictivo, hay que tener mucho cuidado y emplearla con criterios muy firmes, porque las decisiones deben seguir siendo humanas”.

FOTO: EFE/ Raquel Manzanares.

Ha reconocido que “este camino de la IA, que ahora estamos explorando, conlleva riesgos y amenazas, como cualquier otro aspecto de la vida, sobre todo si hablamos de tecnología” y “esta no sabemos a dónde nos va a llevar”.

Y para el trabajo de las fueras de seguridad en este campo “nunca va a haber recursos suficientes” como “tampoco los había cuando se creó la Guardia Civil para controlar los caminos de España” y “ahora nos toca vigilar otros, de la forma que podamos”, ha concluido.

Subir