Entrevista

El armamento autónomo, uno de los problemas “más dramáticos” de la inteligencia artificial

FOTO:EFE/ Raquel Manzanares

Pilar Mazo.- Uno de los problemas “más dramáticos” en el uso de la inteligencia artificial (IA) y de la robótica asociada a la misma está en su uso militar, ya que, desde hace muchos años, existe un desarrollo tecnológico en este campo que ha permitido crear armas letales autónomas que pueden decidir, por sí mismas, “cómo, cuándo y dónde matar” a un enemigo.

Así lo ha detallado a EFE el profesor de Filosofía del Derecho de la Universidad de Turín (Italia), Ugo Pagallo, dentro de un encuentro internacional sobre ética y tecnología, que ha reunido a expertos de 15 países en la Universidad de La Rioja, con el fin de abordar el impacto ético y social de las Tecnologías de la Información y la Comunicación (TIC).

Ha explicado que existen muchos problemas éticos y jurídicos en el uso de esta tecnología en el plano militar y la ONU lleva varios años trabajando en este ámbito.

Actualmente, se discute en la ONU el nuevo marco jurídico de esta tecnología y hay un grupo de expertos que estudian poner límites a su uso, pero todavía no hay una resolución de este organismo que determine qué es inaceptable, por motivos morales y éticos, que un arma letal autónoma pueda tomar este tipo de decisiones por sí misma.

Ha añadido que aún está en estudio esta resolución ética por la que sea una excepción para seres humanos que un arma letal autónoma pueda actuar en este sentido, aunque pueda respetar las ‘leyes de la guerra’ y las convenciones de Ginebra.

Dentro de este congreso internacional, Pagallo también ha calificado como fundamental la ética en la IA porque este tipo de tecnología plantea algunos problemas “inéditos”.

La IA es un desafío

“Es la primera vez en la historia de la humanidad -ha dicho- que tenemos este tipo desafíos”, ya que “no sólo hemos inventado máquinas inteligentes, sino agentes inteligentes” a través de la ingeniería, como pueden ser animales, entre otros. También se ha referido a que, en el campo de la IA, el dilema ético más famoso está relacionado con los vehículos autónomos -sin conductor-, de forma que “una máquina tiene que decidir si circula por la derecha o la izquierda”, con las consecuencias que ello puede tener en la seguridad vial.

FOTO:EFE/ Raquel Manzanares

En la actualidad, la presencia de camiones que conducen solos “no es una fantasía” porque ya existen en países como Estados Unidos y Japón, donde hay una autopista particular para este tipo de vehículos, ha detallado Pagallo, quien cree que la IA también planteará problemas de desempleo.

Pagallo ha defendido, además, una inteligente colaboración entre la aportación de la IA y los seres humanos, ya que hay profesiones que no pueden sustituirse por máquinas, como en el campo de la medicina, sino que requieren de “una sana e inteligente colaboración”.

Sobre la Ley de Inteligencia Artificial aprobada en el Parlamento Europeo, en cuya elaboración ha participado, ha destacado el avance que supone esta norma en el ámbito ético, dado que considera tres usos de IA. El fin de esta norma es prohibir ciertos usos de inteligencia artificial, como, por ejemplo, la identificación en tiempo real de las personas en lugares públicos, ha detallado.

La norma, ha explicado, también supone un avance en el ámbito de usos de alto riesgo, ya que quien produce ese tipo de tecnología tendrá que certificarla y eso será una garantía de seguridad.

Hay otros usos tipificados en la norma, que son los de no riesgo, como puede ser la utilización de los smartpone, que, sin embargo, también tendrán una serie de controles para un correcto uso.

Subir