No cabe duda que estamos en un momento de pleno auge de las Inteligencias Artificiales aplicadas al servicio del hombre. Prueba de ello es que en iSenaCode hemos hablado en reiteradas ocasiones del buen servicio que pueden hacer a la humanidad en ciertos ámbitos. No obstante hay uno que debería preocuparnos bastante, y es su aplicación en el campo militar. Un mal uso podría llegar a ser catastrófico para la humanidad.

China, pese a ser uno de los países fuertes a nivel mundial en relación al armamento inteligente, teme que una mala aplicación de esta tecnología pudiera desencadenar un conflicto bélico a gran escala.

El país asiático cree que hay un peligro real de que una IA pueda tomar una mala decisión que de pie a una posible guerra

De acuerdo con un informe publicado por el Center for a New American Security China estaría replanteándose algunas premisas acerca del armamento inteligente o la inteligencia artificial aplicada a aspectos militares. El motivo principal, un mal uso de esta tecnología. O una decisión autónoma mal tomada podría llevarnos a romper la paz mundial.

En este sentido, Gregory C. Allen, miembro adjunto del CNAS y autor del informe, ha mostrado su preocupación por ejemplo del tipo de tecnología aplicada a los drones, que pueden realizar tareas tan simples como volar en círculo alrededor de un objetivo, o en ciertos casos realizar acciones más concretas que requieran el uso de la fuerza, como el avión no tripulado Blowfish A2 que China exporta a nivel internacional.

Allen pone como ejemplo que “no está claro como un equipo autónomo interpretará ciertos comportamientos, poniendo el siguiente ejemplo:

“El lado que envía un avión no tripulado autónomo pensará que no es un gran problema porque no hay riesgo de muerte. Mientras que el otro lado podría derribarlo por la misma razón. Pero no hay un marco acordado sobre qué mensaje está siendo enviado por el comportamiento de ambas partes .”

La problemática radica en que por el momento no se sabe a ciencia cierta como podría reaccionar una inteligencia avanzada. En caso de conflicto y ante un disparo de advertencia ¿La parte contraria sería capaz de identificarlo así? Esta claro que hay que trabajar en este campo para mejorar los posibles algoritmos.

China lo tiene claro, tanto ellos como Estados Unidos son las únicas potencias capaces de impulsar este tipo de tecnología. Y dotarla de la seguridad necesaria para garantizar que nunca se vaya a producir un hecho de estas características.

De lo contrario podría ser el “Día del juicio final” ¿No creéis? Espero vuestra opinión en los comentarios :)