Estados Unidos lanzó el jueves una iniciativa que promueve la cooperación internacional sobre el uso responsable de la inteligencia artificial y las armas autónomas por parte de los militares, buscando imponer orden en una tecnología emergente que tiene el potencial de cambiar la forma en que se libra la guerra.
La funcionaria también dijo que la declaración política de EEUU, que contiene pautas no vinculantes legalmente que describen las mejores prácticas para el uso militar responsable de la IA, “puede ser un punto focal para la cooperación internacional”.
Jenkins lanzó la declaración al final de una conferencia de dos días en La Haya que adquirió una urgencia adicional a medida que los avances en la tecnología de drones en medio de la guerra de Rusia en Ucrania han acelerado una tendencia que pronto podría traer los primeros robots de combate totalmente autónomos del mundo al campo de batalla.
La declaración de EEUU tiene 12 puntos, incluido que los usos militares de la IA son consistentes con el derecho internacional, y que establece “mantener el control humano y la participación en todas las acciones críticas para informar y ejecutar decisiones soberanas relacionadas con el empleo de armas nucleares”.
Zachary Kallenborn, analista de innovación de armas de la Universidad George Mason que asistió a la conferencia de La Haya, dijo que la decisión de Estados Unidos de llevar su enfoque al escenario internacional “reconoce que existen estas preocupaciones sobre las armas autónomas. Eso es significativo en sí mismo”.
Kallenborn dijo que también era importante que Washington incluyera un llamado al control humano de las armas nucleares “porque cuando se trata de riesgos de armas autónomas, creo que es fácilmente el riesgo más alto que posiblemente tengas”. Subrayando el sentido de urgencia internacional en torno a la IA y las armas autónomas, 60 naciones, incluidos EEUU y China, emitieron un llamado a la acción en la conferencia de La Haya instando a una amplia cooperación en el desarrollo y uso militar responsable de la inteligencia artificial.
El llamado a la acción emitido en los Países Bajos subrayó “la importancia de garantizar las salvaguardas adecuadas y la supervisión humana del uso de los sistemas de IA, teniendo en cuenta las limitaciones humanas debido a las limitaciones de tiempo y capacidades”.
Las naciones participantes también invitaron a los países a “desarrollar marcos, estrategias y principios nacionales sobre IA responsable en el ámbito militar”.
Los analistas militares y los investigadores de inteligencia artificial dicen que cuanto más dure la guerra de casi un año en Ucrania, más probable será que se utilicen drones para identificar, seleccionar y atacar objetivos sin la ayuda de humanos.
El ministro de transformación digital de Ucrania, Mykhailo Fedorov, dijo a la agencia de noticias AP en una entrevista reciente que los drones asesinos completamente autónomos son “un próximo paso lógico e inevitable” en el desarrollo de armas. Dijo que Ucrania ha estado haciendo “mucha investigación y desarrollo en esta dirección”. crania ya tiene drones de ataque semiautónomos y armas contra drones dotados de IA. Rusia también afirma poseer armamento de IA, aunque las afirmaciones no están probadas. Pero no hay instancias confirmadas de una nación que haya puesto en combate robots que hayan matado completamente solos.