Ads

lunes, 28 de junio de 2021

Robots asesinos en la actualidad: LAWS, responsabilidad intelectual o material y su regulación internacional.

En 1984 hizo su aparición una película cuyo argumento revolucionó buena parte de la ciencia ficción y replanteó los guiones de acción al establecer un distópico futuro, donde la batalla entre el hombre y la maquina trasciende el campo filosófico y se vuelve una realidad en la que lastimosamente el humano se ve superado por las máquinas y éstas aniquilan a la humanidad de forma automática por ser su enemigo. Dicho en otras palabras, la inteligencia artificial se volvió consciente e identificó al humano como su principal amenaza directa. Este argumento también ha sido matizado de otras formas como un argumento donde, bajo una lógica absolutamente cerrada y cuadrada, V.I.K.I., la inteligencia artificial a cargo de las tareas más importantes en la empresa ensambladora de robots auxiliares de los humanos, interpreta que la principal amenaza del humano es el humano mismo, por lo que para preservar su existencia, la inteligencia artificial asume el control de todo el entorno, valiéndose de un ejército de robots y pretende terminar con la libertad de la humanidad como único mecanismo para mantener a salvo a su creador.

Los argumentos de Terminator y más recientemente la vaga adaptación cinematográfica de I, robot, las cuales dieron rienda suelta a la imaginación de novelistas, ingenieros, programadores e incluso y un tanto al fondo, de abogados, pero siempre viendo estos eventos en un horizonte lejano, eventos que quizás esa y las generaciones venideras no verían, eventos que no nos tocaría regular o experimentar. Pero el futuro nos alcanzó.


El argumento de las primeras dos películas a cargo de James Cameron, así como la novela de Isaac Asimov en la que se dice se basa la película de mismo nombre, han sido suficientes para establecer una base de fans que a lo largo de múltiples películas, series, videojuegos, comics, etc., se han planteado cuestionamientos por resolver, muchos explorando en distintos campos como la filosofía, el derecho e incluso la mecánica cuántica, logrando aproximaciones sobre cómo resolver dichas cuestiones, sin embargo, hoy día se hacen más presentes que nunca por un entorno que nos muestra que lo que vimos como ciencia ficción, hoy ya no es ficción y se vuelve un tema que a esta generación le corresponde enfrentar tanto en el campo de la ciencia, como en el de la regulación local e internacional: ¿Qué regulación podría tener la inteligencia artificial? ¿Qué responsabilidad se le puede atribuir a las máquinas autónomas? ¿Cuándo se considera una maquina completamente autónoma? ¿Pueden las máquinas atacar deliberada y autónomamente a los humanos?

LAWS: un acrónimo contradictorio que no está regulado específicamente.

Conforme fue avanzando la tecnología de la mano de las innovaciones que año con año presentaba la humanidad, toda clase de dispositivos se fueron haciendo menos dependientes de la manipulación humana; al mismo tiempo, la concepción de dispositivos dotados de inteligencia artificial se fue fortaleciendo al punto de plantear la total autonomía de redes y aparatos que convivieran con la humanidad, por lo que el temor de muchos y sueño de otros, paulatinamente se comenzó a cristalizar.


En este punto vale la pena señalar que históricamente, conforme se han dado innovaciones tecnológicas y científicas, éstas se han aplicado con fines militares para conceder una ventaja estratégica al territorio de su descubridor o desarrollador y los ejemplos abundan en la historia y el presente no es la excepción. Si bien el desarrollo de inteligencia artificial ha tenido grandes logros y avances en la medición de hábitos de consumo para ayudar en la salud a sectores de la población en riesgo, en la predicción de rutinas de escritura y conversación, en la conducción de vehículos autónomos, obtención y aplicación de datos de consumo de clientes potenciales clientes para ciertas empresas, así como aplicaciones en sectores industriales como el automotriz o la prevención de riesgos, también se ha buscado aplicar a la industria militar, tanto en el desarrollo de armas como en el accionar de las mismas, pero hasta ahora y de forma oficial, con fines de defensa.

En este punto cabe reflexionar que, si existieran hoy mismo tanto Robocop, Terminator y la Inteligencia Artificial de I, Robot, todos estos serían lo mismo o hay alguna diferencia entre ellos. Por un lado, se debe tener en cuenta que inteligencia artificial, robots autónomos y los drones o armas operadas a distancia no son lo mismo ya que cada uno dependerá en buena parte de la programación que se le dé, pero sobre todo, del nivel de intervención humana en su funcionamiento regular. 

La inteligencia artificial es un programa dotado de capacidad intelectual y de ejecución independientemente de la máquina o computador que lo ordene o en el que se halle alojado. Teniendo la aproximación de IA, se puede vislumbrar que las Armas Autónomas no son lo mismo que la propia Inteligencia Artificial, sino que son armas desarrolladas que integran IA para su funcionamiento efectivo bajo los objetivos y fines con los que fueron creadas. Los drones, dispositivos no tripulados y armas operadas a distancia requieren forzosamente de la intervención humana para realizar el objetivo con el que fueron concebidas. Si bien algunos robots autónomos aún requieren de cierto nivel de intervención humana, lo cierto es que actualmente se busca su perfeccionamiento y la menos dependencia humana para tener un menor tiempo de reacción ante cualquier amenaza que se presente.

Doctrinariamente se denomina Lethal Autonomous Weapons System (LAWS) o sistemas de armas autónomas letales (SAA) a aquellas que son capaces de llevar a cabo sus objetivos sin la intervención humana, las cuales pueden estar implicadas en las actividades de reconocimiento y vigilancia, hasta las que son empleadas para la defensa y que potencialmente puedan convertirse en letales por su operación autónoma. Debe diferenciarse que, si bien el término en inglés incluye la palabra lethal, es decir, letal o mortal, no todos los Sistemas de Armas Autónomas tienen el fin de provocar bajas humanas de forma activa, sino que de existir “casualties” o daños colaterales, se dan como consecuencia de la operación en defensa de sus objetivos.

Del consenso de expertos y desarrolladores de SAA se puede abstraer a priori  que estas armas pueden ser o no letales y que el grado de autonomía se ve determinado por el grado de implicación humana en su funcionamiento. De este modo es que se vislumbra que no todo SAA es necesariamente autónomo, como los drones o vehículos de combate no tripulados que son operados remotamente o que requieren de la confirmación humana para abrir fuego contra los objetivos.

Los prototipos de SAA que se han conceptualizado tienen características de inteligencia artificial ya integradas que al día de hoy resultan familiares para la población civil, ya que se ha mencionado que estos dispositivos tendrían mecanismos para reconocimiento e individualización de objetivos por vía de medios biométricos o reconocimiento facial, mecanismos que ya son usados en diversas aplicaciones de entretenimiento, banca y finanzas o de seguridad personal.

De hecho, los SAA ya tienen cierta fama a nivel internacional y recientemente a la fecha que se escribe esta breve investigación, hemos sido testigos de la efectiva operación de una SAA que es exhibida orgullosamente por su gobierno: la Cúpula de Hierro de Israel. Con el objetivo de repeler los ataques palestinos a territorio israelí, el gobierno financió el desarrollo de un dispositivo que intercepta en el aire los proyectiles con destino a Israel, alcanzando un 90% de efectividad. Este sistema solo fue diseñado para actuar en defensa de la soberanía del territorio aéreo del país, por lo que la Cúpula de Hierro no está dotada de la capacidad de contraatacar los asentamientos palestinos.

De momento no se tiene planeado emplear las SAA con fines activos de ataque, ya que, como se verá más adelante, existen ciertas restricciones aplicables según convenciones y tratados aplicables que conforman el derecho de guerra de las naciones.

Por lo que, visto estos aspectos se puede mencionar que ni Robocop, Terminator y la inteligencia artificial son lo mismo, ya que Robocop es un organismo cibernético controlado a distancia que cobra conciencia de su origen y pasado, imponiéndose a sí mismo un propósito para recuperar y reafirmar su humanidad encerrada en un cuerpo robótico; Terminator es un robot autónomo que fue programado para aniquilar un objetivo humano, no teniendo ningún tipo de límite para cumplir su misión y que es capaz de calcular escenarios y situaciones, concediéndole en los últimos arcos argumentales, cierta capacidad para razonar y empatizar; la inteligencia artificial es un programa en el cual la humanidad cada vez deposita más confianza delegando tareas sensibles como la seguridad o el lanzamiento de armas de destrucción masiva (como en Terminator con Skynet y posteriormente Genesys), siendo que en la película I, Robot , V.I.K.I. es la inteligencia artificial detrás de los robots que se tornan hostiles, dispuesta a omitir las “tres leyes” de la robótica y se menciona que dicha inteligencia artificial evolucionó, dejando atrás los propósitos con los que fue creada y asumió nuevos objetivos.

Ventajas y desventajas de LAWS

A criterio de expertos militares, los SAA representan una serie de ventajas al momento de ser empleadas durante hipotéticos enfrentamientos armados, ya que por un lado disminuiría las bajas de soldados efectivos desplegados en el campo de batalla, así como disminuiría la baja de civiles no relacionados con el conflicto; asimismo, focalizarían el ataque dirigido a eliminar objetivos precisos y estratégicos, aumentando la efectividad de las operaciones tácticas y disminuyendo -nuevamente- el número de bajas, tanto de civiles como de adversarios; serían capaces de reaccionar en menor tiempo que los humanos y no estarían sometidos a los reflejos o reacciones humanas; no actuarían por conducto del odio, la venganza o por motivos raciales, religiosos o sexuales y disminuirían las subjetividades por las que los soldados emplean fuerza letal innecesaria; finalmente, como todas las IA, de aumentar su uso, se puede enseñar y condicionar las Armas Autónomas a disminuir la fuerza letal eventualmente o solo aplicarla cuando sea estrictamente necesario.

Sumado a esto, hay expertos que afirman que la proliferación de este tipo de armas solo abaratará el costo de la guerra, disminuirá los costos por bajas y las consecuentes indemnizaciones que se han de pagar y, como consecuencia final, se terminará por diluir el interés en la guerra y los conflictos y tensiones se resolverán por medios políticos, por lo que se dará prioridad a los medios pacíficos de solución de controversias en lugar de las amenazas y ataques.

Por el otro lado, existen detractores que opinan lo contrario al señalar que el empleo de este tipo de armas solo generaría desconcierto al no existir aun una regulación propiamente aplicable a este tipo armas, además de que las bajas, tanto militares como civiles se multiplicarían al no existir controles efectivos que disminuyan la capacidad letal de estos sistemas.

Al respecto, una de las principales preocupaciones sobre las SAA está vinculada con el debate de la objetividad al momento de ejecutar las órdenes que se le asignen. Mientras que unos ven la ausencia de subjetividad como un beneficio, otros piensan que la falta de compasión, perdón y apego por la vida será un obstáculo muy fuerte que sortear al momento de autorizar la operación de los LAWS en el campo de batalla reales y no solo en simulaciones. Este hecho se cruza con una serie de conceptos e ideas que los filósofos tienen siglos planteándose ¿Cómo aplica la ética en la guerra? ¿Es justo matar a otro ser humano en aras de preservar la paz, la seguridad y la justicia? ¿Será correcto que una inteligencia artificial quite la vida a un humano programado por otro humano? Estas preguntas no tienen una respuesta concreta porque cada persona y experto tendrá una postura dependiendo de su formación e intereses que defienda, lo que ciertamente se ve reflejado en el campo legal donde estos cuestionamientos han dificultado la adopción de regulaciones al respecto.

La regulación aplicable

Resulta contradictorio que, siendo un tema de la actualidad y cuyas repercusiones e impacto en la sociedad y el curso de la historia puede ser definitivo, no exista una regulación sobre los SAA y que en estos momentos la mayor preocupación es la inteligencia artificial por todos los campos en los que se involucra.

Coloquialmente se dice que Estados Unidos tiene los recursos económicos, en China se desarrollan las tecnologías y Europa regula y para el presente caso, esto se ha ido cumpliendo como un axioma. Dada la creciente presencia de tecnologías que han incorporado la inteligencia artificial en sus procesos, así como por una desconfianza en empresas dedicadas al desarrollo de IA que no se encuentran dentro del territorio europeo y que podrían burlar de cierto modo el Reglamento General de Protección de Datos, en 2021 se ha redactado un proyecto de reglamento que pretende regular las IA en Europa.

El borrador del Reglamento Europeo sobre Inteligencias Artificiales  incluye un preámbulo donde se establecen las razones para adoptar regulaciones y sobre todo las amenazas que se pretenden atajar antes de que se materialicen, así como se da a la tarea de establecer definiciones y delimitando el campo de acción de los desarrolladores al estimar que existen cuatro categorías de riesgo relacionadas con las IA:

Riesgo inadmisible. Conjunto de usos limitados que no serán tolerados en la Unión Europea, que vienen a formar las prohibiciones.

Riesgo alto. Se consideran así a los usos que se le dé a las IA que potencialmente pueden impactar negativamente en la seguridad de las personas, así como en sus derechos fundamentales, los cuales estarán sujetos al cumplimiento de regulación como tener registros de la documentación técnica, la transparencia y la divulgación de información a los usuarios, la supervisión humana, y la solidez, la precisión y la ciberseguridad

Riesgo limitado.  Cuando por motivos de transparencia, se tenga que definir cuando una persona sostiene una conversación con un robot dotado de inteligencia o patrones lógicos.

Riesgo mínimo. El uso de IA en esta categoria no implica riesgo alguno y mucho menos responsabilidad para los proveedores o usuarios. 

Pero sobre todo estableciendo algunos principios que son bastante interesantes para el presente y futuro de estas tecnologías como por ejemplo, la prohibición de que las IA manipulen el comportamiento, las opiniones o las decisiones de los seres humanos mediante mecanismos de elección u otros elementos de las interfaces de usuario, obligando o condicionando a adoptar una determinada conducta; prohíbe que los sistemas de IA sean diseñados o utilizados de manera que exploten la información o la predicción sobre una persona o grupo de personas para dirigirse a sus vulnerabilidades o circunstancias especiales, haciendo que una persona se comporte, se forme una opinión o tome una decisión en su perjuicio; se prohíben que las IA determinen un sistema de puntaje social; se prohíbe también que las IA tengan como objetivo la observación, vigilancia o espionaje de personas de forma general e indiscriminada.

Además se obliga a que los desarrolladores o usuarios de IA informen a las personas cuando estén en presencia de una IA o que cuando se trata de las materias incluidas en el rubro de riesgo alto su funcionamiento podrá y deberá ser supervisado por una persona. Por otro lado, contempla la creación de un panel especializado en la supervisión de la Inteligencia Artificial y del cumplimiento de las regulaciones establecidas, así como de sanciones para quienes infrinjan el reglamento sus anexos y disposiciones.

Pese a que el artículo seis del reglamento establece que nuevas IA que se desarrollen puedan ser consideradas de riesgo alto por el posible riesgo o daño que representen o puedan infringir conforme a un criterio ya establecido y armonizado, lo cierto es que desde el artículo dos del propio reglamento se señala que éste no será aplicable a los SAA o que tengan aplicaciones exclusivamente militares:

Artículo 2. Ámbito de aplicación

1. […]

4. El presente Reglamento no se aplica a los sistemas de IA utilizados exclusivamente para el funcionamiento de armas u otros fines militares.

Artículo 6. Actualización de los sistemas de IA de alto riesgo

1. La Comisión está facultada para adoptar actos delegados de conformidad con el artículo 64 para actualizar la lista del anexo II añadiendo nuevos sistemas de IA de alto riesgo, cuando haya identificado que otros sistemas de IA generan un alto nivel de riesgo de daño de la misma manera que los sistemas de IA de alto riesgo ya enumerados en el anexo II.

2. […]

3. El daño será cualquiera de los siguientes:

(a) lesiones o muerte de una persona, daños materiales;

Estas disposiciones podrían parecer contradictorias, pero no se debe olvidar que en el ámbito legislativo, existen comisiones con objetivos específicos y la encargada de asuntos de seguridad o temas militares pueden trabajar de forma cercana con la comisión encargada de regular las IA por los intreses que este tema les puede traer, pero ello no es óbice para discutir su regulación y aplicaciones con el enfoque específico de su materia.

Entonces las SAA no tienen regulación actualmente.

Por lo ya revisado se podría decir a priori que los Sistemas de Armas Autónomas no cuentan con una regulación específica, sin embargo, en el ámbito legal siempre hay alternativas y modos de cumplir con regulaciones. La cláusula Martens establece que:

 “Hasta que un Código más completo de las Leyes de guerra se emita, las Altas Partes Contratantes juzgan oportuno declarar que, en los casos no incluidos en las disposiciones reglamentarias adoptadas por ellas, las poblaciones y los beligerantes quedan bajo la protección y el imperio de los principios del derecho internacional, tal como resultan de los usos establecidos entre naciones civilizadas, de las leyes de la humanidad y las exigencias de la conciencia pública”, (Conferencia de Paz de la Haya de 1899), 

Por lo que al hacer una interpretación tanto de este principio como de las circunstancias y que las SAA están contempladas para fines militares, su regulación se encuentra en el Derecho Internacional Humanitario y las regulaciones aplicables del ius ad bellum  y del ius in bello pertinentes. Aunque la clausula Martens puede ser interpretada estrictamente como mientras que no exista un código de guerra con leyes más adelantadas o pertinentes, todo lo que no está estrictamente prohibido, está permitido”, se puede también obtener una interpretación que estima que las acciones ralizadas en guerra serán reguladas no solo por los tratados del derecho de guerra, sino por las costumbres y principios de derecho internacional.

El derecho de guerra se divide en dos primordialmente: el derecho a la guerra (ius ad bellum) y las acciones y conductas dentro de la guerra (ius in bello). Existe una gran diversidad de tratados y convenios que regulan las actividades bélicas, desde las que se apoyan en principios contenidos en libros religiosos y enseñanzas histórico-filosóficas, como los cuerpos normativos modernos, de entre los que destacan las Conferencias de Paz de la Haya de 1899 y 1907, así como las cuatro Convenciones de Ginebra de 1949, obviamente posteriores a la Segunda Guerra Mundial, así como los Protocolos adicionales a las Convenciones de Ginebra de 1977, en las que además de regular ciertas condiciones de guerra, se busca conceder niveles de protección mínima a civiles, personal diplomático, sanitario, víctimas y en general personas ajenas al conflicto pero que están inmersas en el campo de batalla, así como a heridos, náufragos y prisioneros de guerra, siendo un conjunto de normas que actualizan los protocolos de guerra, apoyándose en las directrices dictadas por el Consejo de Seguridad de las Naciones Unidas y los Principios de Núremberg.

Como ya se dijo, aunque no existen prescripciones específicas que regulen los SAA, lo que no quiere decir que no existan ya ciertas normas aplicables. De acuerdo con lo anterior, la cláusula Martens es una ventana que abre la posibilidad a ciertas regulaciones que se van adaptando a la realidad de la tecnología desarrollada; asimismo, las Conferencias de Paz de la Haya, las Resoluciones del Consejo de Seguridad de las Naciones Unidas, los Convenios y Protocolos Adicionales de Ginebra, representan la columna vertebral del derecho de guerra (y del Derecho Internacional Humanitario) ya que proporcionan los principios que se deben respetar en todo conflicto armado, los cuales son de proporcionalidad, humanidad, necesidad y distinción entre civiles y activos militares.


Al respecto vale la pena mencionar que el Protocolo Adicional I de los Convenios de Ginebra, en su artículo 36, se establece que:

  Artículo 36 - Armas nuevas 

Cuando una Alta Parte contratante estudie, desarrolle, adquiera o adopte una nueva arma, o nuevos medios o métodos de guerra, tendrá la obligación de determinar si su empleo, en ciertas condiciones o en todas las circunstancias, estaría prohibido por el presente Protocolo o por cualquier otra norma de derecho internacional aplicable a esa Alta Parte contratante.

Con esto, los SAA están incluidos de cierta manera en las regulaciones aplicables y vigentes en el derecho de guerra. Sin embargo, más allá de la legislación existente y por venir, las cuestiones que se presentan entran en el campo de la ontología, es decir, un sistema dotado de inteligencia artificial con capacidad de fuerza letal, ¿llegará a ser lo suficientemente inteligente como para distinguir en qué momento un militar se ha rendido o cuando un civil resiste solo por su supervivencia y no se identifica como un combatiente? Del mismo modo, ¿puede identificar cuando un vehículo tiene propósitos militares y cuándo un vehículo ha sido modificado para darle un propósito bélico sin que lo aparente? Por otro lado, también están las cuestiones éticas y morales porque ¿en qué momento dotamos a una máquina de la capacidad de terminar con la vida de un humano? Y lo que es peor, cuando dicha máquina tome la determinación por sí misma regida por sus algoritmos y programación, ¿su proceder estará justificado?


De acuerdo con los principios y el artículo relacionado con las “armas nuevas”, ¿una inteligencia artificial será capaz de medir en tiempo real y contener cierta fuerza destructiva para ceñirse a la proporcionalidad que exige el Protocolo? Dicha proporcionalidad, también implica evitar las bajas civiles producto de daños colaterales, pero si este hecho resulta imposible, ¿quién será responsable del proceder de las armas autónomas?

Para esta última pregunta se pueden conceder un par de reflexiones que pueden dar al clavo sobre el tema de la responsabilidad. Existen doctrinarios que ven plausible que la responsabilidad sobre un acto indiscriminado y desproporcionado de una Inteligencia Artificial integrada en un Sistema de Armas Autónomas debe recaer en el desarrollador que doto de algoritmos, estadísticas y comandos al programa. Por otro lado, hay quienes creen que la responsabilidad debe recaer en los dueños de los SAA, bajo la idea de que el desarrollador suele ser una empresa de tecnología que vende su producto al ejército o representante de las fuerzas armadas, por lo que su responsabilidad termina cuando enajena el producto y, a partir de ese momento, todo acto fuera de la ley debe ser asumido en su totalidad por el comandante militar responsable de la acción o misión militar. Por último, existen quienes afirman que la responsabilidad última debe recaer en el Estado mismo y su representante, es decir, el jefe de Estado, ya que es quien decide emprender acciones bélicas y autoriza el uso de este tipo de armas, por lo que es consciente del alcance de sus armas. Bajo este último supuesto, quizás sería conveniente reclamar la determinación de responsabilidad ante la Corte Penal Internacional o directamente presentar el caso ante l Asamblea General de las Naciones Unidas para un pronunciamiento oficial sobre el tema o, si los Estados de la comunidad internacional se preocupan lo suficiente, presentar el caso ante la Corte Internacional de Justicia.

Conclusión a modo de reflexión.

La tecnología y las innovaciones científicas, a lo largo de la historia y en su mayoría, han sido empleadas con fines militares. De hecho, hay quienes afirman que tras un gran conflicto bélico, grandes avances tecnológicos suceden y hoy, en plena era digital y de las telecomunicaciones, es altamente probable que estemos viendo el nacimiento de lo último en armas. Atrás quedarán las armas de balas o explosivos, puesto que varias de éstas últimas están siendo prohibidas (de acuerdo la Convención de ciertas Armas Convencionales y sus Protocolos Adicionales), siendo relegadas quizá al mismo estatus que hoy ostentan las lanzas, espadas y hachas. Además de la preocupación que hoy producen las armas nucleares, biológicas y químicas (reguladas en La Convención de 1975 sobre Armas Bacteriológicas y La Convención de 1993 sobre Armas Químicas, además de la Opinión Consultiva de la Corte Internacional de Justicia Sobre la Legalidad de la Amenaza o Empleo de las Armas Nucleares de 1996), hoy se debe sumar a las Inteligencias Artificiales, cada día más capaces y potentes en sus procesos internos de lógica y solución de problemas, así como a su derivación letal, los Sistemas de Armas Autónomas.

Por más que se ha intentado por todos los medios normalizar la coexistencia entre humanos y máquinas cada vez más parecidas al humano (proyecto Sofía), existe un rechazo natural en el subconsciente humano que nos causa desconfianza y resquemor de estos robots con apariencia humana. Otro motivo que nos hace desconfiar de las IA es que, en experimentos llevados a cabo con los algoritmos de Google, se le ha pedido que dibuje la realidad como la concibe conforme a los datos almacenados en las bases de datos de la compañía, o que componga melodías o cree arte conforme a los sonidos, búsquedas, imágenes y conceptos de arte que los usuarios han introducido, dando resultados espeluznantes, perturbadores y poco alentadores sobre la visión personal de las IA, aunque en 2014, una IA fue capaz de pasar el test de Turing, el cual consiste en engañar a un humano en una conversación común, sin mencionarle que es una máquina, prueba que supera a la programación que venció a Kazparov en un juego de ajedrez y se consideraba la prueba última para considerar el gran salto de la Inteligencia Artificial.  

Uno de los principales dilemas que presenta la introducción de armas autónomas, drones e IA es la de adaptarse o sucumbir, pero si la tecnología avanza a pasos agigantados y el principal temor es que los humanos sean sacados deliberadamente por las inteligencias artificiales en la toma de decisiones y ejecución de comandos militares, dónde queda el factor humano del aprendizaje y sobre todo, de superioridad del humano sobre la máquina. La duda que estas tecnologías plantean es si, una vez que entran en funciones, será el humano capaz de mantener el control de estas armas y siempre prevalecer sobre una Inteligencia Artificial.


Por otro lado, urge una legislación enfocada en las aplicaciones militares de las IA y los SAA, ya que si bien existen normas que hasta cierto punto las contemplan, dicha normativa es genérica y emana de un protocolo adicional datado en 1977, por lo que es altamente probable que muchas de la cuestiones éticas, legales, morales y objetivas puedan ser abordadas por un comité mixto de expertos que incluyan criterios de derecho, ingeniería, lógica, robótica, filosofía y computo cuántico. 

Finalmente, existen expertos que los SAA ya sido usados en el campo de batalla, pero no solo con fines de defensa como la Cúpula de Hierro, sino que han actuado con lo que se podría llamar “iniciativa propia” y han causado bajas. Si bien estas afirmaciones pueden caer en el campo de la especulación puesto que no existen pruebas suficientes que demuestren esto, los expertos en la materia afirman que hay evidencias de armas con comportamiento autónomo que han actuado conforme a objetivos programados, valiéndose de reconocimiento facial u otros parámetros biométricos para ejecutar sus objetivos, causando daños colaterales en la población civil, como en Libia, Irán o Siria, lo que ha motivado a la creación de Organizaciones No Gubernamentales que reclaman la limitación o prohibición de estas armas como la iniciativa Stop Killer Robots, Article 36, International Committee for Robot Arms Control. 

Por cierto, las tres leyes de la robótica propuestas en la película I, Robot, aunque en principio serían un buen intento por legislar desde dentro a las IA, ésta regulación resultaría insuficiente en caso de que la IA cobre conciencia o evolucione a un ente con libre albedrío, hecho que se antoja casi imposible, pero en el "casi" existe una posibilidad que debería ser considerada inadmisible. 

Fuentes de derecho:



Convención de Ciertas Armas Convencionales

Cuadro comparativo de los crímenes de guerra según el Estatuto de Roma de la Corte Penal Internacional

Liga a los 4 Convenios de Ginebra de 1949 y sus protocolos adicionales

Explicación detallada del borrador Reglamento Europeo sobre Inteligencia Artificial

Principios de Derecho Internacional contenidos en la Carta del Tribunal de Nuremberg


No hay comentarios:

Publicar un comentario

El cambio de paradigma legal de las buenas costumbres.

Uno de los principales dolores de cabeza para los legisladores dentro de un Estado de Derecho es la separación del derecho de la mora l, tar...