Dentro de la confusa ética de hacer la guerra a las máquinas
HogarHogar > Blog > Dentro de la confusa ética de hacer la guerra a las máquinas

Dentro de la confusa ética de hacer la guerra a las máquinas

Jul 18, 2023

La IA se está abriendo camino en la toma de decisiones en la batalla. ¿Quién tiene la culpa cuando algo sale mal?

En una guerra en el futuro cercano, una que podría comenzar mañana, por lo que sabemos, un soldado toma una posición de tiro en un tejado vacío. Su unidad ha estado luchando por la ciudad cuadra por cuadra. Se siente como si los enemigos pudieran estar esperando en silencio detrás de cada esquina, listos para lanzar fuego sobre sus objetivos en el momento en que tengan un disparo.

A través de su mira, el soldado escanea las ventanas de un edificio cercano. Se da cuenta de que hay ropa limpia colgada en los balcones. Por radio llega la noticia de que su equipo está a punto de cruzar un terreno abierto debajo. Mientras salen, aparece un cuadro delimitador rojo en la esquina superior izquierda de la mira. El sistema de visión por computadora del dispositivo ha señalado un objetivo potencial: una figura recortada en una ventana parece prepararse para disparar.

El soldado no tiene una visión clara, pero según su experiencia, el sistema tiene una capacidad sobrehumana para detectar el más mínimo indicio de un enemigo. Entonces coloca su punto de mira sobre la caja y se prepara para apretar el gatillo.

En otras guerras, también posiblemente en el horizonte, un comandante se encuentra ante un grupo de monitores. Aparece una alerta de un chatbot. Trae noticias de que los satélites han detectado un camión que entra en una determinada manzana de la ciudad que ha sido designada como posible zona de preparación para el lanzamiento de cohetes enemigos. El chatbot ya ha aconsejado a una unidad de artillería, que calcula que tiene la "probabilidad de matar" estimada más alta, que apunte al camión y se mantenga alerta.

Según el chatbot, ninguno de los edificios cercanos es una estructura civil, aunque señala que la determinación aún debe ser corroborada manualmente. Un dron, que había sido enviado por el sistema para observar más de cerca, llega al lugar. Su vídeo muestra el camión retrocediendo en un pasaje estrecho entre dos complejos. La oportunidad de disparar está llegando rápidamente a su fin.

Para el comandante, ahora todo queda en silencio. El caos, la incertidumbre, la cacofonía, todo reducido al sonido de un reloj y a la vista de un único botón brillante:

“APROBAR ORDEN DE INCENDIO”.

Apretar el gatillo o, según sea el caso, no apretarlo. Presionar el botón o esperar. Legalmente –y éticamente– el papel de la decisión del soldado en cuestiones de vida o muerte es preeminente e indispensable. Fundamentalmente, son estas decisiones las que definen el acto humano de guerra.

La automatización puede ayudarnos a tomar decisiones difíciles, pero no puede hacerlo sola.

No debería sorprender, entonces, que los Estados y la sociedad civil hayan asumido la cuestión de las armas autónomas inteligentes (armas que pueden seleccionar y disparar contra objetivos sin ninguna intervención humana) como un asunto de grave preocupación. En mayo, después de casi una década de discusiones, las partes de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales acordaron, entre otras recomendaciones, que los militares que las utilicen probablemente necesiten “limitar la duración, el alcance geográfico y la escala de la operación” para cumplir con las leyes de la guerra. La frase no era vinculante, pero al menos era un reconocimiento de que un ser humano tiene que desempeñar un papel (en algún lugar, en algún momento) en el proceso inmediato que conduce a un asesinato.

Pero las armas autónomas inteligentes que desplazan por completo la toma de decisiones humana (probablemente) aún no se han utilizado en el mundo real. Incluso los drones y barcos “autónomos” desplegados por Estados Unidos y otras potencias se utilizan bajo estrecha supervisión humana. Mientras tanto, los sistemas inteligentes que simplemente guían la mano que aprieta el gatillo han ido ganando terreno en el conjunto de herramientas del guerrero. Y silenciosamente se han vuelto lo suficientemente sofisticados como para plantear preguntas novedosas, más difíciles de responder que las bien cubiertas disputas sobre robots asesinos y, cada día que pasa, más urgentes: ¿Qué significa que una decisión sea sólo en parte humana y humana? parte de la maquina? ¿Y cuándo, si es que alguna vez, es ético que esa decisión sea una decisión de matar?

Durante mucho tiempo, la idea de apoyar una decisión humana por medios informáticos no fue una perspectiva tan controvertida. El teniente general retirado de la Fuerza Aérea Jack Shanahan dice que el radar del avión de combate F4 Phantom que voló en la década de 1980 fue una especie de ayuda para tomar decisiones. Me dijo que le alertó de la presencia de otros aviones para que pudiera decidir qué hacer con ellos. Pero decir que la tripulación y el radar eran cómplices iguales sería exagerar.

Todo eso ha comenzado a cambiar. "Lo que estamos viendo ahora, al menos en la forma en que yo lo veo, es una transición hacia un mundo en el que es necesario tener humanos y máquinas... operando en algún tipo de equipo", dice Shanahan.

El auge del aprendizaje automático, en particular, ha desencadenado un cambio de paradigma en la forma en que los militares utilizan las computadoras para ayudar a dar forma a las decisiones cruciales de la guerra, incluida la decisión final. Shanahan fue el primer director del Proyecto Maven, un programa del Pentágono que desarrolló algoritmos de reconocimiento de objetivos para secuencias de vídeo de drones. El proyecto, que inició una nueva era de la IA militar estadounidense, se lanzó en 2017 después de que un estudio concluyera que “los algoritmos de aprendizaje profundo pueden funcionar a niveles casi humanos”. (También generó controversia: en 2018, más de 3000 empleados de Google firmaron una carta de protesta contra la participación de la empresa en el proyecto).

Con las herramientas de decisión basadas en el aprendizaje automático, “se tiene más competencia aparente, más amplitud” que las herramientas anteriores, dice Matt Turek, subdirector de la Oficina de Innovación de la Información de la Agencia de Proyectos de Investigación Avanzada de Defensa. “Y tal vez una tendencia, como resultado, a entregarles más toma de decisiones”.

Un soldado que esté atento a francotiradores enemigos podría, por ejemplo, hacerlo a través del Sistema de Aplicación de Combate con Rifle de Asalto, una mira vendida por la empresa de defensa israelí Elbit Systems. Según una hoja de especificaciones de la compañía, el dispositivo "impulsado por IA" es capaz de "detección de objetivos humanos" a una distancia de más de 600 yardas, y de "identificación" de objetivos humanos.(presumiblemente, discernir si una persona es alguien a quien se le podría disparar) aproximadamente del largo de un campo de fútbol. Anna Ahronheim-Cohen, portavoz de la empresa, dijo a MIT Technology Review: "El sistema ya ha sido probado en escenarios en tiempo real por soldados de infantería que luchan".

Se anuncia que otra mira, construida por la empresa Smartshooter, tiene capacidades similares. Según el sitio web de la compañía, también se puede empaquetar en una ametralladora controlada a distancia como la que utilizaron agentes israelíes para asesinar al científico nuclear iraní Mohsen Fakhrizadeh en 2021.

Las herramientas de apoyo a la toma de decisiones que se encuentran a mayor distancia del campo de batalla pueden ser igualmente decisivas. El Pentágono parece haber utilizado la IA en la secuencia de análisis de inteligencia y decisiones que condujeron a un posible ataque, un proceso conocido como cadena de muerte, aunque ha sido cauteloso con los detalles. En respuesta a preguntas de MIT Technology Review, Laura McAndrews, portavoz de la Fuerza Aérea, escribió que el servicio "está utilizando un enfoque de equipo humano-máquina".

La gama de criterios que intervienen en la toma de decisiones militares es enorme. Y no siempre hace falta una superinteligencia artificial para prescindir de ellos por medios automatizados.

Otros países están experimentando más abiertamente con dicha automatización. Poco después del conflicto entre Israel y Palestina en 2021, las Fuerzas de Defensa de Israel dijeron que habían utilizado lo que describieron como herramientas de inteligencia artificial para alertar a las tropas de ataques inminentes y proponer objetivos para las operaciones.

El ejército ucraniano utiliza un programa, GIS Arta, que empareja cada objetivo ruso conocido en el campo de batalla con la unidad de artillería que, según el algoritmo, está mejor situada para dispararle. Un informe del periódico británico The Times lo comparó con el algoritmo de Uber para emparejar conductores y pasajeros, señalando que reduce significativamente el tiempo entre la detección de un objetivo y el momento en que ese objetivo se encuentra bajo un aluvión de potencia de fuego. Antes de que los ucranianos tuvieran GIS Arta, ese proceso tardaba 20 minutos. Ahora, según se informa, hace falta uno.

Rusia afirma tener su propio sistema de comando y control con lo que llama inteligencia artificial, pero ha compartido pocos detalles técnicos. Gregory Allen, director del Centro Wadhwani de IA y Tecnologías Avanzadas y uno de los arquitectos de las actuales políticas de IA del Pentágono, me dijo que es importante tomar algunas de estas afirmaciones con cautela. Dice que parte de la supuesta IA militar de Rusia es "cosas que todo el mundo ha estado haciendo durante décadas", y llama a GIS Arta "simplemente software tradicional".

Sin embargo, la gama de criterios que intervienen en la toma de decisiones militares es enorme. Y no siempre hace falta una superinteligencia artificial para prescindir de ellos por medios automatizados. Existen herramientas para predecir los movimientos de las tropas enemigas, herramientas para descubrir cómo eliminar un objetivo determinado y herramientas para estimar cuánto daño colateral es probable que sufra los civiles cercanos.

Ninguno de estos dispositivos podría considerarse un robot asesino. Pero la tecnología no está exenta de peligros. Como cualquier computadora compleja, una herramienta basada en IA puede fallar de manera inusual e impredecible; No está claro que el humano involucrado siempre pueda saber cuándo las respuestas en la pantalla son correctas o incorrectas. En su implacable eficiencia, es posible que estas herramientas tampoco dejen suficiente tiempo y espacio para que los humanos determinen si lo que están haciendo es legal. En algunas áreas, podían actuar a niveles tan sobrehumanos que algo inefable del acto de guerra podría perderse por completo.

Con el tiempo, los militares planean utilizar inteligencia artificial para unir muchos de estos instrumentos individuales en una única red automatizada que vincule cada arma, comandante y soldado entre sí. No una cadena de muerte, sino (como ha comenzado a llamarla el Pentágono) una red de muerte.

En estas redes, no está claro si la decisión del ser humano es, de hecho, una decisión en absoluto. Rafael, un gigante de la defensa israelí, ya vendió uno de esos productos, Fire Weaver, a las FDI (también lo demostró al Departamento de Defensa de Estados Unidos y al ejército alemán). Según los materiales de la compañía, Fire Weaver encuentra posiciones enemigas, notifica a la unidad que calcula que está en la mejor posición para dispararles e incluso coloca una mira en el objetivo directamente en la mira del arma de esa unidad. El papel del ser humano, según un vídeo del software, es elegir entre dos botones: "Aprobar" y "Abortar".

Digamos que la silueta en la ventana no era un soldado, sino un niño. Imagínese que el camión no estuviera entregando ojivas al enemigo, sino cubos de agua a una casa.

De los cinco "principios éticos para la inteligencia artificial" del Departamento de Defensa, que se expresan como cualidades, el que siempre figura en primer lugar es "Responsable". En la práctica, esto significa que cuando las cosas van mal, alguien (un ser humano, no una máquina) tiene que hacerse cargo de la situación.

Por supuesto, el principio de responsabilidad es mucho anterior a la aparición de las máquinas con inteligencia artificial. Todas las leyes y costumbres de la guerra carecerían de sentido sin el entendimiento común fundamental de que cada acto deliberado en la lucha siempre recae sobre alguien. Pero con la perspectiva de que las computadoras asuman todo tipo de funciones nuevas y sofisticadas, el antiguo precepto ha encontrado una nueva resonancia.

"Ahora, para mí, y para la mayoría de las personas que conocí en uniforme, esto era fundamental para quiénes éramos como comandantes: que alguien en última instancia será considerado responsable", dice Shanahan, quien después de Maven se convirtió en el director inaugural de la Inteligencia Artificial Conjunta del Pentágono. Centro y supervisó el desarrollo de los principios éticos de la IA.

Por eso una mano humana debe apretar el gatillo, por eso una mano humana debe hacer clic en "Aprobar". Si una computadora fija su mira en el objetivo equivocado y el soldado aprieta el gatillo de todos modos, eso es culpa del soldado. "Si un humano hace algo que provoca un accidente con la máquina (por ejemplo, dejar caer un arma donde no debería haberlo hecho) sigue siendo una decisión humana", dice Shanahan.

Pero los accidentes ocurren. Y aquí es donde las cosas se complican. Los ejércitos modernos han pasado cientos de años descubriendo cómo diferenciar las inevitables e inocentes tragedias de la guerra de los actos de intenciones malignas, la furia mal dirigida o la negligencia grave. Incluso ahora, esto sigue siendo una tarea difícil. Subcontratar una parte de la agencia y el juicio humanos a algoritmos construidos, en muchos casos, en torno al principio matemático de optimización desafiará toda esta ley y doctrina de una manera fundamentalmente nueva, dice Courtney Bowman, directora global de ingeniería de privacidad y libertades civiles de Palantir. una empresa con sede en EE. UU. que crea software de gestión de datos para militares, gobiernos y grandes empresas.

“Es una ruptura. Es disruptivo”, dice Bowman. "Se requiere una nueva construcción ética para poder tomar decisiones acertadas".

Este año, en un movimiento que era inevitable en la era de ChatGPT, Palantir anunció que está desarrollando un software llamado Plataforma de Inteligencia Artificial, que permite la integración de grandes modelos de lenguaje en los productos militares de la compañía. En una demostración de AIP publicada en YouTube esta primavera, la plataforma alerta al usuario sobre un movimiento enemigo potencialmente amenazador. Luego sugiere que se envíe un dron para observar más de cerca, propone tres posibles planes para interceptar a la fuerza infractora y traza una ruta óptima para que el equipo de ataque seleccionado los alcance.

Y, sin embargo, incluso con una máquina capaz de una aparente inteligencia, los militares no querrán que el usuario confíe ciegamente en cada una de sus sugerencias. Si el humano presiona solo un botón en una cadena de muerte, probablemente no debería ser el botón "Creo", como lo puso una vez un agente del ejército preocupado pero anónimo en un juego de guerra del Departamento de Defensa en 2019.

En un programa llamado Reconocimiento Urbano a través de Autonomía Supervisada (URSA), DARPA construyó un sistema que permitió a robots y drones actuar como observadores avanzados para pelotones en operaciones urbanas. Después de las aportaciones del grupo asesor del proyecto sobre cuestiones éticas y legales, se decidió que el software solo designaría a las personas como "personas de interés". Aunque el propósito de la tecnología era ayudar a erradicar las emboscadas, nunca llegaría tan lejos como para etiquetar a nadie como una “amenaza”.

Se esperaba que esto evitara que un soldado llegara a una conclusión equivocada. También tenía un fundamento legal, según Brian Williams, miembro adjunto del personal de investigación del Instituto de Análisis de Defensa que dirigió el grupo asesor. Ningún tribunal ha afirmado positivamente que una máquina pueda designar legalmente a una persona como una amenaza, afirma. (Por otra parte, añade, ningún tribunal había determinado específicamente que sería ilegal tampoco, y reconoce que no todos los operadores militares necesariamente compartirían la lectura cautelosa de la ley por parte de su grupo). Según Williams, DARPA inicialmente quería que URSA fuera capaz de discernir de forma autónoma la intención de una persona; Esta característica también fue eliminada a instancias del grupo.

Bowman dice que el enfoque de Palantir es trabajar "ineficiencias diseñadas" en "puntos del proceso de toma de decisiones en los que realmente se desea ralentizar las cosas". Por ejemplo, la salida de una computadora que apunta a un movimiento de tropas enemigas, dice, podría requerir que un usuario busque una segunda fuente de inteligencia que lo corrobore antes de proceder con una acción (en el video, la Plataforma de Inteligencia Artificial no parece hacer esto ).

"Si las personas de interés se identifican en una pantalla como puntos rojos, eso tendrá una implicación subconsciente diferente que si las personas de interés se identifican en una pantalla como caritas felices".

En el caso de AIP, Bowman dice que la idea es presentar la información de tal manera “que el espectador entienda, el analista entienda, esto es sólo una sugerencia”. En la práctica, proteger el juicio humano del dominio de una máquina seductora e inteligente podría reducirse a pequeños detalles de diseño gráfico. "Si las personas de interés se identifican en una pantalla como puntos rojos, eso tendrá una implicación subconsciente diferente que si las personas de interés se identifican en una pantalla como caritas felices", dice Rebecca Crootof, profesora de derecho en la Universidad de Richmond. , quien ha escrito extensamente sobre los desafíos de la responsabilidad en las armas autónomas con humanos en el circuito.

Sin embargo, en algunos entornos, es posible que los soldados solo quieran un botón de "Creo". Originalmente, DARPA concibió URSA como un dispositivo de muñeca para soldados en el frente. “En la primera reunión del grupo de trabajo dijimos que eso no era aconsejable”, me dijo Williams. El tipo de ineficiencia diseñada necesaria para un uso responsable simplemente no sería practicable para usuarios que tienen balas silbando junto a sus oídos. En lugar de ello, construyeron un sistema informático que cuenta con un operador dedicado, muy por detrás de la acción.

Pero algunos sistemas de apoyo a la toma de decisiones definitivamente están diseñados para el tipo de toma de decisiones en una fracción de segundo que ocurre justo en el meollo del proceso. El ejército estadounidense ha dicho que ha logrado, en pruebas reales, acortar su propio ciclo de selección de objetivos de 20 minutos a 20 segundos. El mercado tampoco parece haber abrazado el espíritu de moderación. En videos de demostración publicados en línea, los cuadros delimitadores de las miras computarizadas tanto de Elbit como de Smartshooter son de color rojo sangre.

Otras veces, la computadora tendrá razón y el humano se equivocará.

Si el soldado en la azotea hubiera dudado de la mira y hubiera resultado que la silueta era en realidad un francotirador enemigo, sus compañeros de equipo podrían haber pagado un alto precio por su fracción de segundo de vacilación.

Esta es una fuente diferente de problemas, mucho menos discutida pero no menos probable en el combate del mundo real. Y pone al ser humano en una especie de aprieto. A los soldados se les pedirá que traten a sus asistentes digitales con suficiente desconfianza como para salvaguardar la santidad de su juicio. Pero con máquinas que a menudo tienen razón, esta misma renuencia a ceder ante la computadora puede convertirse en sí misma en un punto de falla evitable.

En la historia de la aviación no faltan casos en los que la negativa de un piloto humano a prestar atención a la máquina provocó una catástrofe. Estas almas (normalmente fallecidas) no han sido vistas con buenos ojos por los investigadores que intentan explicar la tragedia. Carol J. Smith, científica investigadora principal del Instituto de Ingeniería de Software de la Universidad Carnegie Mellon que ayudó a elaborar directrices de IA responsable para la Unidad de Innovación de Defensa del Departamento de Defensa, no ve ningún problema: “Si la persona en ese momento siente que la decisión es incorrecta, Ellos toman la decisión y tendrán que enfrentar las consecuencias”.

Para otros, éste es un perverso enigma ético. La erudita MC Elish ha sugerido que un ser humano colocado en este tipo de bucle imposible podría terminar sirviendo como lo que ella llama una “zona de crisis moral”. En caso de un accidente, independientemente de si el ser humano se equivocó, la computadora se equivocó o ambos se equivocaron juntos, la persona que tomó la “decisión” absorberá la culpa y protegerá a todos los demás a lo largo de la cadena de mando de toda la responsabilidad. impacto de la rendición de cuentas.

En un ensayo, Smith escribió que la “persona peor pagada” no debería “cargar con esta responsabilidad”, y tampoco “la persona mejor pagada”. En cambio, me dijo, la responsabilidad debería repartirse entre todos los involucrados, y la introducción de la IA no debería cambiar nada acerca de esa responsabilidad.

En la práctica, esto es más difícil de lo que parece. Crootof señala que incluso hoy en día “no hay mucha responsabilidad por los accidentes en la guerra”. A medida que las herramientas de inteligencia artificial se vuelven más grandes y complejas, y que las cadenas de destrucción se vuelven más cortas y más parecidas a redes, encontrar a las personas adecuadas a quienes culpar se convertirá en una tarea aún más laberíntica.

No es probable que quienes escriben estas herramientas y las empresas para las que trabajan carguen con la culpa. La creación de software de inteligencia artificial es un proceso largo e iterativo, que a menudo se basa en código fuente abierto, que se encuentra muy alejado de los hechos materiales reales de la perforación de carne con metal. Y salvo que se produzcan cambios significativos en la legislación estadounidense, los contratistas de defensa generalmente están protegidos de toda responsabilidad, afirma Crootof.

Las empresas dicen que quieren una IA ética. Pero quienes trabajan en este campo dicen que la ambición viene a su costa.

Mientras tanto, cualquier apuesta por la rendición de cuentas en los niveles superiores del mando probablemente se vería obstaculizada por el pesado velo de clasificación gubernamental que tiende a ocultar la mayoría de las herramientas de apoyo a las decisiones de IA y la forma en que se utilizan. La Fuerza Aérea de EE. UU. no ha sido comunicativa sobre si su IA ha sido siquiera utilizada en el mundo real. Shanahan dice que los modelos de IA de Maven se implementaron para análisis de inteligencia poco después del lanzamiento del proyecto, y en 2021 el secretario de la Fuerza Aérea dijo que recientemente se habían aplicado "algoritmos de IA" "por primera vez a una cadena de muerte operativa en vivo", con un El portavoz de la Fuerza Aérea en ese momento agregó que estas herramientas estaban disponibles en los centros de inteligencia de todo el mundo "cuando fuera necesario". Pero Laura McAndrews, portavoz de la Fuerza Aérea, dijo que, de hecho, estos algoritmos “no se aplicaron en una cadena de muerte operativa y en vivo” y se negó a detallar cualquier otro algoritmo que pueda o no haberse utilizado desde entonces.

La verdadera historia podría permanecer oculta durante años. En 2018, el Pentágono emitió una determinación que exime al Proyecto Maven de las solicitudes de Libertad de Información. El año pasado, entregó todo el programa a la Agencia Nacional de Inteligencia Geoespacial, que es responsable de procesar la gran cantidad de vigilancia aérea secreta de Estados Unidos. Respondiendo a preguntas sobre si los algoritmos se utilizan en cadenas de destrucción, Robbin Brooks, portavoz de la NGA, dijo a MIT Technology Review: "No podemos hablar de detalles específicos sobre cómo y dónde se utiliza Maven".

En cierto sentido, lo nuevo aquí también es viejo. Rutinariamente ponemos nuestra seguridad (de hecho, toda nuestra existencia como especie) en manos de otras personas. Quienes toman las decisiones, a su vez, se remiten a máquinas que no comprenden del todo.

En un exquisito ensayo sobre automatización publicado en 2018, en un momento en el que el apoyo operativo a la toma de decisiones basado en IA todavía era una rareza, el exsecretario de la Marina Richard Danzig señaló que si un presidente “decide” ordenar un ataque nuclear, no será porque Cualquiera ha mirado por la ventana de la Oficina Oval y ha visto misiles enemigos cayendo sobre DC, sino, más bien, porque esos misiles han sido detectados, rastreados e identificados (esperemos que sea correcto) mediante algoritmos de la red de defensa aérea.

Como en el caso de un comandante que solicita un ataque de artillería siguiendo el consejo de un chatbot, o de un fusilero que aprieta el gatillo con solo ver un cuadro delimitador rojo, “lo máximo que se puede decir es que 'un ser humano está involucrado'”, escribió Danzig.

"Esta es una situación común en la era moderna", escribió. "Los humanos que toman decisiones son jinetes que viajan a través de terrenos oscuros con poca o ninguna capacidad para evaluar las poderosas bestias que los transportan y guían".

Puede haber una alarmante racha de derrotismo entre las personas responsables de garantizar que estas bestias no terminen devorándonos. Durante una serie de conversaciones que tuve mientras informaba esta historia, mi interlocutor llegaba a una nota aleccionadora de aquiescencia ante la perpetua inevitabilidad de la muerte y la destrucción que, si bien es trágica, no se puede atribuir a ningún ser humano en particular. La guerra es complicada, las tecnologías fallan de manera impredecible y eso es sólo eso.

“En la guerra”, dice Bowman de Palantir, “[en] la aplicación de cualquier tecnología, y mucho menos de la IA, hay cierto grado de daño que se intenta causar, que hay que aceptar, y el juego es la reducción del riesgo. "

Es posible, aunque aún no se ha demostrado, que llevar la inteligencia artificial a la batalla pueda significar menos víctimas civiles, como suelen afirmar sus defensores. Pero podría haber un costo oculto al unir irrevocablemente el juicio humano y el razonamiento matemático en esos momentos finales de la guerra, un costo que se extiende más allá de un simple resultado final utilitario. Tal vez algo simplemente no puede estar bien, no debería estar bien, en cuanto a elegir el momento y la forma en que una persona muere de la misma manera que pides un viaje en Uber.

Para una máquina, esto podría ser una lógica subóptima. Pero para ciertos humanos, ese es el punto. "Uno de los aspectos del juicio, como capacidad humana, es que se realiza en un mundo abierto", dice Lucy Suchman, profesora emérita de antropología en la Universidad de Lancaster, que ha estado escribiendo sobre los dilemas de la interacción hombre-máquina durante cuatro años. décadas.

Los parámetros de las decisiones de vida o muerte (conocer el significado de la ropa limpia que cuelga de una ventana y al mismo tiempo querer que tus compañeros de equipo no mueran) son “irreduciblemente cualitativos”, dice. El caos, el ruido y la incertidumbre, el peso de lo que está bien y lo que está mal en medio de toda esa furia: nada de esto puede definirse en términos algorítmicos. En cuestiones de vida o muerte, no existe un resultado computacional perfecto. “Y de ahí viene la responsabilidad moral”, dice. "Estás emitiendo un juicio".

La mira nunca aprieta el gatillo. El chatbot nunca presiona el botón. Pero cada vez que una máquina asume un nuevo papel que reduce lo irreductible, podemos estar un poco más cerca del momento en que el acto de matar sea más mecánico que humano, cuando la ética se convierta en una fórmula y la responsabilidad se convierta en poco más que una abstracción. . Si estamos de acuerdo en que no queremos dejar que las máquinas nos lleven hasta allí, tarde o temprano tendremos que preguntarnos: ¿Dónde está el límite?

Arthur Holland Michel escribe sobre tecnología. Tiene su base en Barcelona y se le puede encontrar, ocasionalmente, en Nueva York.

Esta historia fue parte de nuestra edición de septiembre/octubre de 2023.

La compañía espera que hacer que LLaMA 2 sea de código abierto le dé ventaja sobre rivales como OpenAI.

La ciencia está a punto de volverse mucho más apasionante y eso nos afectará a todos, sostiene el ex director ejecutivo de Google.

La prueba de Turing moderna mediría lo que una IA puede hacer en el mundo, no sólo su apariencia. ¿Y qué es más revelador que ganar dinero?

PhotoGuard, creado por investigadores del MIT, altera las fotografías de maneras que son imperceptibles para nosotros, pero evita que los sistemas de inteligencia artificial modifiquen ellas.

Descubra ofertas especiales, noticias destacadas, próximos eventos y más.

¡Gracias por enviar tu correo electrónico!

Parece que algo salió mal.

Estamos teniendo problemas para guardar sus preferencias. Intente actualizar esta página y actualizarla una vez más. Si continúa recibiendo este mensaje, comuníquese con nosotros a [email protected] con una lista de los boletines que le gustaría recibir.

() La gama de criterios que intervienen en la toma de decisiones militares es enorme. Y no siempre hace falta una superinteligencia artificial para prescindir de ellos por medios automatizados."Si las personas de interés se identifican en una pantalla como puntos rojos, eso tendrá una implicación subconsciente diferente que si las personas de interés se identifican en una pantalla como caritas felices".