Slaughterbots es un video de 2017 en defensa del control de armas que presenta un escenario dramatizado de un futuro cercano en el que enjambres de microdrones económicos utilizan inteligencia artificial y software de reconocimiento facial para asesinar a oponentes políticos según criterios preprogramados. Fue publicado por el Future of Life Institute y Stuart Russell , profesor de informática en Berkeley . [1] En YouTube , el video se volvió viral rápidamente, obtuvo más de dos millones de visitas [2] [3] y se proyectó en la reunión de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales en Ginebra el mismo mes. [4]
La implicación de la película de que enjambres de estos "robots asesinos" ( armas autónomas voladoras letales en miniatura ) podrían convertirse en verdaderas armas de destrucción masiva en un futuro cercano resultó controvertida. [2] [5] [6]
Una secuela, Slaughterbots – if human: kill() (2021), presentó escenarios hipotéticos adicionales de ataques a civiles y nuevamente pidió a la ONU que prohibiera las armas autónomas que apuntan a las personas. [7]
La dramatización, de siete minutos de duración, se desarrolla en un futuro cercano al estilo de Black Mirror . [8] [9] Se pueden programar pequeños drones autónomos del tamaño de la palma de la mano que utilizan reconocimiento facial y explosivos con formas para buscar y eliminar individuos o clases de individuos conocidos (como individuos que visten un uniforme militar enemigo). Un ejecutivo de tecnología presenta el argumento de que las armas nucleares ahora están "obsoletas": un pedido de 25 millones de dólares de drones "imparables" puede matar a media ciudad. A medida que se desarrolla el video, la tecnología es reutilizada por partes desconocidas para asesinar a oponentes políticos, desde congresistas en funciones hasta activistas estudiantiles identificados a través de sus perfiles de Facebook . En una escena, los drones en enjambre se coordinan entre sí para ingresar a un edificio: un dron más grande hace un agujero en una pared para dar acceso a los más pequeños. [1] [10] [11]
La dramatización es seguida por una súplica de cuarenta segundos de Russell: “Este cortometraje es más que una mera especulación; muestra los resultados de integrar y miniaturizar tecnologías que ya tenemos … El potencial de la IA para beneficiar a la humanidad es enorme, incluso en defensa, pero permitir que las máquinas elijan matar humanos será devastador para nuestra seguridad y libertad”. [10] [12]
Según Russell, "Lo que estábamos tratando de mostrar era la propiedad de las armas autónomas de convertirse en armas de destrucción masiva automáticamente porque puedes lanzar tantas como quieras... y por eso pensamos que un video lo dejaría muy claro". Russell también expresó su deseo de reemplazar la concepción poco realista e inútil de Hollywood al estilo Terminator de las armas autónomas por algo más realista. [13] El video fue producido por Space Digital en MediaCityUK y dirigido por Stewart Sugg con tomas en locaciones de la Universidad de Hertfordshire [14] y en Edimburgo . Se eligió Edimburgo porque los cineastas "necesitaban calles que estuvieran vacías un domingo por la mañana" para las tomas de la policía armada patrullando calles desiertas, y porque la ubicación es reconocible para el público internacional. [15] Todos los drones se agregaron en posproducción. [13] [16]
En diciembre de 2017, The Economist evaluó la viabilidad de los Slaughterbots en relación con los programas de microdrones MAST y DCIST de EE. UU. MAST tiene actualmente un ciclocóptero que pesa menos de 30 gramos, pero que tiene la desventaja de que se ve fácilmente perturbado por su propia turbulencia reflejada cuando está demasiado cerca de una pared. Otro candidato es algo así como Salto, un robot saltador de 98 gramos , que se desempeña mejor que los ciclocópteros en espacios reducidos. El nivel de coordinación autónoma entre drones mostrado en Slaughterbots no estaba disponible, a partir de 2017, pero eso está comenzando [ ¿cuándo? ] a cambiar, [¿ según quién? ] con enjambres de drones que se utilizan para exhibiciones aéreas . En general, The Economist estuvo de acuerdo en que los "robots asesinos" pueden volverse factibles en un futuro previsible: "En 2008, un dron espía que pudieras sostener en la palma de tu mano era una idea de ciencia ficción. Estos drones son ahora algo común ... Cuando el DCIST concluya en 2022, la idea de los robots asesinos puede parecer mucho menos ficticia de lo que parece ahora". The Economist es escéptico de que el control de armas pueda evitar tal militarización de los enjambres de drones: "Como alguien dijo sobre las armas nucleares después de que se detonara la primera, el único secreto que vale la pena guardar ahora ha salido a la luz: las malditas cosas funcionan". [1]
En abril de 2018, el Centro gubernamental suizo de drones y robótica , haciendo referencia a Slaughterbots , probó una carga con forma de 3 gramos en un modelo de cabeza y concluyó que "las lesiones son tan graves que las posibilidades de supervivencia son muy pequeñas". [17] [18]
En 2020 [actualizar], DARPA estaba trabajando activamente en prototipos preoperacionales que pondrían enjambres de drones letales autónomos a disposición del ejército estadounidense. [19]
En diciembre de 2017, Paul Scharre, del Centro para una Nueva Seguridad Estadounidense , cuestionó la viabilidad del escenario del video, afirmando que "toda tecnología militar tiene una contramedida, y las contramedidas contra los drones pequeños ni siquiera son hipotéticas. El gobierno de los EE. UU. está trabajando activamente en formas de derribar, bloquear, freír, piratear, atrapar o derrotar de alguna otra manera a los drones pequeños. Los microdrones en el video podrían ser derrotados por algo tan simple como una malla de alambre. El video muestra drones con carga útil más pesada que abren agujeros en las paredes para que otros drones puedan ingresar, pero la solución es simplemente defensas en capas". Scharre también afirmó que la propuesta implícita de Russell, un tratado legalmente vinculante que prohíba las armas autónomas, "no resolverá los problemas reales que enfrenta la humanidad a medida que la autonomía avanza en las armas. Una prohibición no impedirá que los terroristas fabriquen armas robóticas caseras rudimentarias ... De hecho, ni siquiera está claro si una prohibición prohibiría las armas que se muestran en el video, que en realidad son bastante discriminatorias". [2]
En enero de 2018, Stuart Russell y otros tres autores respondieron a Scharre en detalle. Su desacuerdo se centró principalmente en la cuestión de si los "robots asesinos", tal como se presentan en el video, eran "armas de destrucción masiva (ADM) potencialmente escalables". Concluyeron que "nosotros, y muchos otros expertos, seguimos considerando plausible la opinión de que las armas autónomas pueden convertirse en armas de destrucción masiva escalables. La afirmación de Scharre de que una prohibición será ineficaz o contraproducente es incoherente con los antecedentes históricos. Finalmente, la idea de que la seguridad humana se verá mejorada por una carrera armamentística no regulada en el campo de las armas autónomas es, en el mejor de los casos, una ilusión". [5]
Matt McFarland, de la CNN, opinó que "quizás la película más distópica y de pesadilla de 2017 no vino de Hollywood". McFarland también afirmó que el debate sobre la prohibición de los robots asesinos había tomado un giro "sensacionalista": en 2015, "se basaron en cartas abiertas y peticiones con lenguaje académico", y utilizaron un lenguaje seco como "cuadricópteros armados". Ahora, en 2017, "advierten sobre 'robots asesinos ' ". [20]
Andrew Yang se vinculó a Slaughterbots desde un tuit durante su candidatura a las primarias presidenciales de Estados Unidos en 2020. [21]
El vídeo de la secuela, publicado el 30 de noviembre de 2021, tuvo más de dos millones de visitas en YouTube hasta el 8 de diciembre. [22]