Ser "autónomo" tiene diferentes significados según cuales sean los campos de estudio en cuestión.
Varios investigadores han aportado definiciones de lo que constituye un arma autónoma letal.
Según Gubrud, un sistema de armas que funciona parcial o totalmente sin intervención humana se considera autónomo.
En cambio, debe tratarse como autónomo siempre que participe activamente en una o varias partes del "proceso de preparación", desde encontrar el objetivo hasta finalmente disparar.
[4][5] Otras organizaciones, sin embargo, están estableciendo el estándar del sistema de armas autónomo en una posición más alta.
En Corea del Sur e Israel se utilizan varios tipos de armas centinela estacionarias, que pueden disparar contra humanos y vehículos.
La principal razón para no tener un "humano al tanto" (human in the loop) en estos sistemas es la necesidad de una respuesta rápida.
En general, se han utilizado para proteger al personal y las instalaciones contra los proyectiles entrantes.
"[8] El dron Northrop Grumman X-47B puede despegar y aterrizar en portaaviones (demostrado en 2014); está configurado para convertirse en un sistema de vigilancia y ataque aerotransportado lanzado por un portaaviones no tripulado (Unmanned Carrier-Launched Airborne Surveillance and Strike = UCLASS).
UU. alegó que Rusia estaba desarrollando un "nuevo torpedo autónomo submarino intercontinental, con armas nucleares y de propulsión nuclear" llamado Status-6 Poseidón.
UU. , Mark Esper, criticó a China por vender drones capaces de matar sin supervisión humana.
[20] El ejército británico desplegó nuevos vehículos no tripulados y robots militares en 2019.
Esta puede haber sido la primera vez que un robot asesino autónomo provisto de armamento letal ataca a seres humanos.
[30] Los cazadores-asesinos "semiautónomos" que identifican y atacan objetivos de forma autónoma ni siquiera requieren certificación.
[30] El subsecretario de Defensa, Robert O. Work, dijo en 2016 que el Departamento de Defensa "no delegaría la autoridad letal en una máquina para tomar una decisión", pero podría necesitar reconsiderarlo ya que los "regímenes autoritarios" pueden hacerlo.
[39] Esta preocupación se invoca a menudo como una razón para prohibir por completo los "robots asesinos", pero es dudoso que esta preocupación pueda ser un argumento en contra de las LAWS que no violan el Derecho Internacional Humanitario.
[43][38] El filósofo Robert Sparrow argumenta que las armas autónomas son causal pero no moralmente responsables, de manera similar a los niños soldados.
La carta fue presentada en Buenos Aires en la 24ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI-15) y fue firmada conjuntamente por Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, el cofundador de Skype Jaan Tallinn y el cofundador de Google DeepMind Demis Hassabis, entre otros.
[50] La Santa Sede ha pedido a la comunidad internacional que prohíba el uso de las LAWs en varias ocasiones.
[53] Estados Unidos ha declarado que las armas autónomas han ayudado a prevenir la matanza de civiles.