Los pensadores en la actualidad están preocupados por el desarrollo de conciencia en la inteligencia artificial, aunque no necesariamente están enfocados a lo importante, debemos entender que desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes.
Día a día, la aplicación de algoritmos inteligentes se vuelve más común y de estos pueden surgir problemas éticos o raciales, sobre todo cuando el algoritmo se utiliza para realizar una acción social que antes ejercía un humano.
Otra precaución importante es elaborar una seguridad sólida sobre la máquina para así evitar manipulaciones externas del código que puedan resultar en daños a otras personas o industrias.
Una máquina debería seguir los mismos lineamientos que son requeridos de una persona al hacer su trabajo, como responsabilidad, transparencia, productividad e incorruptibilidad.
Además, los propios datos utilizados para entrenar estos sistemas de IA pueden tener sesgos.
[10] Grandes empresas como IBM, Google, etc. se han esforzado por investigar y abordar estos sesgos.
[15] Existen algunas herramientas de código abierto creadas por sociedades civiles que pretenden concienciar sobre la IA sesgada.
Los expertos no están de acuerdo en si se conseguirán establecer leyes específicas y detalladas en un futuro lejano.
Dicha moratoria debía extenderse hasta 2050 y podría llegar a ser ampliada o derogada de manera anticipada, dependiendo del progreso realizado en el entendimiento de los riesgos que pudieran generarse y como mitigarlos.
Son varios los laboratorios que han declarado abiertamente estar intentando desarrollar sistemas de IA conscientes.
[20][21] Es común encontrar noticias o debates sobre la responsabilidad legal, en caso de que dichos automóviles tengan accidentes.
Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles.
Un problema en este caso puede haber sido que los objetivos eran "terminales" (es decir, en contraste, los motivos humanos últimos típicamente tienen la cualidad de requerir un aprendizaje interminable).
También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de cucarachas".
Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral real.
Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si también acabarían desarrollando "debilidades" humanas: egoísmo, actitud de supervivencia, vacilación, etc.
Afirma que la superinteligencia general sería capaz de iniciar sus propios planes, y, por lo tanto, podría considerarse más apropiadamente como un agente autónomo.
Como los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, los diseñadores de la súper-inteligencia deberían especificar sus motivaciones originales.
A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común".
Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación.
Ahora bien, si se llega a crear una inteligencia artificial sensible y que, además, posea la misma capacidad de sapiencia de un adulto humano, la máquina y el humano tendrían el mismo estatus moral.
El estudio examina tres posibles soluciones a este problema: conceder la autoría a la IA y colocar la “creatividad humana” y la “creatividad de las máquinas” al mismo nivel; rechazar la autoría y colocar las obras generadas por IA en el dominio público; o crear un framework sui géneris dedicado únicamente a obras generadas por inteligencia artificial.
Se presentan varias interpretaciones legales de distintas jurisdicciones, como la CDPA (Copyright, Designs and Patents Act 1988), la cual define “obras generadas por ordenador” y atribuye la autoría a la persona encargada de realizar los preparativos para la obra.
[44] Desde una perspectiva consecuencialista, existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre quién matar y por eso debe haber un marco moral establecido que la IA no puede anular.
Muchos gobiernos han comenzado a financiar programas para desarrollar el armamento de AI.
Además, podría terminar con cualquier otro agente, persuadirles a cambiar su comportamiento, o bloquear sus intentos de interferencia.
[48][49] Al menos que la filosofía moral nos proporcione una teoría ética perfecta, la función utilitaria de la IA permitiría la aparición de muchos escenarios potencialmente dañinos que se ajusten a un determinado marco ético pero no al “sentido común”.
Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada de forma artificial presentaría tal adaptación.
Amazon, Google, Facebook, IBM y Microsoft han establecido una asociación sin fines de lucro para formular las mejores prácticas en tecnologías de inteligencia artificial, mejorar la comprensión del público y servir como una plataforma sobre inteligencia artificial.
Un cosmista, según Hugo de Garis, en realidad está buscando construir sucesores más inteligentes para la especie humana.