Filósofo estadounidense
James H. Moor fue profesor de filosofía intelectual y moral de la cátedra Daniel P. Stone en el Dartmouth College . Obtuvo su doctorado en 1972 en la Universidad de Indiana. [1] El artículo de Moor de 1985 titulado "¿Qué es la ética informática?" lo estableció como uno de los teóricos pioneros en el campo de la ética informática . [2] También ha escrito extensamente sobre el Test de Turing . Su investigación incluye estudios sobre filosofía de la inteligencia artificial , filosofía de la mente , filosofía de la ciencia y lógica .
Moor fue el editor en jefe de Minds and Machines (2001-2010), una revista académica revisada por pares que cubre inteligencia artificial, filosofía y ciencia cognitiva. [3]
Murió el 11 de septiembre de 2024.
Trabajar
Moor enumera cuatro tipos de robots en relación con la ética. Una máquina puede ser más de un tipo de agente. [4]
- Agentes de impacto ético: sistemas de máquinas que tienen un impacto ético, ya sea intencional o no. Moor da el ejemplo de un reloj que hace que un trabajador llegue a tiempo al trabajo. Además de los agentes de impacto ético, existen agentes de impacto no ético. Algunos agentes pueden ser agentes de impacto no ético en ciertos momentos y agentes de impacto ético en otros. Da el ejemplo de lo que él llama un "agente Goodman", llamado así por el filósofo Nelson Goodman . El agente Goodman compara fechas "esto se generó programando fechas anuales utilizando solo los dos últimos dígitos del año, lo que resultó en que las fechas posteriores al 2000 se trataran engañosamente como anteriores a las de fines del siglo XX. Por lo tanto, el agente Goodman fue un agente de impacto ético antes del 2000 y un agente de impacto no ético a partir de entonces".
- Agentes éticos implícitos: máquinas limitadas para evitar resultados poco éticos.
- Agentes éticos explícitos: Máquinas que tienen algoritmos para actuar éticamente.
- Agentes éticos completos: máquinas que son éticas de la misma manera que los humanos (es decir, tienen libre albedrío, conciencia e intencionalidad)
Criticó las Tres Leyes de la Robótica de Asimov , afirmando que si se aplicaran a fondo producirían resultados inesperados. Puso como ejemplo un robot que vaga por el mundo intentando evitar que los humanos sufran daños.
Premios
Publicaciones seleccionadas
Fuente: [6]
- El Fénix digital: cómo las computadoras están cambiando la filosofía, edición revisada (con Terrell Ward Bynum), Oxford: Basil Blackwell Publishers, 2000.
- Ciberfilosofía: la intersección de la filosofía y la informática, (con Terrell Ward Bynum) Oxford: Basil Blackwell Publishers, 2002.
- La prueba de Turing: el elusivo estándar de la inteligencia artificial, Dordrecht: Kluwer Academic Publishers, 2003.
- Nanoética: las implicaciones éticas y sociales de la nanotecnología (con Fritz Allhoff, Patrick Lin y John Weckert), John Wiley & Sons, Inc., 2007.
- The Logic Book, 5ª edición (con Merrie Bergmann y Jack Nelson), Nueva York: McGraw-Hill Publishing Company, 2009.
- Algunas implicaciones de una muestra de pruebas prácticas de Turing (con Kevin Warwick y Huma Shah), Minds and Machines, Springer, 2013. [7]
Referencias
- ^ "Jmoor". Archivado desde el original el 12 de julio de 2018. Consultado el 11 de junio de 2016 .
- ^ "Premio SIGCAS Making a Difference 2003 — SIGCAS - Computers & Society". Archivado desde el original el 8 de agosto de 2016. Consultado el 18 de noviembre de 2010 .
- ^ "Mentes y máquinas".
- ^ Cuatro tipos de robots éticos
- ^ "Premio SIGCAS Making a Difference 2003 — SIGCAS - Computers & Society". Archivado desde el original el 8 de agosto de 2016. Consultado el 18 de noviembre de 2010 .
- ^ "Jmoor". Archivado desde el original el 12 de julio de 2018. Consultado el 11 de junio de 2016 .
- ^ Warwick, Kevin; Shah, Huma; Moor, James (2013). "Algunas implicaciones de una muestra de pruebas prácticas de Turing". Mentes y máquinas . 23 (2): 163–177. doi :10.1007/s11023-013-9301-y. S2CID 13933358.