stringtranslate.com

Inteligencia artificial débil

La inteligencia artificial débil ( IA débil ) es una inteligencia artificial que implementa una parte limitada de la mente o, como la IA estrecha , [1] [2] [3] se centra en una tarea limitada.

La IA débil se contrasta con la IA fuerte , lo que puede interpretarse de varias maneras:

La IA limitada se puede clasificar como "limitada a una única tarea estrechamente definida. La mayoría de los sistemas de IA modernos se clasificarían en esta categoría". [4] La inteligencia artificial general, por el contrario, es lo opuesto.

Aplicaciones y riesgos

Algunos ejemplos de IA limitada son AlphaGo , [5] los coches autónomos , los sistemas robóticos utilizados en el campo médico y los médicos que realizan diagnósticos. Los sistemas de IA limitada a veces son peligrosos si no son fiables y el comportamiento que siguen puede volverse inconsistente. [6] Puede resultar difícil para la IA captar patrones complejos y llegar a una solución que funcione de forma fiable en diversos entornos. Esta "fragilidad" puede hacer que falle de forma impredecible . [7]

Los fallos de la IA en algunos casos pueden tener consecuencias importantes. Por ejemplo, podrían causar interrupciones en la red eléctrica, dañar plantas de energía nuclear, causar problemas económicos globales y desviar la orientación de los vehículos autónomos [1] . Los medicamentos podrían clasificarse y distribuirse incorrectamente. Además, los diagnósticos médicos pueden tener consecuencias graves y, en ocasiones, mortales si la IA es defectuosa o parcial [8] .

Los programas de inteligencia artificial sencillos ya se han introducido en nuestra sociedad sin que nos demos cuenta. Algunos ejemplos son la autocorrección de la escritura, el reconocimiento de voz para los programas de conversión de voz a texto y las amplias expansiones en los campos de la ciencia de datos . [9] Si bien la inteligencia artificial estrecha y relativamente general está empezando a ayudar lentamente a las sociedades, también está empezando a perjudicarlas. La inteligencia artificial ya ha encarcelado injustamente a personas, ha discriminado a las mujeres en el lugar de trabajo para contratarlas, ha enseñado algunas ideas problemáticas a millones de personas e incluso ha matado a personas con automóviles automáticos. [10] La inteligencia artificial puede ser una herramienta poderosa que se puede utilizar para mejorar las vidas, pero también podría ser una tecnología peligrosa con el potencial de un mal uso.

A pesar de ser una IA "estrecha", los sistemas de recomendación son eficientes a la hora de predecir las reacciones de los usuarios en función de sus publicaciones, patrones o tendencias. [11] Por ejemplo, el algoritmo "Para ti" de TikTok puede determinar los intereses o preferencias del usuario en menos de una hora. [12] Algunos otros sistemas de IA de redes sociales se utilizan para detectar bots que pueden estar involucrados en propaganda sesgada u otras actividades potencialmente maliciosas. [13]

IA débil versus IA fuerte

John Searle cuestiona la posibilidad de que exista una IA fuerte (con lo que se refiere a una IA consciente). Además, cree que el test de Turing (creado por Alan Turing y llamado originalmente el "juego de la imitación", utilizado para evaluar si una máquina puede conversar de manera indistinguible de un humano) no es preciso ni apropiado para probar si una IA es "fuerte". [14]

Académicos como Antonio Lieto han argumentado que la investigación actual sobre IA y modelado cognitivo está perfectamente alineada con la hipótesis de IA débil (que no debe confundirse con la distinción entre IA "general" vs "estrecha") y que la suposición popular de que los sistemas de IA inspirados cognitivamente adoptan la hipótesis de IA fuerte está mal planteada y es problemática ya que "los modelos artificiales del cerebro y la mente pueden usarse para comprender los fenómenos mentales sin pretender que son los fenómenos reales que están modelando" [15] (como, por otro lado, implica la suposición de IA fuerte).

Véase también

Referencias

  1. ^ ab Dvorsky, George (1 de abril de 2013). "¿Cuánto tiempo falta para nuestra primera catástrofe de inteligencia artificial?". Gizmodo . Consultado el 27 de noviembre de 2021 .
  2. ^ Muehlhauser, Luke (18 de octubre de 2013). "Ben Goertzel sobre la inteligencia artificial general como campo". Instituto de Investigación de Inteligencia Artificial . Consultado el 27 de noviembre de 2021 .
  3. ^ Chalfen, Mike (15 de octubre de 2015). "Los desafíos de crear aplicaciones de IA". TechCrunch . Consultado el 27 de noviembre de 2021 .
  4. ^ Bartneck, Christoph; Lütge, Christoph; Wagner, Alan; Welsh, Sean (2021). Introducción a la ética en robótica e inteligencia artificial. SpringerBriefs in Ethics. Cham: Springer International Publishing. doi :10.1007/978-3-030-51110-4. ISBN 978-3-030-51109-8.S2CID224869294  .​
  5. ^ Edelman, Gary Grossman (3 de septiembre de 2020). "Estamos entrando en la zona de penumbra de la IA, entre la IA estrecha y la IA general". VentureBeat . Consultado el 16 de marzo de 2024 .
  6. ^ Kuleshov, Andrey; Prokhorov, Sergei (septiembre de 2019). "Dependencia del dominio de las definiciones necesarias para estandarizar y comparar las características de rendimiento de los sistemas de IA débiles". Conferencia internacional de 2019 sobre inteligencia artificial: aplicaciones e innovaciones (IC-AIAI) . Belgrado, Serbia: IEEE. págs. 62–623. doi :10.1109/IC-AIAI48757.2019.00020. ISBN . 978-1-7281-4326-2.S2CID211298012  .​
  7. ^ Staff, Bulletin (23 de abril de 2018). «La promesa y el peligro de las aplicaciones militares de la inteligencia artificial». Bulletin of the Atomic Scientists . Consultado el 2 de octubre de 2024 .
  8. ^ Szocik, Konrad; Jurkowska-Gomułka, Agata (16 de diciembre de 2021). "Desafíos éticos, legales y políticos de la inteligencia artificial: el derecho como respuesta a las amenazas y esperanzas relacionadas con la IA". Futuros mundiales : 1–17. doi :10.1080/02604027.2021.2012876. ISSN  0260-4027. S2CID  245287612.
  9. ^ Earley, Seth (2017). "El problema con la IA". IT Professional . 19 (4): 63–67. doi :10.1109/MITP.2017.3051331. ISSN  1520-9202. S2CID  9382416.
  10. ^ Anirudh, Koul; Siddha, Ganju; Meher, Kasam (2019). Aprendizaje profundo práctico para la nube, los dispositivos móviles y el borde. O'Reilly Media. ISBN 9781492034865.
  11. ^ Kaiser, Carolin; Ahuvia, Aaron; Rauschnabel, Philipp A.; Wimble, Matt (1 de septiembre de 2020). "Monitoreo de redes sociales: ¿Qué pueden aprender los especialistas en marketing de las fotos de marca de Facebook?". Journal of Business Research . 117 : 707–717. doi :10.1016/j.jbusres.2019.09.017. ISSN  0148-2963. S2CID  203444643.
  12. ^ Hyunjin, Kang (septiembre de 2022). "Agencia de IA frente a agencia humana: comprensión de las interacciones entre humanos e IA en TikTok y sus implicaciones para la participación de los usuarios". academic.oup.com . Consultado el 8 de noviembre de 2022 .
  13. ^ Shukla, Rachit; Sinha, Adwitiya; Chaudhary, Ankit (28 de febrero de 2022). "TweezBot: un algoritmo de identificación de bots de medios en línea impulsado por IA para redes sociales de Twitter". Electrónica . 11 (5): 743. doi : 10.3390/electronics11050743 . ISSN  2079-9292.
  14. ^ Liu, Bin (28 de marzo de 2021). "Es probable que la "IA débil" nunca se convierta en una "IA fuerte", entonces ¿cuál es su mayor valor para nosotros?". arXiv : 2103.15294 [cs.AI].
  15. ^ Lieto, Antonio (2021). Diseño cognitivo para mentes artificiales . Londres, Reino Unido: Routledge, Taylor & Francis. pág. 85. ISBN 9781138207929.