stringtranslate.com

Asociación sobre IA

Logotipo de la Asociación sobre IA

Partnership on Artificial Intelligence to Benefit People and Society, también conocida como Partnership on AI, es una coalición sin fines de lucro comprometida con el uso responsable de la inteligencia artificial . Desde su creación en septiembre de 2016, PAI (Partnership on AI) reunió a miembros de más de 90 empresas y organizaciones sin fines de lucro para explorar recomendaciones de mejores prácticas para la comunidad tecnológica. [1]

Historia

La Asociación sobre IA se anunció públicamente el 28 de septiembre de 2016 con los miembros fundadores Amazon , Facebook , Google , DeepMind , Microsoft e IBM , con los copresidentes interinos Eric Horvitz de Microsoft Research y Mustafa Suleyman de DeepMind. [2] [3] [4] [5] Más de 100 socios del mundo académico, la sociedad civil, la industria y organizaciones sin fines de lucro son organizaciones miembros en 2019. [6]

En enero de 2017, el jefe de desarrollo avanzado de Apple para Siri , Tom Gruber , se unió a la asociación en el directorio de AI. [7] En octubre de 2017, Terah Lyons se unió a Partnership on AI como directora ejecutiva fundadora de la organización. [8] Lyons aportó a la organización su experiencia en gobernanza tecnológica, con un enfoque específico en inteligencia artificial, inteligencia artificial y políticas de robótica, y anteriormente se desempeñó como asesora de políticas de la directora de tecnología de los Estados Unidos, Megan Smith . Lyons fue reemplazada por Rebecca Finlay, miembro de la junta directiva de Partnership on AI, como directora ejecutiva interina. Finlay fue nombrado director ejecutivo de Partnership on AI el 26 de octubre de 2021.

En octubre de 2017, Terah Lyons se unió a Partnership on AI como directora ejecutiva fundadora de la organización. Lyons aportó a la organización su experiencia en gobernanza tecnológica, con un enfoque específico en inteligencia artificial, inteligencia artificial y políticas de robótica, y anteriormente se desempeñó como asesora de políticas de la directora de tecnología de los Estados Unidos, Megan Smith . Lyons fue reemplazada por Rebecca Finlay, miembro de la junta directiva de Partnership on AI, como directora ejecutiva interina. Finlay fue nombrado director ejecutivo de Partnership on AI el 26 de octubre de 2021.

En octubre de 2018, Baidu se convirtió en la primera empresa china en unirse a la asociación. [9]

En noviembre de 2020, la Asociación sobre IA anunció la Base de datos de incidentes de IA (AIID), [10] que es una herramienta para identificar, evaluar, gestionar y comunicar los riesgos y daños de la IA.

En agosto de 2021, la Asociación sobre IA presentó una respuesta al Instituto Nacional de Estándares y Tecnología (NIST). La respuesta proporcionó ejemplos del trabajo de PAI relacionado con la gestión de riesgos de IA, como el informe Safety Critical AI sobre la publicación responsable de investigaciones de IA, el proyecto ABOUT ML sobre documentación y transparencia en los ciclos de vida del aprendizaje automático y la base de datos de incidentes de IA. [11] La respuesta también destacó cómo la base de datos de incidentes de IA involucra algunos de los atributos mínimos en el RMF de IA del NIST, como estar impulsado por el consenso, basado en riesgos, adaptable y consistente con otros enfoques para gestionar el riesgo de IA. [11]

El 26 de octubre de 2021, Rebecca Finlay fue nombrada directora ejecutiva. [12]

En febrero de 2023, la Asociación sobre IA (PAI) lanzó un marco novedoso destinado a guiar el desarrollo ético y el uso de medios sintéticos. Esta iniciativa contó con el respaldo de una variedad de socios iniciales, incluidas entidades notables como Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS y las nuevas empresas de medios sintéticos Synthesia, D-ID y Respeecher. El marco, que enfatiza la transparencia, la creatividad y la seguridad, fue el resultado de un proceso de colaboración de un año de duración que involucró contribuciones de una amplia gama de partes interesadas, incluidas nuevas empresas de medios sintéticos, plataformas de redes sociales, organizaciones de noticias, grupos de defensa, instituciones académicas, autoridades. profesionales y comentaristas públicos. [13]

Misión y Principios

La asociación en materia de IA tiene un enfoque múltiple para lograr impacto. Sus iniciativas se dividen en cinco programas diferentes: IA e integridad de los medios; IA, trabajo y economía; justicia, transparencia y rendición de cuentas; investigación y diseño inclusivos; y seguridad para la IA. Estos programas tienen como objetivo producir valor a través de productos específicos, herramientas metodológicas y artículos. [14]

A través del programa sobre IA e integridad de los medios, PAI se esfuerza activamente por establecer las mejores prácticas que garanticen la influencia positiva de la IA en el ecosistema de información global. Al reconocer el potencial de la IA para facilitar contenido dañino en línea y amplificar las narrativas negativas existentes, PAI se compromete a mitigar estos riesgos y fomentar una presencia responsable de la IA. [15]

El programa IA, Trabajo y Economía sirve como una plataforma colaborativa que une a economistas, organizaciones representativas de los trabajadores y socios de PAI para formular una respuesta cohesiva sobre cómo la IA puede contribuir a un futuro económico inclusivo. La reciente publicación de las "Directrices para la IA y la prosperidad compartida" de PAI el 7 de junio de 2023 describe un plan para el uso juicioso de la IA en varias etapas, guiando a las organizaciones, los formuladores de políticas y las entidades laborales. [dieciséis]

El programa Equidad, Transparencia y Responsabilidad, junto con el programa Investigación y Diseño Inclusivos, se esfuerza por remodelar el panorama de la IA hacia la justicia y la equidad. Al explorar las intersecciones entre la IA y los valores humanos fundamentales, la primera establece pautas para la equidad, explicabilidad y responsabilidad algorítmica. Al mismo tiempo, este último empodera a las comunidades al brindar pautas sobre la creación conjunta de soluciones de IA, fomentando la inclusión en todo el proceso de investigación y diseño. [17] [18]

El programa Safety Critical AI aborda el creciente despliegue de sistemas de IA en sectores fundamentales como la medicina, las finanzas, el transporte y las redes sociales. Centrándose en anticipar y mitigar riesgos potenciales, el programa reúne a socios y partes interesadas para desarrollar mejores prácticas que abarquen todo el ciclo de vida de la investigación y el desarrollo de la IA. Las iniciativas notables incluyen el establecimiento de la base de datos de incidentes de IA, la formulación de normas para la publicación responsable y la creación del innovador entorno de aprendizaje de IA SafeLife. [19]

La asociación también se basa en bases temáticas que impulsan el enfoque de Partnership on AI. Además de los programas mencionados anteriormente, Partnership on AI busca ampliar el impacto social de la IA, fomentando la utilidad social positiva. La organización ha destacado los beneficios potenciales de la IA en el bienestar público, la educación, la sostenibilidad, etc. Con estos casos de uso específicos, Partnership on AI está desarrollando un marco ético en el que analizar y medir la eficacia ética de la IA. El marco ético pone énfasis en prácticas participativas inclusivas que mejoran la equidad en la IA. [20]

Programas e iniciativas

La Asociación sobre IA ha participado en varias iniciativas destinadas a promover el uso responsable de la IA. Una de sus iniciativas clave es el desarrollo de un marco para el despliegue seguro de modelos de IA. Este marco guía a los proveedores de modelos en el desarrollo e implementación de modelos de IA de una manera que garantice la seguridad de la sociedad y pueda adaptarse a las capacidades y usos en evolución. [21]

En colaboración con DeepMind, Partnership on AI también lanzó un estudio para investigar las altas tasas de deserción entre las mujeres y las personas minoritarias en la tecnología. [22]

Reconociendo la importancia de la explicabilidad en la IA, la Asociación sobre IA organizó un taller presencial de un día de duración centrado en el despliegue de la “inteligencia artificial explicable” (XAI). Este evento reunió a expertos de diversas industrias para discutir y explorar el concepto de XAI. [23]

Terah Lyons, directora ejecutiva de Partnership on AI, hablando en la Cumbre Mundial AI for Good 2018, 15-17 de mayo de 2018, Ginebra

En un esfuerzo por apoyar la integridad de la información, la Asociación sobre IA colaboró ​​con First Draft para investigar estrategias efectivas para abordar el contenido engañoso en línea. [24] Esta iniciativa refleja el enfoque metódico de la organización para identificar y promover las mejores prácticas en IA.

La Asociación sobre IA también está creando recursos para facilitar la participación efectiva entre los profesionales de la IA y las comunidades afectadas. [25]

En noviembre de 2020, la Asociación sobre IA anunció la Base de datos de incidentes de IA (AIID), un proyecto dedicado a indexar el historial colectivo de daños o cuasi daños ocurridos en el mundo real mediante el despliegue de sistemas de inteligencia artificial. El AIID, que pasó a ser una nueva organización independiente sin fines de lucro con fines especiales en 2022, sirve como un recurso valioso para comprender y mitigar los riesgos potenciales asociados con la IA. [26]

Más recientemente, PAI llevó a cabo el Foro de Políticas 2023 de PAI. Este evento, celebrado en Londres, fue una reunión de diversas partes interesadas para explorar las tendencias recientes en las políticas de IA a nivel mundial y las estrategias para garantizar la seguridad de la IA. Durante el evento, la Asociación sobre IA (PAI) dio a conocer su "Guía para la implementación del modelo de base segura" para recibir comentarios del público. Esta guía, formada por el Comité Directivo de IA Crítica para la Seguridad y las contribuciones de la red mundial de PAI, ofrece principios flexibles para gestionar los riesgos relacionados con la implementación de IA a gran escala. Entre los participantes se encontraban formuladores de políticas, profesionales de la inteligencia artificial, miembros de la filantropía y de la sociedad civil, y expertos académicos. [27]

Socios y miembros

La Junta Directiva de la Asociación sobre IA (PAI) a partir de 2023 incluye:

Críticas

En octubre de 2020, Access Now anunció su renuncia oficial a PAI en una carta. Access Now afirmó que había descubierto que la sociedad civil desempeñaba un papel cada vez menor dentro de PAI y que PAI no había influido ni cambiado la actitud de las empresas miembros ni las había alentado a responder o consultar con la sociedad civil de forma sistemática. Access Now también expresó su desacuerdo con el enfoque de PAI sobre la ética y la evaluación de riesgos de la IA, y su defensa de una prohibición total de tecnologías que son fundamentalmente incompatibles con los derechos humanos, como el reconocimiento facial u otras tecnologías biométricas que permiten la vigilancia masiva. [29]

Referencias

  1. ^ Belfield, Haydn (7 de febrero de 2020). "Activismo de la comunidad de IA: análisis de logros recientes y perspectivas futuras". Actas de la Conferencia AAAI/ACM sobre IA, ética y sociedad . AIE '20. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 15-21. doi :10.1145/3375627.3375814. ISBN 978-1-4503-7110-0.
  2. ^ Hern, Alex (28 de septiembre de 2016). "'Asociación en IA 'formada por Google, DeepMind, Facebook, Amazon, IBM y Microsoft | Tecnología ". El guardián . Consultado el 29 de septiembre de 2016 .
  3. ^ Aguas, Richard (29 de septiembre de 2016). "La IA es la 'próxima gran novedad' de la que debemos preocuparnos". Tiempos financieros . Consultado el 29 de septiembre de 2016 .
  4. ^ Bindi, Tas (29 de septiembre de 2016). "Amazon, Google, Facebook, IBM y Microsoft forman una organización sin fines de lucro de inteligencia artificial". ZDNet . Consultado el 29 de septiembre de 2016 .
  5. ^ Rubin, Ben Fox; Cheng, Roger (29 de septiembre de 2016). "¡Los Super Amigos de la IA se reúnen! (El 3:59, Ep. 115)". CNET. Archivado desde el original el 30 de septiembre de 2016 . Consultado el 29 de septiembre de 2016 .
  6. ^ "Nuevos socios para reforzar la perspectiva de una IA responsable". 24 de septiembre de 2019.
  7. ^ Tilley, Aaron (27 de enero de 2017). "Por qué Apple se unió a sus rivales Amazon, Google y Microsoft en una asociación de inteligencia artificial". Forbes . Consultado el 2 de febrero de 2017 .
  8. ^ "Partnership on AI anuncia a la directora ejecutiva Terah Lyons y da la bienvenida a nuevos socios: The Partnership on AI". La Asociación sobre IA . 2017-10-17 . Consultado el 10 de septiembre de 2018 .
  9. ^ Taylor, Chloe (17 de octubre de 2018). "Baidu se convierte en la primera empresa china en unirse al organismo de inteligencia artificial liderado por Estados Unidos". CNBC . Archivado desde el original el 3 de noviembre de 2018 . Consultado el 17 de octubre de 2018 .
  10. ^ McGregor, Sean (18 de noviembre de 2020). "Cuando fallan los sistemas de IA: presentación de la base de datos de incidentes de IA". asociaciononai.org . Asociación sobre IA . Consultado el 21 de noviembre de 2020 . Para evitar fallos repetidos de la IA es necesario dar a conocer los fallos del pasado. Por lo tanto, hoy presentamos una colección sistematizada de incidentes en los que los sistemas inteligentes han causado problemas de seguridad, equidad u otros problemas del mundo real: la base de datos de incidentes de IA (AIID).
  11. ^ ab Hongo, Hudson (1 de octubre de 2021). "PAI envía respuesta a la solicitud de información del NIST sobre el marco de gestión de riesgos de IA". Asociación sobre IA . Consultado el 5 de diciembre de 2023 .
  12. ^ "Rebecca Finlay nombrada directora ejecutiva: una carta de Eric Horvitz, presidente de la junta directiva". Asociación sobre IA . 2021-10-26 . Consultado el 18 de marzo de 2022 .
  13. ^ Sosa, Penélope (27 de febrero de 2023). "Líderes y defensores de la industria lanzan un marco para el uso responsable de los medios generados por IA". Asociación sobre IA . Consultado el 5 de diciembre de 2023 .
  14. ^ "OSF". osf.io. ​Consultado el 6 de diciembre de 2023 .
  15. ^ "IA e integridad de los medios". Asociación sobre IA . Consultado el 6 de diciembre de 2023 .
  16. ^ "IA, trabajo y economía". Asociación sobre IA . Consultado el 6 de diciembre de 2023 .
  17. ^ "Equidad, transparencia y responsabilidad y ACERCA del aprendizaje automático". Asociación sobre IA . Consultado el 6 de diciembre de 2023 .
  18. ^ "Investigación y diseño inclusivos". Asociación sobre IA . Consultado el 6 de diciembre de 2023 .
  19. ^ "IA crítica para la seguridad". Asociación sobre IA . Consultado el 6 de diciembre de 2023 .
  20. ^ Morandín-Ahuerma, Fabio. "OSF". osf.io.doi : 10.31219/osf.io/sj2z5 . Consultado el 6 de diciembre de 2023 .
  21. ^ "Guía de PAI para la implementación del modelo de base segura". Asociación sobre IA . Consultado el 3 de diciembre de 2023 .
  22. ^ "Investigación de los desafíos a la diversidad en la IA". Asociación sobre IA . 2021-01-30 . Consultado el 3 de diciembre de 2023 .
  23. ^ "Convención entre industrias". Asociación sobre IA . 2021-01-30 . Consultado el 3 de diciembre de 2023 .
  24. ^ "Adoptar un enfoque metódico a las mejores prácticas". Asociación sobre IA . 2021-01-30 . Consultado el 3 de diciembre de 2023 .
  25. ^ "Investigación y diseño inclusivos". Asociación sobre IA . Consultado el 3 de diciembre de 2023 .
  26. ^ "Base de datos de incidentes de IA". Asociación sobre IA . Consultado el 3 de diciembre de 2023 .
  27. ^ "Foro de políticas 2023 de PAI - YouTube". www.youtube.com . Consultado el 5 de diciembre de 2023 .
  28. ^ abcdefghijklm "Nuestro equipo". Asociación sobre IA . Consultado el 5 de diciembre de 2023 .
  29. ^ "Access Now renuncia a la Asociación sobre IA". Accede ahora . Consultado el 5 de diciembre de 2023 .

enlaces externos