stringtranslate.com

IA confiable

La IA confiable se refiere a sistemas de inteligencia artificial diseñados e implementados para ser transparentes, robustos y respetuosos de la privacidad de los datos.

La IA confiable utiliza una serie de tecnologías de mejora de la privacidad (PET), que incluyen cifrado homomórfico , aprendizaje federado , computación multipartita segura , privacidad diferencial y prueba de conocimiento cero . [1] [2]

El concepto de IA confiable también abarca la necesidad de que los sistemas de IA sean explicables , responsables y robustos. La transparencia en IA implica hacer que los procesos y las decisiones de los sistemas de IA sean comprensibles para los usuarios y las partes interesadas. La rendición de cuentas garantiza que existan protocolos para abordar los resultados adversos o los sesgos que puedan surgir, con responsabilidades designadas para la supervisión y la remediación. La robustez y la seguridad tienen como objetivo garantizar que los sistemas de IA funcionen de manera confiable en diversas condiciones y estén protegidos contra ataques maliciosos. [3]

Normalización de la UIT

La IA confiable también es un programa de trabajo de la Unión Internacional de Telecomunicaciones , una agencia de las Naciones Unidas , iniciado bajo su programa AI for Good . [2] Su origen se encuentra en el Grupo de Enfoque UIT-OMS sobre Inteligencia Artificial para la Salud , donde la fuerte necesidad de privacidad al mismo tiempo que la necesidad de análisis, creó una demanda de un estándar en estas tecnologías.

Cuando AI for Good pasó a estar en línea en 2020, se inició la serie de seminarios TrustworthyAI para iniciar debates sobre dicho trabajo, lo que finalmente condujo a las actividades de estandarización. [4]

Computación multipartidaria

La computación multipartita segura (MPC) se está estandarizando en el marco de la "Pregunta 5" (la incubadora) del Grupo de Estudio 17 del UIT-T . [5]

Cifrado homomórfico

El cifrado homomórfico permite realizar cálculos con datos cifrados, en los que los resultados siguen estando cifrados y son desconocidos para quienes realizan el cálculo, pero pueden ser descifrados por el cifrador original. A menudo se desarrolla con el objetivo de permitir su uso en jurisdicciones distintas a las de creación de los datos (por ejemplo, en virtud del RGPD ). [ cita requerida ]

La UIT ha colaborado desde las primeras etapas de las reuniones de normalización de HomomorphicEncryption.org , que han desarrollado una norma sobre cifrado homomórfico. La quinta reunión sobre cifrado homomórfico se celebró en la sede de la UIT en Ginebra . [ cita requerida ]

Aprendizaje federado

Las máscaras de suma cero que utiliza el aprendizaje federado para preservar la privacidad se utilizan ampliamente en los estándares multimedia del Grupo de Estudio 16 de la UIT-T ( VCEG ), como JPEG , MP3 y H.264 , H.265 (también conocido como MPEG ). [ cita requerida ]

Prueba de conocimiento cero

Se han llevado a cabo trabajos previos de normalización sobre el tema de la prueba de conocimiento cero en el Grupo de Enfoque de la UIT-T sobre Tecnologías de Libros Digitales. [ cita requerida ]

Privacidad diferencial

La aplicación de la privacidad diferencial en la preservación de la privacidad se examinó en varios de los talleres de aprendizaje automático del "Día 0" en las Cumbres Globales de AI for Good. [ cita requerida ]

Véase también

Referencias

  1. ^ "Avanzando en una IA confiable: gobierno de EE. UU." Iniciativa Nacional de Inteligencia Artificial . Consultado el 24 de octubre de 2022 .
  2. ^ ab "TrustworthyAI". UIT . Archivado desde el original el 2022-10-24 . Consultado el 2022-10-24 .
     Este artículo incorpora texto de esta fuente, que está disponible bajo la licencia CC BY 4.0 de la Unión Internacional de Telecomunicaciones .
  3. ^ "'Trustworthy AI' es un marco para ayudar a gestionar riesgos únicos". MIT Technology Review . Consultado el 1 de junio de 2024 .
  4. ^ "Serie de seminarios TrustworthyAI". AI for Good . Consultado el 24 de octubre de 2022 .
  5. ^ Shulman, R.; Greene, R.; Glynne, P. (21 de marzo de 2006). "¿La implementación de un protocolo de insulina intensivo basado en la toma de decisiones y computarizado logra un control estricto de la glucemia? Un estudio observacional prospectivo". Cuidados críticos . 10 (1): P256. doi : 10.1186/cc4603 . ISSN  1364-8535. PMC 4092631 .