La IA confiable se refiere a sistemas de inteligencia artificial diseñados e implementados para ser transparentes, robustos y respetuosos de la privacidad de los datos.
La IA confiable utiliza una serie de tecnologías de mejora de la privacidad (PET), que incluyen cifrado homomórfico , aprendizaje federado , computación multipartita segura , privacidad diferencial y prueba de conocimiento cero . [1] [2]
El concepto de IA confiable también abarca la necesidad de que los sistemas de IA sean explicables , responsables y robustos. La transparencia en IA implica hacer que los procesos y las decisiones de los sistemas de IA sean comprensibles para los usuarios y las partes interesadas. La rendición de cuentas garantiza que existan protocolos para abordar los resultados adversos o los sesgos que puedan surgir, con responsabilidades designadas para la supervisión y la remediación. La robustez y la seguridad tienen como objetivo garantizar que los sistemas de IA funcionen de manera confiable en diversas condiciones y estén protegidos contra ataques maliciosos. [3]
La IA confiable también es un programa de trabajo de la Unión Internacional de Telecomunicaciones , una agencia de las Naciones Unidas , iniciado bajo su programa AI for Good . [2] Su origen se encuentra en el Grupo de Enfoque UIT-OMS sobre Inteligencia Artificial para la Salud , donde la fuerte necesidad de privacidad al mismo tiempo que la necesidad de análisis, creó una demanda de un estándar en estas tecnologías.
Cuando AI for Good pasó a estar en línea en 2020, se inició la serie de seminarios TrustworthyAI para iniciar debates sobre dicho trabajo, lo que finalmente condujo a las actividades de estandarización. [4]
La computación multipartita segura (MPC) se está estandarizando en el marco de la "Pregunta 5" (la incubadora) del Grupo de Estudio 17 del UIT-T . [5]
El cifrado homomórfico permite realizar cálculos con datos cifrados, en los que los resultados siguen estando cifrados y son desconocidos para quienes realizan el cálculo, pero pueden ser descifrados por el cifrador original. A menudo se desarrolla con el objetivo de permitir su uso en jurisdicciones distintas a las de creación de los datos (por ejemplo, en virtud del RGPD ). [ cita requerida ]
La UIT ha colaborado desde las primeras etapas de las reuniones de normalización de HomomorphicEncryption.org , que han desarrollado una norma sobre cifrado homomórfico. La quinta reunión sobre cifrado homomórfico se celebró en la sede de la UIT en Ginebra . [ cita requerida ]
Las máscaras de suma cero que utiliza el aprendizaje federado para preservar la privacidad se utilizan ampliamente en los estándares multimedia del Grupo de Estudio 16 de la UIT-T ( VCEG ), como JPEG , MP3 y H.264 , H.265 (también conocido como MPEG ). [ cita requerida ]
Se han llevado a cabo trabajos previos de normalización sobre el tema de la prueba de conocimiento cero en el Grupo de Enfoque de la UIT-T sobre Tecnologías de Libros Digitales. [ cita requerida ]
La aplicación de la privacidad diferencial en la preservación de la privacidad se examinó en varios de los talleres de aprendizaje automático del "Día 0" en las Cumbres Globales de AI for Good. [ cita requerida ]