[11] Según la National Public Radio, el CEO de Tesla "claramente no estaba emocionado" por abogar por el escrutinio del gobierno que podría afectar su propia industria, pero creía que los riesgos de pasar completamente sin supervisión eran demasiado altos: "Normalmente, la forma en que se establecen las regulaciones es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se establece una agencia reguladora para regular esa industria.Eso, en el pasado, ha sido malo, pero no algo que represente un riesgo fundamental para la existencia de la civilización".[11] En respuesta, algunos políticos expresaron su escepticismo sobre la sensatez de regular una tecnología que aún está en desarrollo.[23][24] Entre los desafíos se cita que la tecnología de IA está evolucionando rápidamente, lo que lleva a un "problema de ritmo" en el que las leyes y regulaciones tradicionales a menudo no pueden mantenerse al día con las aplicaciones emergentes y sus riesgos y beneficios asociados.[46][47] Henry Kissinger, Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 titulada "Ser humano en la era de la IA", en la que pedían una comisión gubernamental para regular la IA.[48] La regulación de la IA puede verse como un medio social positivo para gestionar el problema del control de la IA, es decir, la necesidad de asegurar una IA beneficiosa a largo plazo, mientras que otras respuestas sociales, como no hacer nada o prohibir, se consideran poco prácticas, y enfoques como mejorar la seguridad humana.[49] Por ejemplo, la 'AGI Nanny' es una estrategia propuesta, potencialmente bajo el control de la humanidad, para prevenir la creación de una superinteligencia peligrosa, así como para abordar otras amenazas importantes para el bienestar humano, como la subversión del sistema financiero global., hasta que se pueda crear con seguridad una verdadera superinteligencia.[52] En diciembre de 2018, Canadá y Francia anunciaron planes para un Panel Internacional sobre Inteligencia Artificial respaldado por el G7, inspirado en el Panel Internacional sobre Cambio Climático, para estudiar los efectos globales de la IA en las personas y las economías y para dirigir el desarrollo de la IA.[56] Los miembros fundadores de la Asociación Global sobre Inteligencia Artificial son Australia, Canadá, la Unión Europea, Francia, Alemania, India, Italia, Japón, Rep.GPAI también investigará cómo se puede aprovechar la IA para responder a la pandemia de Covid-19.[70] Investigaciones recientes han indicado que los países también comenzarán a utilizar la inteligencia artificial como herramienta para la ciberdefensa nacional[71].Por lo tanto, los académicos instan a que las naciones establezcan regulaciones para el uso de la IA, de manera similar a como existen regulaciones para otras industrias militares.estándares para la IA, incluidos los grandes datos, la computación en la nube y el software industrial.[99] Poco después, se propuso formalmente la Ley de Inteligencia Artificial.[100] Esto incluye un ajuste fino del enfoque basado en el riesgo de 2020.Los académicos están preocupados por los diversos elementos poco claros de la propuesta, como la definición amplia de lo que constituye la IA, y temen implicaciones legales no deseadas, especialmente para grupos vulnerables como pacientes y migrantes.[101][102] Los observadores han expresado su preocupación por la multiplicación de propuestas legislativas bajo la Comisión Von der Leyen.[113] NRM KI describe los requisitos para futuras regulaciones y estándares en el contexto de la IA.La implementación de las recomendaciones para la acción tiene como objetivo ayudar a fortalecer la economía y la ciencia alemanas en la competencia internacional en el campo de la inteligencia artificial y crear condiciones favorables a la innovación para esta tecnología emergente.En total, el documento cubre 116 necesidades de estandarización y proporciona seis recomendaciones centrales para la acción.[124] Ya en 2016, la administración Obama había comenzado a centrarse en los riesgos y las regulaciones de la inteligencia artificial.En un informe titulado Preparing For the Future of Artificial Intelligence , el Consejo Nacional de Ciencia y Tecnología sentó un precedente para permitir que los investigadores continúen desarrollando nuevas tecnologías de IA con pocas restricciones.[125] Estos riesgos serían la razón principal para crear cualquier forma de regulación, dado que cualquier regulación existente no se aplicaría a la tecnología de IA.[136] En el informe, afirmaron que "los avances en IA, incluido el dominio de capacidades de IA más generales en una o más dimensiones, probablemente proporcionarán nuevas capacidades y aplicaciones.Como se observa fácilmente, el Marco Legal Brasileño para la Inteligencia Artificial carece de cláusulas vinculantes y obligatorias y está más bien lleno de pautas relajadas.En el contexto de la IA regulatoria, esta perspectiva de múltiples partes interesadas captura las ventajas y desventajas y las diferentes perspectivas de diferentes partes interesadas con intereses específicos, lo que ayuda a mantener la transparencia y una eficacia más amplia.Los pasos futuros pueden incluir ampliar la perspectiva de múltiples partes interesadas.Ha habido una creciente preocupación por la inaplicabilidad del marco del proyecto de ley, que destaca que la solución única puede no ser adecuada para la regulación de la IA y exige disposiciones subjetivas y adaptativas.[141] En particular, se llevaron a cabo reuniones informales de expertos en 2014, 2015 y 2016 y se nombró un Grupo de Expertos Gubernamentales (GGE) para deliberar más sobre el tema en 2016.[146] La Inteligencia artificial (IA) reta la forma tradicional de hacer y publicar ciencia, "ya que aporta herramientas que complementan, reaprenden y simplifican procesos complejos propios de la investigación realizada por seres humanos"[147].