stringtranslate.com

Ingeniería de inteligencia artificial

La ingeniería de inteligencia artificial (o ingeniería de IA) es una disciplina tecnológica que se centra en el diseño, desarrollo e implementación de sistemas de IA . La ingeniería de IA implica la aplicación de principios y metodologías de ingeniería para crear soluciones escalables, eficientes y confiables basadas en IA. Fusiona aspectos de la ingeniería de datos y la ingeniería de software para crear aplicaciones del mundo real en diversos dominios, como la atención médica, las finanzas, los sistemas autónomos y la automatización industrial. [1] [2]

Componentes clave

La ingeniería de IA integra una variedad de dominios y prácticas técnicas, todos los cuales son esenciales para construir sistemas de IA escalables, confiables y éticos.

Ingeniería de datos e infraestructura

Los datos son la piedra angular de los sistemas de IA y requieren una ingeniería cuidadosa para garantizar la calidad, la disponibilidad y la facilidad de uso. Los ingenieros de IA recopilan conjuntos de datos grandes y diversos de múltiples fuentes, incluidas bases de datos , API y transmisiones en tiempo real. Estos datos se someten a limpieza, normalización y preprocesamiento, a menudo facilitados por canales de datos automatizados que gestionan los procesos de extracción, transformación y carga (ETL). [3]

Las soluciones de almacenamiento eficientes, como las bases de datos SQL , las bases de datos NoSQL y los lagos de datos , deben seleccionarse en función de las características de los datos y los casos de uso. Las medidas de seguridad, incluidos el cifrado y los controles de acceso, son fundamentales para proteger la información confidencial y garantizar el cumplimiento de normativas como el RGPD . La escalabilidad es esencial y, con frecuencia, implica servicios en la nube y marcos de computación distribuida para gestionar volúmenes de datos crecientes de manera eficaz. [4] [5] [6]

Selección y optimización de algoritmos

La selección del algoritmo adecuado es crucial para el éxito de cualquier sistema de IA. Los ingenieros evalúan el problema (clasificación, regresión, agrupamiento o aprendizaje por refuerzo) para determinar el algoritmo de aprendizaje automático o aprendizaje profundo más adecuado . [7] [8]

Una vez elegido un algoritmo, optimizarlo a través del ajuste de hiperparámetros es esencial para mejorar la eficiencia y la precisión. [9] Se emplean técnicas como la búsqueda en cuadrícula o la optimización bayesiana , y los ingenieros a menudo utilizan la paralelización para acelerar los procesos de entrenamiento, en particular para grandes conjuntos de datos. [10] Para los modelos existentes, se pueden aplicar técnicas como el aprendizaje por transferencia para adaptar modelos preentrenados para tareas específicas, lo que reduce el tiempo y los recursos necesarios para el entrenamiento. [11]

Ingeniería de aprendizaje profundo

El aprendizaje profundo es particularmente importante para tareas que involucran conjuntos de datos grandes y complejos. Los ingenieros diseñan arquitecturas de redes neuronales adaptadas a aplicaciones específicas, utilizando redes neuronales convolucionales (CNN) para tareas visuales y redes neuronales recurrentes (RNN) para tareas basadas en secuencias. El aprendizaje por transferencia, donde los modelos entrenados previamente se ajustan para casos de uso específicos, ayuda a agilizar el desarrollo y, a menudo, mejora el rendimiento. [12]

La optimización para la implementación en entornos con recursos limitados, como los dispositivos móviles, implica técnicas como la poda y la cuantificación para minimizar el tamaño del modelo y, al mismo tiempo, mantener el rendimiento. Los ingenieros también abordan los desafíos del desequilibrio de datos mediante la ampliación y la generación de datos sintéticos, lo que garantiza un rendimiento sólido del modelo en varias clases. [12]

Procesamiento del lenguaje natural

El procesamiento del lenguaje natural (PLN) es un componente crucial de la ingeniería de IA, centrado en permitir que las máquinas comprendan y generen lenguaje humano. El proceso comienza con el preprocesamiento de texto para preparar los datos para los modelos de aprendizaje automático. Los avances recientes, en particular los modelos basados ​​en transformadores como BERT y GPT , han mejorado enormemente la capacidad de comprender el contexto del lenguaje. [13]

Los ingenieros de IA trabajan en diversas tareas de procesamiento del lenguaje natural, como el análisis de sentimientos, la traducción automática y la extracción de información. Estas tareas requieren modelos sofisticados que utilicen mecanismos de atención para mejorar la precisión. [14] Las aplicaciones van desde asistentes virtuales y chatbots hasta tareas más especializadas como el reconocimiento de entidades con nombre (NER) y el etiquetado de partes del discurso (POS). [15] [16]

Sistemas de razonamiento y toma de decisiones

El desarrollo de sistemas capaces de razonar y tomar decisiones es un aspecto importante de la ingeniería de IA. Ya sea partiendo de cero o basándose en marcos existentes, los ingenieros crean soluciones que operan con datos o reglas lógicas. La IA simbólica emplea lógica formal y reglas predefinidas para la inferencia, mientras que las técnicas de razonamiento probabilístico como las redes bayesianas ayudan a abordar la incertidumbre. Estos modelos son esenciales para aplicaciones en entornos dinámicos, como los vehículos autónomos, donde la toma de decisiones en tiempo real es fundamental. [17] [18]

Seguridad

La seguridad es un factor crítico en la ingeniería de IA, en particular a medida que los sistemas de IA se integran cada vez más en aplicaciones sensibles y de misión crítica. Los ingenieros de IA implementan medidas de seguridad sólidas para proteger los modelos de ataques adversarios, como la evasión y el envenenamiento , que pueden comprometer la integridad y el rendimiento del sistema. Las técnicas como el entrenamiento adversario, donde los modelos se exponen a entradas maliciosas durante el desarrollo, ayudan a fortalecer los sistemas contra estos ataques. [19] [20]

Además, es de suma importancia proteger los datos utilizados para entrenar los modelos de IA. Se emplean cifrado , almacenamiento seguro de datos y mecanismos de control de acceso para proteger la información confidencial del acceso no autorizado y las infracciones. Los sistemas de IA también requieren una supervisión constante para detectar y mitigar las vulnerabilidades que puedan surgir después de la implementación. En entornos de alto riesgo, como los sistemas autónomos y la atención sanitaria, los ingenieros incorporan redundancia y mecanismos a prueba de fallos para garantizar que los modelos de IA sigan funcionando correctamente en presencia de amenazas de seguridad. [21]

Ética y cumplimiento

A medida que los sistemas de IA influyen cada vez más en los aspectos sociales, la ética y el cumplimiento normativo son componentes vitales de la ingeniería de IA. Los ingenieros diseñan modelos para mitigar riesgos como el envenenamiento de datos y garantizar que los sistemas de IA cumplan con los marcos legales, como las regulaciones de protección de datos como el RGPD. Se emplean técnicas de preservación de la privacidad, incluida la anonimización de datos y la privacidad diferencial, para salvaguardar la información personal y garantizar el cumplimiento de las normas internacionales. [22]

Las consideraciones éticas se centran en reducir los sesgos en los sistemas de IA y evitar la discriminación por motivos de raza, género u otras características protegidas. Al desarrollar soluciones de IA justas y responsables, los ingenieros contribuyen a la creación de tecnologías que sean a la vez técnicamente sólidas y socialmente responsables. [23]

Carga de trabajo

La carga de trabajo de un ingeniero de IA gira en torno al ciclo de vida del sistema de IA, que es un proceso complejo de varias etapas. [24] Este proceso puede implicar la creación de modelos desde cero o el uso de modelos preexistentes a través del aprendizaje por transferencia, según los requisitos del proyecto. [25] Cada enfoque presenta desafíos únicos e influye en el tiempo, los recursos y las decisiones técnicas involucradas.

Definición del problema y análisis de requisitos

Independientemente de si un modelo se construye desde cero o se basa en un modelo preexistente, el trabajo comienza con una comprensión clara del problema. El ingeniero debe definir el alcance, comprender el contexto empresarial e identificar objetivos específicos de IA que se alineen con los objetivos estratégicos. Esta etapa incluye la consulta con las partes interesadas para establecer indicadores clave de rendimiento (KPI) y requisitos operativos. [24]

Al desarrollar un modelo desde cero, el ingeniero también debe decidir qué algoritmos son los más adecuados para la tarea. [7] Por el contrario, cuando se utiliza un modelo entrenado previamente, la carga de trabajo se desplaza hacia la evaluación de los modelos existentes y la selección del que mejor se alinea con la tarea. El uso de modelos entrenados previamente a menudo permite un enfoque más específico en el ajuste fino , en lugar de diseñar una arquitectura de modelo completamente nueva. [26]

Adquisición y preparación de datos

La adquisición y preparación de datos son etapas críticas independientemente del método de desarrollo elegido, ya que el rendimiento de cualquier sistema de IA depende en gran medida de datos representativos y de alta calidad.

En el caso de los sistemas creados desde cero, los ingenieros deben reunir conjuntos de datos completos que cubran todos los aspectos del dominio del problema, garantizando la diversidad y representatividad suficientes en los datos para entrenar el modelo de manera eficaz. Esto implica limpiar, normalizar y aumentar los datos según sea necesario. La creación de canales de datos y la resolución de problemas como conjuntos de datos desequilibrados o valores faltantes también son esenciales para mantener la integridad del modelo durante el entrenamiento. [27]

En el caso de utilizar modelos preexistentes, los requisitos de los conjuntos de datos suelen ser diferentes. En este caso, los ingenieros se centran en obtener datos específicos de la tarea que se utilizarán para ajustar un modelo general. Si bien el volumen total de datos puede ser menor, debe ser muy relevante para el problema específico. Los modelos preexistentes, especialmente los basados ​​en el aprendizaje por transferencia, suelen requerir menos datos, lo que acelera la fase de preparación, aunque la calidad de los datos sigue siendo igualmente importante. [28]

Diseño y entrenamiento de modelos

La carga de trabajo durante la fase de diseño y entrenamiento del modelo depende significativamente de si el ingeniero está construyendo el modelo desde cero o afinando uno existente.

Al crear un modelo desde cero, los ingenieros de IA deben diseñar toda la arquitectura, seleccionando o desarrollando algoritmos y estructuras que se adapten al problema. Para los modelos de aprendizaje profundo, esto podría implicar diseñar una red neuronal con la cantidad adecuada de capas, funciones de activación y optimizadores [29] . Los ingenieros pasan por varias iteraciones de pruebas, ajustando hiperparámetros y refinando la arquitectura. [9] Este proceso puede requerir muchos recursos, ya que requiere una potencia computacional sustancial y un tiempo significativo para entrenar el modelo en grandes conjuntos de datos.

En el caso de los sistemas de IA basados ​​en modelos preexistentes, el enfoque se centra más en el ajuste fino. El aprendizaje por transferencia permite a los ingenieros tomar un modelo que ya se ha entrenado en un amplio conjunto de datos y adaptarlo para una tarea específica utilizando un conjunto de datos más pequeño y específico para la tarea. Este método reduce drásticamente la complejidad de la fase de diseño y entrenamiento. En lugar de construir la arquitectura, los ingenieros ajustan las capas finales y realizan el ajuste de hiperparámetros. El tiempo y los recursos computacionales necesarios suelen ser menores que el entrenamiento desde cero, ya que los modelos entrenados previamente ya han aprendido características generales que solo necesitan refinamiento para la nueva tarea. [25]

Ya sea que se construya desde cero o se realicen ajustes, los ingenieros emplean técnicas de optimización como la validación cruzada y la detención temprana para evitar el sobreajuste . En ambos casos, el entrenamiento del modelo implica ejecutar numerosas pruebas para comparar el rendimiento y mejorar la precisión. [30]

Integración de sistemas

Una vez que se entrena el modelo, se lo debe integrar en el sistema más amplio, una fase que en gran medida sigue siendo la misma independientemente de cómo se haya desarrollado el modelo. La integración del sistema implica conectar el modelo de IA a varios componentes de software y garantizar que pueda interactuar con sistemas externos, bases de datos e interfaces de usuario .

En el caso de los modelos desarrollados desde cero, la integración puede requerir trabajo adicional para garantizar que la arquitectura personalizada se alinee con el entorno operativo, especialmente si el sistema de IA está diseñado para hardware específico o entornos de computación de borde . Los modelos entrenados previamente, por el contrario, suelen ser más flexibles en términos de implementación, ya que se construyen utilizando marcos ampliamente adoptados, que son compatibles con la mayoría de las infraestructuras modernas. [31]

Los ingenieros utilizan herramientas de contenedorización para empaquetar el modelo y crear entornos consistentes para la implementación, lo que garantiza una integración perfecta en sistemas locales o basados ​​en la nube . Ya sea que se comience desde cero o se utilicen modelos previamente entrenados, la fase de integración requiere garantizar que el modelo esté listo para escalar y funcionar de manera eficiente dentro de la infraestructura existente. [32] [33]

Pruebas y validación

Las pruebas y la validación desempeñan un papel crucial en ambos enfoques, aunque la profundidad y la naturaleza de las pruebas pueden diferir ligeramente. En el caso de los modelos creados desde cero, se necesitan pruebas funcionales más exhaustivas para garantizar que los componentes personalizados del modelo funcionen como se espera. Se realizan pruebas de estrés para evaluar el sistema bajo diversas cargas operativas, y los ingenieros deben validar que el modelo pueda manejar los tipos de datos específicos y los casos extremos del dominio. [34]

En el caso de los modelos entrenados previamente, el objetivo de las pruebas es garantizar que el ajuste fino haya adaptado adecuadamente el modelo a la tarea. Las pruebas funcionales validan que los resultados del modelo entrenado previamente sean precisos para el nuevo contexto. En ambos casos, las evaluaciones de sesgo, las evaluaciones de imparcialidad y las revisiones de seguridad son fundamentales para garantizar prácticas de IA éticas y prevenir vulnerabilidades, en particular en aplicaciones sensibles como las finanzas, la atención médica o los sistemas autónomos. [35]

La explicabilidad también es esencial en ambos flujos de trabajo, especialmente cuando se trabaja en industrias reguladas o con partes interesadas que necesitan transparencia en los procesos de toma de decisiones de IA. Los ingenieros deben asegurarse de que las predicciones del modelo puedan ser entendidas por usuarios no técnicos y que se ajusten a los estándares éticos y regulatorios. [36]

Despliegue y monitoreo

La etapa de implementación generalmente implica las mismas estrategias generales, ya sea que el modelo se construya desde cero o se base en un modelo existente. Sin embargo, los modelos construidos desde cero pueden requerir un ajuste más exhaustivo durante la implementación para garantizar que cumplan con los requisitos de rendimiento en un entorno de producción. Por ejemplo, los ingenieros pueden necesitar optimizar el uso de la memoria, reducir la latencia o adaptar el modelo para la computación de borde. [37] [38] [39]

Al implementar modelos previamente entrenados, la carga de trabajo suele ser más liviana. Dado que estos modelos a menudo ya están optimizados para entornos de producción, los ingenieros pueden concentrarse en garantizar la compatibilidad con los datos y la infraestructura específicos de la tarea. En ambos casos, se utilizan técnicas de implementación como implementaciones por fases, pruebas A/B o implementaciones canarias para minimizar los riesgos y garantizar una transición fluida al entorno en vivo. [40] [41] [42]

Sin embargo, el monitoreo es fundamental en ambos enfoques. Una vez que se implementa el sistema de IA, los ingenieros configuran el monitoreo del rendimiento para detectar problemas como la desviación del modelo, donde la precisión del modelo disminuye con el tiempo a medida que cambian los patrones de datos. El monitoreo continuo ayuda a identificar cuándo es necesario volver a entrenar o calibrar el modelo. En el caso de los modelos entrenados previamente, un ajuste fino periódico puede ser suficiente para mantener el rendimiento óptimo del modelo, mientras que los modelos creados desde cero pueden requerir actualizaciones más extensas según cómo se haya diseñado el sistema. [43] [44]

El mantenimiento regular incluye actualizaciones del modelo, revalidación de controles de imparcialidad y sesgo y parches de seguridad para protegerse contra ataques adversarios.

Operaciones de aprendizaje automático (MLOps)

MLOps , u Operaciones de Inteligencia Artificial (AIOps), es un componente crítico en la ingeniería de IA moderna, que integra el desarrollo de modelos de aprendizaje automático con prácticas operativas confiables y eficientes. De manera similar a las prácticas de DevOps en el desarrollo de software , MLOps proporciona un marco para la integración continua, la entrega continua (CI/CD) y el monitoreo automatizado de modelos de aprendizaje automático a lo largo de su ciclo de vida. Esta práctica cierra la brecha entre los científicos de datos , los ingenieros de IA y las operaciones de TI , lo que garantiza que los modelos de IA se implementen, monitoreen y mantengan de manera efectiva en entornos de producción. [45]

MLOps es particularmente importante a medida que los sistemas de IA escalan para manejar tareas más complejas y conjuntos de datos más grandes. Sin prácticas sólidas de MLOps, los modelos corren el riesgo de tener un rendimiento inferior o fallar una vez implementados en producción, lo que genera problemas como tiempo de inactividad, preocupaciones éticas o pérdida de confianza de las partes interesadas. Al establecer flujos de trabajo automatizados y escalables, MLOps permite a los ingenieros de IA administrar todo el ciclo de vida de los modelos de aprendizaje automático de manera más eficiente, desde el desarrollo hasta la implementación y el monitoreo continuo. [46]

Además, a medida que los marcos regulatorios en torno a los sistemas de IA continúan evolucionando, las prácticas de MLOps son fundamentales para garantizar el cumplimiento de los requisitos legales, incluidas las regulaciones de privacidad de datos y las pautas éticas de IA. Al incorporar las mejores prácticas de MLOps, las organizaciones pueden mitigar los riesgos, mantener un alto rendimiento y escalar las soluciones de IA de manera responsable. [45]

Desafíos

La ingeniería de IA se enfrenta a un conjunto distintivo de desafíos que la diferencian del desarrollo de software tradicional. Uno de los principales problemas es la deriva del modelo, donde los modelos de IA se degradan en rendimiento con el tiempo debido a cambios en los patrones de datos, lo que requiere un reentrenamiento y una adaptación continuos. [47] Además, la privacidad y la seguridad de los datos son preocupaciones críticas, en particular cuando se utilizan datos confidenciales en modelos basados ​​en la nube. [48] [49] Garantizar la explicabilidad del modelo es otro desafío, ya que los sistemas de IA complejos deben hacerse interpretables para las partes interesadas no técnicas. [50] El sesgo y la equidad también requieren un manejo cuidadoso para prevenir la discriminación y promover resultados equitativos, ya que los sesgos presentes en los datos de entrenamiento pueden propagarse a través de algoritmos de IA, lo que lleva a resultados no deseados. [51] [52] Abordar estos desafíos requiere un enfoque multidisciplinario, que combine la perspicacia técnica con consideraciones éticas y regulatorias.

Consumo energético y sostenibilidad

El entrenamiento de modelos de IA a gran escala implica procesar conjuntos de datos inmensos durante períodos prolongados, lo que consume cantidades considerables de energía . Esto ha suscitado inquietudes sobre el impacto ambiental de las tecnologías de IA, dada la expansión de los centros de datos necesarios para respaldar el entrenamiento y la inferencia de IA. [53] [54]

La creciente demanda de potencia computacional ha generado un consumo significativo de electricidad, y las aplicaciones impulsadas por IA suelen dejar una huella de carbono sustancial . En respuesta, los ingenieros e investigadores de IA están explorando formas de mitigar estos efectos mediante el desarrollo de algoritmos más eficientes energéticamente, el empleo de centros de datos ecológicos y el aprovechamiento de fuentes de energía renovables . Abordar la sostenibilidad de los sistemas de IA se está convirtiendo en un aspecto fundamental del desarrollo responsable de la IA a medida que la industria continúa creciendo a nivel mundial. [55] [56]

Caminos educativos

La formación en ingeniería de IA suele incluir cursos avanzados de ingeniería de software y datos. Los temas clave incluyen aprendizaje automático, aprendizaje profundo, procesamiento del lenguaje natural y visión artificial. Muchas universidades ofrecen ahora programas especializados en ingeniería de IA tanto a nivel de pregrado como de posgrado, que incluyen laboratorios prácticos, aprendizaje basado en proyectos y cursos interdisciplinarios que conectan la teoría de la IA con las prácticas de ingeniería. [57]

Las certificaciones profesionales también pueden complementar la educación formal. Además, se recomienda encarecidamente la experiencia práctica con proyectos del mundo real, pasantías y contribuciones a iniciativas de IA de código abierto para desarrollar experiencia práctica. [57] [58]

Referencias

  1. ^ "¿Qué es la ingeniería de IA? Explorando los roles de un ingeniero de IA". ARTiBA . Consultado el 17 de octubre de 2024 .
  2. ^ Marr, Bernard. "15 increíbles aplicaciones de la IA en el mundo real que todo el mundo debería conocer". Forbes . Consultado el 17 de octubre de 2024 .
  3. ^ DEITEL, Paul J.; DEITEL, Harvey M. (2019). Introducción a Python para la informática y la ciencia de datos: aprender a programar con IA, big data y la nube . Pearson.
  4. ^ Tobin, Donal. "¿Qué base de datos es la adecuada para su caso de uso?". Integrate.io . Consultado el 18 de octubre de 2024 .
  5. ^ Scalzo, Bert (16 de agosto de 2022). "Modelado de datos 301 para la nube: modelado y diseño de datos NoSQL y de lagos de datos". Blog de expertos de erwin . Consultado el 18 de octubre de 2024 .
  6. ^ Bahmani, Amir; Alavi, Arash; Buergel, Thore; Upadhyayula, Sushil; Wang, Qiwen; Ananthakrishnan, Srinath Krishna; Alavi, Amir; Celis, Diego; Gillespie, Dan; Young, Gregory; Xing, Ziye; Nguyen, Minh Hoang Huynh; Haque, Audrey; Mathur, Ankit; Payne, Josh (1 de octubre de 2021). "Una plataforma escalable, segura e interoperable para la gestión profunda de la salud basada en datos". Nature Communications . 12 (1): 5757. Bibcode :2021NatCo..12.5757B. doi :10.1038/s41467-021-26040-1. ISSN  2041-1723. PMC 8486823 . Número de modelo:  PMID34599181. 
  7. ^ ab Bischl, Bernd; Kerschke, Pascal; Kotthoff, Lars; Lindauer, Marius; Malitsky, Yuri; Fréchette, Alexandre; Hoos, Holger; Hutter, Frank; Leyton-Brown, Kevin; Tierney, Kevin; Vanschoren, Joaquín (1 de agosto de 2016). "ASlib: una biblioteca de referencia para la selección de algoritmos". Inteligencia artificial . 237 : 41–58. arXiv : 1506.02465 . doi :10.1016/j.artint.2016.04.003. ISSN  0004-3702.
  8. ^ "Explicación: redes neuronales". MIT News | Massachusetts Institute of Technology . 2017-04-14 . Consultado el 2024-10-18 .
  9. ^ ab FEURER, Matthias; HUTTER, Frank. "Optimización de hiperparámetros". AutoML: métodos, sistemas, desafíos . págs. 3–38.
  10. ^ "Búsqueda en cuadrícula, búsqueda aleatoria y optimización bayesiana". Keylabs: últimas noticias y actualizaciones . 2024-08-21 . Consultado el 2024-10-18 .
  11. ^ West, Jeremy; Ventura, Dan; Warnick, Sean (2007). "Presentación de investigación de primavera: una base teórica para la transferencia inductiva". Universidad Brigham Young, Facultad de Ciencias Físicas y Matemáticas . Archivado desde el original el 2007-08-01 . Consultado el 2024-10-18 .
  12. ^ ab Chaudhury, Krishnendu (2024). Matemáticas y arquitecturas del aprendizaje profundo . Publicaciones Manning.
  13. ^ "El poder del procesamiento del lenguaje natural". Harvard Business Review . 2022-04-19. ISSN  0017-8012 . Consultado el 2024-10-18 .
  14. ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, León; Gómez, Aidán N.; Káiser, Lukasz; Polosukhin, Illia (1 de agosto de 2023), Todo lo que necesita es atención , arXiv : 1706.03762
  15. ^ Sun, Peng; Yang, Xuezhen; Zhao, Xiaobing; Wang, Zhijuan (noviembre de 2018). "Una descripción general del reconocimiento de entidades nombradas". Conferencia internacional sobre procesamiento del lenguaje asiático (IALP) de 2018. IEEE. págs. 273–278. doi :10.1109/IALP.2018.8629225. ISBN . 978-1-7281-1175-9.
  16. ^ Chiche, Alebachew; Yitagesu, Betselot (24 de enero de 2022). "Etiquetado de partes del discurso: una revisión sistemática de enfoques de aprendizaje profundo y aprendizaje automático". Revista de Big Data . 9 (1): 10. doi : 10.1186/s40537-022-00561-y . ISSN  2196-1115.
  17. ^ Susskind, Zachary; Arden, Bryce; John, Lizy K.; Stockton, Patrick; John, Eugene B. (13 de septiembre de 2021), IA neurosimbólica: una clase emergente de cargas de trabajo de IA y su caracterización , arXiv : 2109.06133
  18. ^ Garnelo, Marta; Shanahan, Murray (1 de octubre de 2019). "Reconciliando el aprendizaje profundo con la inteligencia artificial simbólica: representando objetos y relaciones". Current Opinion in Behavioral Sciences . 29 : 17–23. doi : 10.1016/j.cobeha.2018.12.010 . ISSN  2352-1546.
  19. ^ Fan, Jiaxin; Yan, Qi; Li, Mohan; Qu, Guanqun; Xiao, Yang (julio de 2022). "Una encuesta sobre ataques y defensas por envenenamiento de datos". 2022 7.ª Conferencia internacional IEEE sobre ciencia de datos en el ciberespacio (DSC) . IEEE. págs. 48–55. doi :10.1109/DSC55868.2022.00014. ISBN . 978-1-6654-7480-1.
  20. ^ Ren, Kui; Zheng, Tianhang; Qin, Zhan; Liu, Xue (1 de marzo de 2020). "Ataques adversarios y defensas en el aprendizaje profundo". Ingeniería . 6 (3): 346–360. Bibcode :2020Engin...6..346R. doi : 10.1016/j.eng.2019.12.012 . ISSN  2095-8099.
  21. ^ "¿Cómo debemos evaluar la seguridad y la minimización de datos en la IA?". ico.org.uk . 2024-07-31 . Consultado el 2024-10-23 .
  22. ^ Parlamento Europeo. Dirección General de Servicios de Estudios Parlamentarios. (2020). El impacto del Reglamento General de Protección de Datos en la inteligencia artificial. LU: Oficina de Publicaciones. doi :10.2861/293. ISBN 978-92-846-6771-0.
  23. ^ Ferrara, Emilio (marzo de 2024). "Justicia y sesgo en inteligencia artificial: un breve estudio de fuentes, impactos y estrategias de mitigación". Sci . 6 (1): 3. arXiv : 2304.07683 . doi : 10.3390/sci6010003 . ISSN  2413-4155.
  24. ^ ab Haakman, Mark; Cruz, Luis; Huijgens, Hennie; van Deursen, Arie (8 de julio de 2021). "Es necesario revisar los modelos del ciclo de vida de la IA". Ingeniería de software empírica . 26 (5): 95. doi : 10.1007/s10664-021-09993-1 . ISSN  1573-7616.
  25. ^ ab Fritz (21 de septiembre de 2023). "Modelos de aprendizaje automático entrenados previamente frente a modelos entrenados desde cero". Fritz ai . Consultado el 18 de octubre de 2024 .
  26. ^ Alshalali, Tagrid; Josyula, Darsana (diciembre de 2018). "Ajuste fino de modelos de aprendizaje profundo preentrenados con Extreme Learning Machine". Conferencia internacional sobre ciencia computacional e inteligencia computacional (CSCI) de 2018. IEEE. págs. 469–473. doi :10.1109/CSCI46756.2018.00096. ISBN. 978-1-7281-1360-9.
  27. ^ Jain, Mitaksh (27 de mayo de 2024). "Adquisición de datos: la guía definitiva para dominar el aprendizaje automático". Emeritus Online Courses . Consultado el 18 de octubre de 2024 .
  28. ^ Dodge, Jesse; Ilharco, Gabriel; Schwartz, Roy; Farhadi, Ali; Hajishirzi, Hannaneh; Smith, Noah (14 de febrero de 2020), Ajuste fino de modelos de lenguaje preentrenados: inicializaciones de peso, órdenes de datos y detención temprana , arXiv : 2002.06305
  29. ^ "¿Qué es una arquitectura de modelos? - Hopsworks". www.hopsworks.ai . Consultado el 18 de octubre de 2024 .
  30. ^ "Cómo funciona el entrenamiento de los modelos de IA - The Data Scientist". 2023-08-16 . Consultado el 2024-10-18 .
  31. ^ Thórisson, Kristinn R.; Benko, Hrvoje; Abramov, Denis; Arnold, Andrew; Maskey, Sameer; Vaseekaran, Aruchunan (2004). "Metodología de diseño constructivista para inteligencias interactivas" (PDF) . AI Magazine . Archivado desde el original (PDF) el 2006-09-03.
  32. ^ "Mejores prácticas de empaquetado de modelos de IA | Restackio". Restack . Consultado el 23 de octubre de 2024 .
  33. ^ Mungoli*, Neelesh (2023). Marcos de IA distribuidos y escalables: aprovechar la computación en la nube para mejorar el rendimiento y la eficiencia del aprendizaje profundo . arXiv : 2304.13738 .
  34. ^ "El papel de las pruebas de rendimiento en la modernización de productos digitales de aplicaciones de IA". Round The Clock Technologies . 2023-07-11 . Consultado el 2024-10-23 .
  35. ^ "Servicio de validación y verificación de inteligencia artificial". SQS . Consultado el 23 de octubre de 2024 .
  36. ^ Hand, David J.; Khan, Shakeel (junio de 2020). "Validación y verificación de sistemas de IA". Patrones . 1 (3): 100037. doi :10.1016/j.patter.2020.100037. ISSN  2666-3899. PMC 7660449 . PMID  33205105. 
  37. ^ Katsaragakis, Manolis; Papadopoulos, Lazaros; Konijnenburg, Mario; Catthoor, Francky; Soudris, Dimitrios (octubre de 2020). "Técnicas de optimización de la huella de memoria para aplicaciones de aprendizaje automático en sistemas integrados". Simposio internacional IEEE sobre circuitos y sistemas (ISCAS) de 2020. IEEE. págs. 1–4. doi :10.1109/ISCAS45731.2020.9181038. ISBN . 978-1-7281-3320-1.
  38. ^ Ramkumar, M.; Karthick, R.; Jeyashree, A. (2023). "MONITOREO INTELIGENTE Y MEJORA DE LA LATENCIA DE LA RED EN LA COMPUTACIÓN EN LA NUBE 5G UTILIZANDO UN MODELO DE APRENDIZAJE AUTOMÁTICO BASADO EN IA". Revista Ictact sobre ciencia de datos y aprendizaje automático . 04 (2): 421–425.
  39. ^ Hua, Haochen; Li, Yutong; Wang, Tonghe; Dong, Nanqing; Li, Wei; Cao, Junwei (16 de enero de 2023). "Edge Computing con inteligencia artificial: una perspectiva de aprendizaje automático". Computación ACM. Sobrevivir . 55 (9): 184:1–184:35. doi :10.1145/3555802. ISSN  0360-0300.
  40. ^ "Implementación y capacitación • BT Standard". BT Standard . Consultado el 23 de octubre de 2024 .
  41. ^ Brinkmann, Demetrios (15 de septiembre de 2022). "El qué, el porqué y el cómo de las pruebas A/B de aprendizaje automático". Comunidad MLOps . Consultado el 23 de octubre de 2024 .
  42. ^ Roller, Joshua (20 de junio de 2024). "Implementación de Canary: qué es y por qué es importante". IEEE Computer Society . Consultado el 23 de octubre de 2024 .
  43. ^ Onnes, Annet (5 de mayo de 2022), Monitoreo de sistemas de IA: análisis de problemas, marco y perspectivas , arXiv : 2205.02562
  44. ^ "Por qué la monitorización continua es esencial para mantener la integridad de la IA – Wisecube AI – Research Intelligence Platform" . Consultado el 23 de octubre de 2024 .
  45. ^ ab Treveil, Mark; Omont, Nicolás; Stenac, Clément; Lefevre, Kenji; Phan, Du; Zentici, Joaquín; Lavoillotte, Adrián; Miyazaki, Makoto; Heidmann, Lynn (2020). Presentamos MLOps . O'Reilly Media, Inc.
  46. ^ Regalo, Noé; Deza, Alfredo (2021). MLOps prácticos . O'Reilly Media, Inc.
  47. ^ Carter, Rickey E.; Anand, Vidhu; Harmon, David M.; Pellikka, Patricia A. (1 de enero de 2022). "Deriva del modelo: cuándo puede ser una señal de éxito y cuándo puede ser un problema oculto". Medicina basada en inteligencia . 6 : 100058. doi : 10.1016/j.ibmed.2022.100058 . ISSN  2666-5212.
  48. ^ Luqman, Alka; Mahesh, Riya; Chattopadhyay, Anupam (31 de enero de 2024), Implicaciones de privacidad y seguridad de los servicios de inteligencia artificial basados ​​en la nube: una encuesta , arXiv : 2402.00896
  49. ^ Hassan, M. Ali (20 de marzo de 2024). "IA basada en la nube: ¿qué significa para la ciberseguridad?". Vaporvm . Consultado el 23 de octubre de 2024 .
  50. ^ Ali, Sajid; Abuhmed, Tamer; El-Sappagh, Shaker; Muhammad, Khan; Alonso-Moral, Jose M.; Confalonieri, Roberto; Guidotti, Riccardo; Del Ser, Javier; Díaz-Rodríguez, Natalia; Herrera, Francisco (2023-11-01). "Inteligencia artificial explicable (XAI): lo que sabemos y lo que nos queda para alcanzar una inteligencia artificial fiable". Information Fusion . 99 : 101805. doi :10.1016/j.inffus.2023.101805. hdl : 10481/84480 . ISSN  1566-2535.
  51. ^ "¿Qué hacemos con los sesgos en la IA?". Harvard Business Review . 25 de octubre de 2019. ISSN  0017-8012 . Consultado el 23 de octubre de 2024 .
  52. ^ Ferrara, Emilio (marzo de 2024). "Justicia y sesgo en inteligencia artificial: un breve estudio de fuentes, impactos y estrategias de mitigación". Sci . 6 (1): 3. arXiv : 2304.07683 . doi : 10.3390/sci6010003 . ISSN  2413-4155.
  53. ^ Editorial, MITSloan ME (19 de abril de 2024). "Los centros de datos a gran escala crecen a un ritmo impresionante, impulsados ​​por la IA generativa". MIT Sloan Management Review Middle East . Consultado el 23 de octubre de 2024 .
  54. ^ "Noticias de tecnología | TechHQ | Últimas noticias y análisis de tecnología". TechHQ . 2024-01-26 . Consultado el 2024-10-23 .
  55. ^ "Los modelos de IA están devorando energía. Las herramientas para reducir el consumo están aquí, si los centros de datos las adoptan. | MIT Lincoln Laboratory". www.ll.mit.edu . Consultado el 23 de octubre de 2024 .
  56. ^ "Recomendaciones para impulsar la inteligencia artificial y la infraestructura de los centros de datos" (PDF) . Departamento de Energía de EE. UU . . 2024-07-30 . Consultado el 2024-10-23 .
  57. ^ ab "Guía: Cómo convertirse en ingeniero en inteligencia artificial". Indeed . 2024-05-06.
  58. ^ "Cómo convertirse en ingeniero en inteligencia artificial (IA)". Upwork . 2023-06-22.