stringtranslate.com

Cara abrazada

Hugging Face, Inc. es una empresa estadounidense constituida bajo la Ley General de Corporaciones de Delaware [1] y con sede en la ciudad de Nueva York que desarrolla herramientas computacionales para crear aplicaciones que utilizan aprendizaje automático . Es más conocida por su biblioteca de transformadores creada para aplicaciones de procesamiento de lenguaje natural y su plataforma que permite a los usuarios compartir modelos y conjuntos de datos de aprendizaje automático y mostrar su trabajo.

Historia

La empresa fue fundada en 2016 por los empresarios franceses Clément Delangue, Julien Chaumond y Thomas Wolf en la ciudad de Nueva York , originalmente como una empresa que desarrollaba una aplicación de chatbot dirigida a adolescentes. [2] La empresa recibió su nombre del emoji U+1F917 🤗 HUGGING FACE . [2] Después de abrir el código fuente del modelo detrás del chatbot, la empresa cambió para centrarse en ser una plataforma para el aprendizaje automático.

En marzo de 2021, Hugging Face recaudó 40 millones de dólares en una ronda de financiación de serie B. [3]

El 28 de abril de 2021, la empresa lanzó el BigScience Research Workshop en colaboración con varios otros grupos de investigación para lanzar un modelo de lenguaje grande y abierto . [4] En 2022, el taller concluyó con el anuncio de BLOOM , un modelo de lenguaje grande multilingüe con 176 mil millones de parámetros. [5] [6]

En diciembre de 2022, la empresa adquirió Gradio, una biblioteca de código abierto creada para desarrollar aplicaciones de aprendizaje automático en Python. [7]

El 5 de mayo de 2022, la empresa anunció su ronda de financiación de Serie C liderada por Coatue y Sequoia . [8] La empresa recibió una valoración de 2 mil millones de dólares.

El 3 de agosto de 2022, la empresa anunció Private Hub, una versión empresarial de su Hugging Face Hub público que admite la implementación en SaaS o local . [9]

En febrero de 2023, la empresa anunció una asociación con Amazon Web Services (AWS) que permitiría que los productos de Hugging Face estuvieran disponibles para que los clientes de AWS los utilizaran como bloques de construcción para sus aplicaciones personalizadas. La empresa también dijo que la próxima generación de BLOOM se ejecutará en Trainium, un chip de aprendizaje automático patentado creado por AWS. [10] [11] [12]

En agosto de 2023, la empresa anunció que había recaudado 235 millones de dólares en una ronda de financiación de Serie D , con una valoración de 4500 millones de dólares. La financiación estuvo liderada por Salesforce y participaron de forma destacada Google , Amazon , Nvidia , AMD , Intel , IBM y Qualcomm . [13]

En junio de 2024, la empresa anunció, junto con Meta y Scaleway , el lanzamiento de un nuevo programa de aceleración de IA para startups europeas. Esta iniciativa tiene como objetivo ayudar a las startups a integrar modelos de base abierta en sus productos, acelerando el ecosistema de IA de la UE. El programa, con sede en STATION F en París, se desarrollará desde septiembre de 2024 hasta febrero de 2025. Las startups seleccionadas recibirán tutoría, acceso a modelos y herramientas de IA y la potencia informática de Scaleway. [14]

El 23 de septiembre de 2024, para promover el Decenio Internacional de las Lenguas Indígenas , Hugging Face se asoció con Meta y la UNESCO para lanzar un nuevo traductor de idiomas en línea [15] basado en el modelo de inteligencia artificial de código abierto No Language Left Behind de Meta, que permite la traducción de texto libre en 200 idiomas, incluidos muchos idiomas con bajos recursos. [16]

Servicios y tecnologías

Biblioteca de transformadores

La biblioteca Transformers es un paquete de Python que contiene implementaciones de código abierto de modelos de transformadores para tareas de texto, imagen y audio. Es compatible con las bibliotecas de aprendizaje profundo PyTorch , TensorFlow y JAX e incluye implementaciones de modelos notables como BERT y GPT-2 . [17] La ​​biblioteca se llamó originalmente "pytorch-pretrained-bert" [18], que luego se renombró como "pytorch-transformers" y finalmente "transformers".

También se ha desarrollado una versión de JavaScript (transformers.js [19] ), que permite ejecutar modelos directamente en el navegador.

Centro de caras abrazadas

The Hugging Face Hub es una plataforma ( servicio web centralizado ) para alojar: [20]

Existen numerosos modelos preentrenados que admiten tareas comunes en diferentes modalidades, como:

Otras bibliotecas

Ejemplo de interfaz de usuario de Gradio

Además de Transformers y Hugging Face Hub, el ecosistema Hugging Face contiene bibliotecas para otras tareas, como procesamiento de conjuntos de datos ("Datasets"), evaluación de modelos ("Evaluate") y demostraciones de aprendizaje automático ("Gradio"). [21]

Tensores de seguridad

El formato safetensors se desarrolló alrededor de 2021 para resolver problemas con el formato pickle en Python. Fue diseñado para guardar y cargar tensores. En comparación con el formato pickle, permite la carga diferida y evita problemas de seguridad. [22] Después de una auditoría de seguridad, se convirtió en el formato predeterminado en 2023. [23]

El formato del archivo:

Véase también

Referencias

  1. ^ "Condiciones de servicio – Hugging Face". huggingface.co . Consultado el 24 de mayo de 2024 .
  2. ^ ab "Hugging Face quiere convertirse en tu mejor amiga artificial". TechCrunch . 9 de marzo de 2017. Archivado desde el original el 2022-09-25 . Consultado el 2023-09-17 .
  3. ^ "Hugging Face recauda 40 millones de dólares para su biblioteca de procesamiento de lenguaje natural". 11 de marzo de 2021. Archivado desde el original el 28 de julio de 2023. Consultado el 5 de agosto de 2022 .
  4. ^ "Dentro de BigScience, la búsqueda para construir un poderoso modelo de lenguaje abierto". 10 de enero de 2022. Archivado desde el original el 1 de julio de 2022 . Consultado el 5 de agosto de 2022 .
  5. ^ "BLOOM". bigscience.huggingface.co . Archivado desde el original el 2022-11-14 . Consultado el 2022-08-20 .
  6. ^ "Dentro de un nuevo proyecto radical para democratizar la IA". MIT Technology Review . Archivado desde el original el 4 de diciembre de 2022. Consultado el 25 de agosto de 2023 .
  7. ^ Nataraj, Poornima (23 de diciembre de 2021). "Hugging Face adquiere Gradio, una biblioteca de componentes de interfaz de usuario personalizables para Python". Revista Analytics India . Consultado el 26 de enero de 2024 .
  8. ^ Cai, Kenrick. "El emoji de 2 mil millones de dólares: la cara que abraza quiere ser la plataforma de lanzamiento de una revolución del aprendizaje automático". Forbes . Archivado desde el original el 2022-11-03 . Consultado el 2022-08-20 .
  9. ^ "Presentamos el centro privado: una nueva forma de crear con aprendizaje automático". huggingface.co . Archivado desde el original el 2022-11-14 . Consultado el 2022-08-20 .
  10. ^ Bass, Dina (21 de febrero de 2023). "La unidad de nube de Amazon se asocia con la startup Hugging Face mientras aumentan los acuerdos de inteligencia artificial". Bloomberg News . Archivado desde el original el 22 de mayo de 2023 . Consultado el 22 de febrero de 2023 .
  11. ^ Nellis, Stephen (21 de febrero de 2023). «Amazon Web Services se asocia con Hugging Face para dirigirse a los desarrolladores de inteligencia artificial». Reuters . Archivado desde el original el 30 de mayo de 2023. Consultado el 22 de febrero de 2023 .
  12. ^ "AWS y Hugging Face colaboran para hacer que la IA generativa sea más accesible y rentable | Blog de aprendizaje automático de AWS". aws.amazon.com . 2023-02-21. Archivado desde el original el 2023-08-25 . Consultado el 2023-08-25 .
  13. ^ Leswing, Kif (24 de agosto de 2023). «Google, Amazon, Nvidia y otros gigantes tecnológicos invierten en la startup de inteligencia artificial Hugging Face, elevando su valoración a 4.500 millones de dólares». CNBC . Archivado desde el original el 24 de agosto de 2023. Consultado el 24 de agosto de 2023 .
  14. ^ "META Collaboration lanza un acelerador de inteligencia artificial para empresas emergentes europeas". Yahoo Finance . 2024-06-25 . Consultado el 2024-07-11 .
  15. ^ {{Cite web |date=2024-09-23 |title=Espacios de abrazos faciales Traductor |url=https://huggingface.co/spaces/UNESCO/nllb.html
  16. ^ {{Cite web |date=2024-09-23 |title=Evento de traductores de la UNESCO |url=https://www.unesco.org/es/evento/evento-de-lanzamiento-de-un-traductor-de-idiomas-con-meta-y-abrazos-en-la-cara-de-la-unesco?hub=68184.html
  17. ^ "🤗 Transformers". huggingface.co . Archivado desde el original el 2023-09-27 . Consultado el 2022-08-20 .
  18. ^ "Primera versión". GitHub . 17 de noviembre de 2018. Archivado desde el original el 30 de abril de 2023 . Consultado el 28 de marzo de 2023 .
  19. ^ "xenova/transformers.js". GitHub .
  20. ^ "Documentación de Hugging Face Hub". huggingface.co . Archivado desde el original el 2023-09-20 . Consultado el 2022-08-20 .
  21. ^ "Hugging Face - Documentación". huggingface.co . Archivado desde el original el 2023-09-30 . Consultado el 2023-02-18 .
  22. ^ Huggingface/safetensors, Hugging Face, 21 de septiembre de 2024 , consultado el 22 de septiembre de 2024
  23. ^ "🐶Safetensors auditados como realmente seguros y convirtiéndose en la opción predeterminada". huggingface.co . Consultado el 22 de septiembre de 2024 .