Vicuna LLM es un modelo de lenguaje grande ómnibus utilizado en la investigación de IA . [1] Su metodología es permitir que el público en general contraste y compare la precisión de los LLM "en la naturaleza" (un ejemplo de ciencia ciudadana ) y vote sobre su resultado; se utiliza un formato de chat de preguntas y respuestas . Al comienzo de cada ronda, se presentan aleatoriamente y de forma anónima dos chatbots LLM de un grupo diverso de nueve, y sus identidades solo se revelan al votar sus respuestas. El usuario tiene la opción de volver a jugar ("regenerar") una ronda o comenzar una completamente nueva con nuevos LLM. [2] (El usuario también tiene la opción de elegir contra qué LLM luchar). Basado en Llama 2 , [3] [4] es un proyecto de código abierto, [5] [6] y se ha convertido en el tema de la investigación académica en el floreciente campo. [7] [8] Una demostración pública y no comercial del modelo Vicuna-13b está disponible para acceder mediante LMSYS. [9]
Referencias
- ^ "Vicuna: un chatbot de código abierto que impresiona a GPT-4 con una calidad de ChatGPT del 90%* | LMSYS Org". lmsys.org .
- ^ "Vicuna LLM ya está disponible comercialmente, nueva actualización v1.5 mejora la longitud del contexto".
- ^ "lmsys/vicuna-13b-v1.5 · Cara abrazada". huggingface.co .
- ^ "El Índice LLM: Vicuña | Sapling". sapling.ai .
- ^ "FastChat". 29 de octubre de 2023 – vía GitHub.
- ^ "Cómo capacitar e implementar LLM de Vicuna y FastChat | Width.ai". www.width.ai .
- ^ Peng, Baolin; Li, Chunyuan; Él, Pengcheng; Galera, Michel; Gao, Jianfeng (2023). "Ajuste de instrucciones con GPT-4". arXiv : 2304.03277 [cs.CL].
- ^ Zheng, Lianmin; Chiang, Wei-Lin; Sheng, Ying; Zhuang, Siyuan; Wu, Zhanghao; Zhuang, Yonghao; Lin, Zi; Li, Zhuohan; Li, Dacheng; Xing, Eric P.; Zhang, Hao; González, José E.; Estoica, Ion (2023). "Juzgar LLM como juez con MT-Bench y Chatbot Arena". arXiv : 2306.05685 [cs.CL].
- ^ "Vicuna - Chatbot de inteligencia artificial de código abierto".
Enlaces externos