OpenAI es una organización estadounidense de investigación en inteligencia artificial (IA) fundada en diciembre de 2015 y con sede en San Francisco, California. Su misión es desarrollar una inteligencia artificial general (AGI) "segura y beneficiosa", que define como "sistemas altamente autónomos que superan a los humanos en el trabajo económicamente más valioso". [5] Como organización líder en el auge actual de la IA , [6] OpenAI es conocida por la familia GPT de modelos de lenguaje grandes , la serie DALL-E de modelos de texto a imagen y un modelo de texto a video llamado Sora . [7] [8] Su lanzamiento de ChatGPT en noviembre de 2022 ha sido reconocido por catalizar el interés generalizado en la IA generativa .
La organización está formada por la organización sin fines de lucro OpenAI, Inc. , [ 9] registrada en Delaware , y su subsidiaria con fines de lucro introducida en 2019, OpenAI Global, LLC. [10] Microsoft posee aproximadamente el 49% del capital de OpenAI , habiendo invertido US$13 mil millones. [11] También proporciona recursos informáticos a OpenAI a través de su plataforma en la nube Microsoft Azure . [12]
En 2023 y 2024, OpenAI enfrentó múltiples demandas por supuesta infracción de derechos de autor contra autores y empresas de medios cuyo trabajo se utilizó para entrenar algunos de los productos de OpenAI. En noviembre de 2023, la junta directiva de OpenAI destituyó a Sam Altman como director ejecutivo, alegando falta de confianza en él, y luego lo reinstaló cinco días después tras negociaciones que dieron como resultado una junta reestructurada. Muchos investigadores de seguridad de AGI abandonaron OpenAI en 2024. [13]
En diciembre de 2015, Sam Altman , Elon Musk , Ilya Sutskever , Greg Brockman , Trevor Blackwell , Vicki Cheung, Andrej Karpathy , Durk Kingma, John Schulman, Pamela Vagata y Wojciech Zaremba fundaron OpenAI, con Sam Altman y Elon Musk como copresidentes. Sam Altman, Greg Brockman, Elon Musk, Reid Hoffman , Jessica Livingston , Peter Thiel , Amazon Web Services (AWS), Infosys y YC Research prometieron un total de mil millones de dólares . [14] [15] La cantidad total real de contribuciones recaudadas fue de solo 130 millones de dólares hasta 2019. [10] Según una investigación dirigida por TechCrunch , Musk fue su mayor donante, mientras que YC Research no contribuyó con nada en absoluto. [16] La organización declaró que "colaboraría libremente" con otras instituciones e investigadores al hacer que sus patentes e investigaciones fueran abiertas al público. [17] [18] OpenAI inicialmente se manejaba desde la sala de estar de Brockman. [19] Más tarde, su sede se encontraba en el edificio Pioneer en el Distrito de la Misión, San Francisco . [20] [21]
Según Wired , Brockman se reunió con Yoshua Bengio , uno de los "padres fundadores" del aprendizaje profundo , y elaboró una lista de los "mejores investigadores en el campo". [22] Brockman pudo contratar a nueve de ellos como los primeros empleados en diciembre de 2015. [22] En 2016, OpenAI pagó salarios a nivel corporativo (en lugar de a nivel sin fines de lucro), pero no pagó a los investigadores de IA salarios comparables a los de Facebook o Google . [22]
Peter Lee, de Microsoft, afirmó que el coste de un investigador de IA de primer nivel supera el coste de un prospecto de mariscal de campo de primer nivel de la NFL . [22] El potencial y la misión de OpenAI atrajeron a estos investigadores a la empresa; un empleado de Google dijo que estaba dispuesto a dejar Google por OpenAI "en parte por el grupo de personas muy fuerte y, en gran medida, por su misión". [22] Brockman afirmó que "lo mejor que podía imaginar hacer era acercar a la humanidad a la construcción de una IA real de una manera segura". [22] El cofundador de OpenAI, Wojciech Zaremba, afirmó que rechazó ofertas "casi locas" de dos a tres veces su valor de mercado para unirse a OpenAI. [22]
En abril de 2016, OpenAI lanzó una versión beta pública de "OpenAI Gym", su plataforma para la investigación del aprendizaje por refuerzo . [23] Nvidia regaló su primera supercomputadora DGX-1 a OpenAI en agosto de 2016 para ayudarla a entrenar modelos de IA más grandes y complejos con la capacidad de reducir el tiempo de procesamiento de seis días a dos horas. [24] [25] En diciembre de 2016, OpenAI lanzó "Universe", una plataforma de software para medir y entrenar la inteligencia general de una IA en todo el mundo en juegos, sitios web y otras aplicaciones. [26] [27] [28] [29]
En 2017, OpenAI gastó 7,9 millones de dólares, o una cuarta parte de sus gastos funcionales, solo en computación en la nube. [30] En comparación, los gastos totales de DeepMind en 2017 fueron de 442 millones de dólares. En el verano de 2018, simplemente entrenar a los bots de Dota 2 de OpenAI requirió alquilar 128.000 CPU y 256 GPU de Google durante varias semanas.
En 2018, Musk renunció a su puesto en la Junta Directiva, citando "un posible conflicto de intereses futuro " con su papel como director ejecutivo de Tesla debido al desarrollo de inteligencia artificial de Tesla para automóviles autónomos. [31] Sam Altman afirma que Musk creía que OpenAI se había quedado atrás de otros actores como Google y, en cambio, Musk propuso hacerse cargo de OpenAI él mismo, lo que la junta rechazó. Posteriormente, Musk abandonó OpenAI.
En febrero de 2019, se anunció GPT-2 , que ganó atención por su capacidad de generar texto similar al humano. [32]
En 2019, OpenAI pasó de ser una organización sin fines de lucro a una organización con fines de lucro "limitada", con un límite de ganancias de 100 veces cualquier inversión. [33] Según OpenAI, el modelo de ganancias limitadas permite a OpenAI Global, LLC atraer legalmente inversiones de fondos de riesgo y, además, otorgar a los empleados participaciones en la empresa. [34] Muchos investigadores destacados trabajan para Google Brain , DeepMind o Facebook , que ofrecen opciones sobre acciones que una organización sin fines de lucro no podría ofrecer. [35] Antes de la transición, la divulgación pública de la compensación de los principales empleados de OpenAI era legalmente requerida. [36]
La empresa distribuyó entonces acciones entre sus empleados y se asoció con Microsoft, [37] anunciando un paquete de inversión de 1.000 millones de dólares en la empresa. Desde entonces, los sistemas OpenAI se han ejecutado en una plataforma de supercomputación basada en Azure de Microsoft. [38] [39] [40]
OpenAI Global, LLC anunció entonces su intención de licenciar comercialmente sus tecnologías. [41] Planeaba gastar los mil millones de dólares "en un plazo de cinco años, y posiblemente mucho más rápido". [42] Altman ha declarado que incluso mil millones de dólares pueden resultar insuficientes, y que el laboratorio puede llegar a necesitar "más capital del que cualquier organización sin fines de lucro haya recaudado jamás" para lograr la inteligencia artificial general. [43]
La transición de una organización sin fines de lucro a una organización con fines de lucro limitados fue vista con escepticismo por Oren Etzioni , del Instituto Allen para la IA , una organización sin fines de lucro. Etzioni estuvo de acuerdo en que atraer a los mejores investigadores a una organización sin fines de lucro es difícil, pero afirmó: "No estoy de acuerdo con la idea de que una organización sin fines de lucro no pueda competir" y señaló proyectos exitosos de bajo presupuesto de OpenAI y otros. "Si más grande y mejor financiado fuera siempre mejor, IBM seguiría siendo el número uno".
La organización sin fines de lucro OpenAI, Inc. es el único accionista controlador de OpenAI Global, LLC, que, a pesar de ser una empresa con fines de lucro, conserva una responsabilidad fiduciaria formal con respecto a los estatutos de la organización sin fines de lucro de OpenAI, Inc. La mayoría de la junta directiva de OpenAI, Inc. tiene prohibido tener participaciones financieras en OpenAI Global, LLC. [34] Además, los miembros minoritarios con una participación en OpenAI Global, LLC tienen prohibido votar en determinadas ocasiones debido a un conflicto de intereses. [35] Algunos investigadores han argumentado que el cambio de OpenAI Global, LLC a la condición de empresa con fines de lucro es incompatible con las afirmaciones de OpenAI de estar "democratizando" la IA. [44]
En 2020, OpenAI anunció GPT-3 , un modelo de lenguaje entrenado en grandes conjuntos de datos de Internet. GPT-3 está destinado a responder preguntas en lenguaje natural, pero también puede traducir entre idiomas y generar texto improvisado de manera coherente. También anunció que una API asociada, llamada simplemente "la API", formaría el corazón de su primer producto comercial. [45]
Once empleados abandonaron OpenAI, la mayoría entre diciembre de 2020 y enero de 2021, para fundar Anthropic . [46]
En 2021, OpenAI presentó DALL-E , un modelo de aprendizaje profundo especializado capaz de generar imágenes digitales complejas a partir de descripciones textuales, utilizando una variante de la arquitectura GPT-3. [47]
En diciembre de 2022, OpenAI recibió una amplia cobertura mediática tras lanzar una versión preliminar gratuita de ChatGPT , su nuevo chatbot de IA basado en GPT-3.5. Según OpenAI, la versión preliminar recibió más de un millón de registros en los primeros cinco días. [48] Según fuentes anónimas citadas por Reuters en diciembre de 2022, OpenAI Global, LLC proyectaba 200 millones de dólares de ingresos en 2023 y 1.000 millones de dólares en ingresos en 2024. [49]
En enero de 2023, OpenAI Global, LLC estaba en conversaciones para obtener una financiación que valoraría la empresa en 29.000 millones de dólares, el doble de su valor de 2021. [50] El 23 de enero de 2023, Microsoft anunció una nueva inversión de 10.000 millones de dólares en OpenAI Global, LLC a lo largo de varios años, parcialmente necesaria para utilizar el servicio de computación en la nube de Microsoft, Azure . [51] [52] Los rumores sobre este acuerdo sugirieron que Microsoft podría recibir el 75% de las ganancias de OpenAI hasta que asegure el retorno de su inversión y una participación del 49% en la empresa. [53] Se cree que la inversión es parte de los esfuerzos de Microsoft para integrar ChatGPT de OpenAI en el motor de búsqueda Bing. Google anunció una aplicación de IA similar ( Bard ), después del lanzamiento de ChatGPT, por temor a que ChatGPT pudiera amenazar el lugar de Google como fuente de información de referencia. [54] [55]
El 7 de febrero de 2023, Microsoft anunció que estaba desarrollando tecnología de IA basada en la misma base que ChatGPT en Microsoft Bing , Edge , Microsoft 365 y otros productos. [56]
El 3 de marzo de 2023, Reid Hoffman renunció a su puesto en la junta directiva, citando el deseo de evitar conflictos de intereses con sus inversiones en empresas de inteligencia artificial a través de Greylock Partners y su cofundación de la startup de inteligencia artificial Inflection AI . Hoffman permaneció en la junta directiva de Microsoft, un importante inversor en OpenAI. [57]
El 14 de marzo de 2023, OpenAI lanzó GPT-4 , tanto como API (con una lista de espera) como una función de ChatGPT Plus. [58]
El 22 de mayo de 2023, Sam Altman, Greg Brockman e Ilya Sutskever publicaron recomendaciones para la gobernanza de la superinteligencia . [59] Consideran que la superinteligencia podría suceder en los próximos 10 años, lo que permitiría un "futuro dramáticamente más próspero" y que "dada la posibilidad de riesgo existencial, no podemos ser simplemente reactivos". Proponen crear una organización de vigilancia internacional similar al OIEA para supervisar los sistemas de IA por encima de un cierto umbral de capacidad, sugiriendo que los sistemas de IA relativamente débiles del otro lado no deberían ser regulados excesivamente. También piden más investigación técnica de seguridad para las superinteligencias y piden más coordinación, por ejemplo a través de los gobiernos que lancen un proyecto conjunto del que "muchos esfuerzos actuales pasen a formar parte". [59] [60]
En julio de 2023, OpenAI lanzó el proyecto de superalineación, con el objetivo de encontrar en cuatro años cómo alinear futuras superinteligencias automatizando la investigación de alineación mediante IA. [61]
En agosto de 2023, se anunció que OpenAI había adquirido la startup Global Illumination, con sede en Nueva York , una empresa que implementa IA para desarrollar infraestructura digital y herramientas creativas. [62]
El 21 de septiembre de 2023, Microsoft había comenzado a cambiar el nombre de todas las variantes de su Copilot a Microsoft Copilot , incluido el antiguo Bing Chat y Microsoft 365 Copilot . [63] Esta estrategia se siguió en diciembre de 2023 al agregar MS-Copilot a muchas instalaciones de Windows 11 y Windows 10 , así como una aplicación independiente Microsoft Copilot lanzada para Android [64] y una lanzada para iOS a partir de entonces. [65]
En septiembre de 2024, la jefa de asuntos globales de OpenAI, Anna Makanju, expresó su apoyo al enfoque del Reino Unido sobre la regulación de la IA durante su testimonio ante el Comité de Comunicaciones y Digitalización de la Cámara de los Lores, afirmando que la empresa favorece la "regulación inteligente" y ve el libro blanco de IA del Reino Unido como un paso positivo hacia el desarrollo responsable de la IA. [66]
En octubre de 2023, Sam Altman y Peng Xiao, director ejecutivo de la empresa de inteligencia artificial emiratí G42 , anunciaron que Open AI permitiría a G42 implementar la tecnología Open AI. [67]
El 6 de noviembre de 2023, OpenAI lanzó GPT, lo que permite a las personas crear versiones personalizadas de ChatGPT para fines específicos, lo que amplía aún más las posibilidades de las aplicaciones de IA en varias industrias. [68] El 14 de noviembre de 2023, OpenAI anunció que suspendió temporalmente las nuevas suscripciones a ChatGPT Plus debido a la alta demanda. [69] El acceso para los suscriptores más nuevos se reabrió un mes después, el 13 de diciembre. [70]
El 16 de enero de 2024, en respuesta al intenso escrutinio de los reguladores de todo el mundo, OpenAI anunció la formación de un nuevo equipo de Alineación Colectiva que tendría como objetivo implementar ideas del público para garantizar que sus modelos se "alinearan con los valores de la humanidad". La medida se produjo a partir de su programa público lanzado en mayo de 2023. La empresa explicó que el programa estaría separado de sus esfuerzos comerciales. [71] El 18 de enero de 2024, OpenAI anunció una asociación con la Universidad Estatal de Arizona que le daría acceso completo a ChatGPT Enterprise. ASU planea incorporar la tecnología en varios aspectos de sus operaciones, incluidos cursos, tutorías e investigación. Es la primera asociación de OpenAI con una institución educativa. [72]
En febrero de 2024, la Comisión de Bolsa y Valores de Estados Unidos supuestamente estaba investigando a OpenAI para determinar si las comunicaciones internas de la empresa realizadas por Altman se habían utilizado para engañar a los inversores; y una investigación de las declaraciones de Altman, abierta por la Fiscalía del Sur de Nueva York de Estados Unidos en noviembre anterior, estaba en curso. [73] [74]
El 15 de febrero de 2024, OpenAI anunció un modelo de texto a video llamado Sora , que planea lanzar al público en una fecha no especificada. [75] Actualmente está disponible para equipos rojos para gestionar daños y riesgos críticos. [76]
El 29 de febrero de 2024, OpenAI y su director ejecutivo Sam Altman fueron demandados por Elon Musk , quien los acusó de priorizar las ganancias sobre el bien público, en contra de la misión original de OpenAI [10] de desarrollar IA para el beneficio de la humanidad. [77] La demanda citó el cambio de política de OpenAI después de asociarse con Microsoft, cuestionando su compromiso de código abierto y agitando el debate ética de la IA versus ganancias. [78] En una publicación de blog, OpenAI declaró que "Elon entendió que la misión no implicaba la apertura de la IAG de código abierto". [79] En un memorando del personal, también negaron ser una subsidiaria de facto de Microsoft. [80]
El 11 de marzo de 2024, en una presentación judicial, OpenAI dijo que "estaba bien sin Elon Musk" después de que dejara la compañía en 2018. También respondieron a la demanda de Musk, calificando las afirmaciones del multimillonario de "incoherentes", "frívolas", "extraordinarias" y "una ficción". [81] El 11 de junio de 2024, Musk retiró inesperadamente la demanda. [82] El 5 de agosto de 2024, Musk reabrió la demanda contra Altman y otros, alegando que Altman afirmó que OpenAI se iba a fundar como una organización sin fines de lucro. [83] [84]
El 15 de mayo de 2024, Ilya Sutskever renunció a OpenAI y fue reemplazado por Jakub Pachocki como científico jefe. [85] Horas más tarde, Jan Leike , el otro codirector del equipo de superalineación, anunció su salida, citando una erosión de la seguridad y la confianza en el liderazgo de OpenAI. [86] Sus salidas, junto con la salida de varios investigadores del grupo, llevaron a OpenAI a absorber el trabajo del equipo en otras áreas de investigación y cerraron oficialmente el grupo de superalineación. [87] Según fuentes entrevistadas por Fortune , la promesa de OpenAI de asignar el 20% de sus capacidades informáticas al proyecto de superalineación no se había cumplido. [88]
El 19 de mayo de 2024, Reddit y OpenAI anunciaron una asociación para integrar el contenido de Reddit en los productos de OpenAI, incluido ChatGPT . Esta colaboración permite a OpenAI acceder a la API de datos de Reddit , lo que proporciona contenido estructurado en tiempo real para mejorar las herramientas de IA y la interacción de los usuarios con las comunidades de Reddit. Además, Reddit planea desarrollar nuevas funciones impulsadas por IA para usuarios y moderadores que utilicen la plataforma de OpenAI. La asociación se alinea con el compromiso de Reddit con la privacidad, adhiriéndose a su Política de contenido público y los Términos de API de datos existentes, que restringen el uso comercial sin aprobación. OpenAI también actuará como socio publicitario de Reddit. [89]
El 22 de mayo de 2024, OpenAI firmó un acuerdo con News Corp para integrar contenido de noticias de The Wall Street Journal , The New York Post , The Times y The Sunday Times en su plataforma de IA. Mientras tanto, otras publicaciones como The New York Times decidieron demandar a OpenAI y Microsoft por infracción de derechos de autor por el uso de su contenido para entrenar modelos de IA. [90]
El 29 de mayo de 2024, Axios informó que OpenAI había firmado acuerdos con Vox Media y The Atlantic para compartir contenido con el fin de mejorar la precisión de los modelos de IA como ChatGPT mediante la incorporación de fuentes de noticias fiables, lo que abordó las preocupaciones sobre la desinformación en materia de IA. [91] Los periodistas, incluidos los que trabajan para las publicaciones, así como los sindicatos de las publicaciones, expresaron su preocupación por la decisión. El sindicato de Vox declaró: "Como periodistas y trabajadores, tenemos serias preocupaciones sobre esta asociación, que creemos que podría afectar negativamente a los miembros de nuestro sindicato, por no mencionar las preocupaciones éticas y ambientales bien documentadas en torno al uso de la IA generativa". [92]
Un grupo de nueve empleados actuales y antiguos de OpenAI ha acusado a la empresa de priorizar las ganancias por sobre la seguridad, de utilizar acuerdos restrictivos para silenciar las preocupaciones y de actuar con demasiada rapidez y sin una gestión adecuada de los riesgos. Piden mayor transparencia, protección de los denunciantes y regulación legislativa del desarrollo de la IA. [93]
El 10 de junio de 2024, se anunció en la WWDC 2024 que OpenAI se había asociado con Apple Inc. para llevar las funciones de ChatGPT a Apple Intelligence y iPhone . [94]
El 13 de junio de 2024, OpenAI anunció que Paul Nakasone , exdirector de la NSA , se uniría a la junta directiva de la empresa. Nakasone también se unió al subcomité de seguridad de la empresa. [95]
El 24 de junio de 2024, OpenAI adquirió Multi, una startup que ejecuta una plataforma de colaboración basada en Zoom . [96]
En julio de 2024, Reuters informó que OpenAI estaba trabajando en un proyecto con el nombre en código "Strawberry" (anteriormente conocido como Q*) cuyo objetivo era mejorar las capacidades de razonamiento de la IA. Según se informa, el proyecto busca permitir que la IA planifique con anticipación, navegue por Internet de forma autónoma y realice "investigaciones profundas". [97] [98] El proyecto se lanzó oficialmente el 12 de septiembre y se denominó o1 . [99]
El 5 de agosto, TechCrunch informó que el cofundador de OpenAI, John Schulman, dejó la empresa para unirse a la startup rival de inteligencia artificial Anthropic . Schulman citó el deseo de centrarse más profundamente en la investigación de alineación de IA como su razón para la decisión. Además, el presidente y cofundador de OpenAI, Greg Brockman, se tomará una licencia prolongada hasta fin de año. [100]
El 25 de septiembre, la directora de tecnología de OpenAI , Mira Murati, anunció su salida de la empresa para "crear el tiempo y el espacio para hacer mi propia exploración". [101] Anteriormente se había informado que Murati estaba entre quienes expresaron sus preocupaciones a la Junta Directiva sobre Altman. [102]
En octubre de 2024, OpenAI recaudó 6.600 millones de dólares de inversores, lo que potencialmente valoraría la empresa en 157.000 millones de dólares y consolidaría su estatus como una de las empresas privadas más valiosas del mundo. La financiación atrajo a empresas de capital de riesgo que regresaron como Thrive Capital y Khosla Ventures , junto con el importante patrocinador Microsoft y los nuevos inversores Nvidia y Softbank . [103] La directora financiera de OpenAI , Sarah Friar, informó a los empleados que una oferta pública de adquisición de recompra de acciones seguiría a la financiación, aunque los detalles aún estaban por determinar. Thrive Capital invirtió alrededor de 1.200 millones de dólares, con la opción de 1.000 millones de dólares adicionales si se cumplían los objetivos de ingresos. Apple, a pesar del interés inicial, no participó en esta ronda de financiación. [104]
Fuentes: [10] [110]
Algunos científicos, como Stephen Hawking y Stuart Russell , han expresado su preocupación por el hecho de que, si la IA avanzada adquiere la capacidad de rediseñarse a un ritmo cada vez mayor, una « explosión de inteligencia » imparable podría conducir a la extinción humana . El cofundador Musk caracteriza a la IA como la «mayor amenaza existencial» para la humanidad. [118]
Musk y Altman han declarado que están motivados en parte por las preocupaciones sobre la seguridad de la IA y el riesgo existencial de la inteligencia artificial general . [119] [120] OpenAI afirma que "es difícil imaginar cuánto podría beneficiar a la sociedad la IA a nivel humano", y que es igualmente difícil comprender "cuánto podría dañar a la sociedad si se construye o se usa incorrectamente". [18] La investigación sobre seguridad no se puede posponer con seguridad: "debido a la sorprendente historia de la IA, es difícil predecir cuándo la IA a nivel humano podría estar al alcance". [121] OpenAI afirma que la IA "debería ser una extensión de las voluntades humanas individuales y, en el espíritu de la libertad, distribuida de la manera más amplia y uniforme posible". [18] El copresidente Sam Altman espera que el proyecto, que durará décadas, supere la inteligencia humana. [122]
Vishal Sikka , ex director ejecutivo de Infosys, afirmó que una "apertura", donde el esfuerzo "produciría resultados generalmente en el mayor interés de la humanidad", era un requisito fundamental para su apoyo; y que OpenAI "se alinea muy bien con nuestros valores de larga data" y su "esfuerzo por hacer un trabajo con un propósito". [123] Cade Metz de Wired sugirió que corporaciones como Amazon podrían estar motivadas por el deseo de usar software y datos de código abierto para nivelar el campo de juego contra corporaciones como Google y Facebook, que poseen enormes suministros de datos privados. Altman afirmó que las empresas de Y Combinator compartirían sus datos con OpenAI. [122]
En los primeros años antes de su partida en 2018, Musk planteó la pregunta: "¿Qué es lo mejor que podemos hacer para garantizar que el futuro sea bueno? Podríamos quedarnos al margen o podemos fomentar la supervisión regulatoria, o podríamos participar con la estructura adecuada con personas que se preocupan profundamente por desarrollar la IA de una manera que sea segura y beneficiosa para la humanidad". Reconoció que "siempre existe cierto riesgo de que al intentar realmente avanzar en la IA (amigable) podamos crear lo que nos preocupa"; pero, no obstante, que la mejor defensa era "empoderar a la mayor cantidad posible de personas para que tengan IA. Si todos tienen poderes de IA, entonces no hay ninguna persona o un pequeño grupo de individuos que puedan tener superpoderes de IA". [105]
La estrategia contraintuitiva de Musk y Altman (la de intentar reducir el daño de la IA dándole acceso a todo el mundo) es controvertida entre quienes se preocupan por el riesgo existencial de la IA. El filósofo Nick Bostrom dijo: "Si tienes un botón que podría hacer cosas malas al mundo, no quieres dárselo a todo el mundo". [120] Durante una conversación de 2016 sobre la singularidad tecnológica , Altman dijo: "No planeamos publicar todo nuestro código fuente" y mencionó un plan para "permitir que amplias franjas del mundo elijan representantes para una nueva junta de gobierno". Greg Brockman afirmó: "Nuestro objetivo en este momento... es hacer lo mejor que se pueda hacer. Es un poco vago". [124]
Por el contrario, la decisión inicial de OpenAI de no publicar GPT-2 en torno a 2019, debido a un deseo de "pecar de cauteloso" ante la posibilidad de un mal uso, fue criticada por los defensores de la apertura. Delip Rao, un experto en generación de texto, afirmó: "No creo que [OpenAI] haya dedicado suficiente tiempo a demostrar que [GPT-2] era realmente peligroso". Otros críticos argumentaron que la publicación abierta era necesaria para replicar la investigación y crear contramedidas. [125]
Más recientemente, en 2022, OpenAI publicó su enfoque del problema de la alineación , anticipando que alinear la IA general con los valores humanos probablemente sería más difícil que alinear los sistemas de IA actuales: "La IA general no alineada podría plantear riesgos sustanciales para la humanidad[,] y resolver el problema de alineación de la IA general podría ser tan difícil que requerirá que toda la humanidad trabaje junta". Afirmaron que tenían la intención de explorar cómo utilizar mejor la retroalimentación humana para entrenar sistemas de IA y cómo utilizar la IA de forma segura para automatizar de forma incremental la investigación de la alineación. [126] Algunos observadores creen que la reorganización de la empresa en noviembre de 2023, incluido el regreso de Altman como director ejecutivo y los cambios en su junta directiva, indicó un probable cambio hacia un enfoque empresarial y una menor influencia de las "personas cautelosas" en OpenAI. [127]
En sus inicios, la investigación de OpenAI incluía muchos proyectos centrados en el aprendizaje por refuerzo (RL). [128] OpenAI ha sido visto como un competidor importante de DeepMind . [129]
Anunciada en 2016, Gym es una biblioteca Python de código abierto diseñada para facilitar el desarrollo de algoritmos de aprendizaje por refuerzo. Su objetivo era estandarizar la forma en que se definen los entornos en la investigación de IA, haciendo que la investigación publicada sea más fácilmente reproducible [23] [130] y proporcionando a los usuarios una interfaz sencilla para interactuar con estos entornos. En 2022, los nuevos desarrollos de Gym se han trasladado a la biblioteca Gymnasium. [131] [132]
Gym Retro, que se lanzó en 2018, es una plataforma para la investigación del aprendizaje por refuerzo (RL) en videojuegos, [133] que utiliza algoritmos de RL y generalización de estudios. Las investigaciones anteriores sobre RL se centraban principalmente en optimizar agentes para resolver tareas individuales. Gym Retro brinda la capacidad de generalizar entre juegos con conceptos similares pero apariencias diferentes.
Lanzado en 2017, RoboSumo es un mundo virtual donde los agentes robot humanoides de metaaprendizaje inicialmente carecen de conocimiento sobre cómo caminar, pero se les dan los objetivos de aprender a moverse y empujar al agente oponente fuera del ring. [134] A través de este proceso de aprendizaje adversario, los agentes aprenden a adaptarse a las condiciones cambiantes. Cuando un agente es retirado de este entorno virtual y colocado en un nuevo entorno virtual con fuertes vientos, el agente se prepara para permanecer erguido, lo que sugiere que había aprendido a mantener el equilibrio de manera generalizada. [134] [135] Igor Mordatch de OpenAI argumentó que la competencia entre agentes podría crear una "carrera armamentista" de inteligencia que podría aumentar la capacidad de un agente para funcionar incluso fuera del contexto de la competencia. [134]
OpenAI Five es un equipo de cinco bots seleccionados por OpenAI que se utilizan en el videojuego competitivo de cinco contra cinco Dota 2 , que aprenden a jugar contra jugadores humanos a un alto nivel de habilidad completamente a través de algoritmos de prueba y error. Antes de convertirse en un equipo de cinco, la primera demostración pública ocurrió en The International 2017 , el torneo anual de campeonato de estreno para el juego, donde Dendi , un jugador profesional ucraniano, perdió contra un bot en un enfrentamiento uno contra uno en vivo. [136] [137] Después del partido, el CTO Greg Brockman explicó que el bot había aprendido jugando contra sí mismo durante dos semanas en tiempo real , y que el software de aprendizaje era un paso en la dirección de crear software que puede manejar tareas complejas como un cirujano. [138] [139] El sistema utiliza una forma de aprendizaje de refuerzo , ya que los bots aprenden con el tiempo jugando contra sí mismos cientos de veces al día durante meses, y son recompensados por acciones como matar a un enemigo y tomar objetivos del mapa. [140] [141] [142]
En junio de 2018, la capacidad de los bots se expandió para jugar juntos como un equipo completo de cinco, y pudieron derrotar a equipos de jugadores amateurs y semiprofesionales. [143] [140] [144] [145] En The International 2018 , OpenAI Five jugó dos partidos de exhibición contra jugadores profesionales, pero terminó perdiendo ambos juegos. [146] [147] [148] En abril de 2019, OpenAI Five derrotó a OG , los campeones mundiales reinantes del juego en ese momento, 2: 0 en un partido de exhibición en vivo en San Francisco. [149] [150] La última aparición pública de los bots se produjo más tarde ese mes, donde jugaron 42.729 juegos en total en una competición abierta en línea de cuatro días, ganando el 99,4% de esos juegos. [151]
Los mecanismos de OpenAI Five en el jugador bot de Dota 2 muestran los desafíos de los sistemas de IA en los juegos de arena de batalla en línea multijugador (MOBA) y cómo OpenAI Five ha demostrado el uso de agentes de aprendizaje de refuerzo profundo (DRL) para lograr una competencia sobrehumana en los partidos de Dota 2. [152]
Desarrollado en 2018, Dactyl utiliza aprendizaje automático para entrenar a Shadow Hand , una mano robótica similar a la humana, para manipular objetos físicos. [153] Aprende completamente en simulación utilizando los mismos algoritmos RL y código de entrenamiento que OpenAI Five. OpenAI abordó el problema de la orientación de objetos mediante el uso de la aleatorización de dominio , un enfoque de simulación que expone al alumno a una variedad de experiencias en lugar de tratar de adaptarse a la realidad. La configuración de Dactyl, además de tener cámaras de seguimiento de movimiento, también tiene cámaras RGB para permitir que el robot manipule un objeto arbitrario al verlo. En 2018, OpenAI demostró que el sistema podía manipular un cubo y un prisma octagonal. [154]
En 2019, OpenAI demostró que Dactyl podía resolver un cubo de Rubik . El robot pudo resolver el rompecabezas el 60% de las veces. Los objetos como el cubo de Rubik introducen una física compleja que es más difícil de modelar. OpenAI logró esto mejorando la robustez de Dactyl a las perturbaciones mediante el uso de la aleatorización automática de dominios (ADR), un enfoque de simulación para generar entornos progresivamente más difíciles. La ADR se diferencia de la aleatorización manual de dominios al no necesitar que un humano especifique los rangos de aleatorización. [155]
En junio de 2020, OpenAI anunció una API multipropósito que, según dijo, era "para acceder a nuevos modelos de IA desarrollados por OpenAI" para permitir que los desarrolladores la utilicen para "cualquier tarea de IA en idioma inglés". [156] [157]
La empresa ha popularizado los transformadores generativos preentrenados (GPT). [158]
El artículo original sobre el preentrenamiento generativo de un modelo de lenguaje basado en transformadores fue escrito por Alec Radford y sus colegas, y publicado en preimpresión en el sitio web de OpenAI el 11 de junio de 2018. [159] Mostró cómo un modelo generativo de lenguaje podría adquirir conocimiento del mundo y procesar dependencias de largo alcance mediante el preentrenamiento en un corpus diverso con largos tramos de texto contiguo.
Generative Pre-trained Transformer 2 ("GPT-2") es un modelo de lenguaje de transformador no supervisado y el sucesor del modelo GPT original de OpenAI ("GPT-1"). GPT-2 se anunció en febrero de 2019, con solo versiones demostrativas limitadas lanzadas inicialmente al público. La versión completa de GPT-2 no se lanzó de inmediato debido a la preocupación por un posible mal uso, incluidas las aplicaciones para escribir noticias falsas . [160] Algunos expertos expresaron escepticismo de que GPT-2 representara una amenaza significativa.
En respuesta a GPT-2, el Instituto Allen de Inteligencia Artificial respondió con una herramienta para detectar "noticias falsas neuronales". [161] Otros investigadores, como Jeremy Howard, advirtieron sobre "la tecnología para llenar totalmente Twitter, el correo electrónico y la web con prosa que suena razonable y apropiada al contexto, que ahogaría todo el resto del discurso y sería imposible de filtrar". [162] En noviembre de 2019, OpenAI lanzó la versión completa del modelo de lenguaje GPT-2. [163] Varios sitios web albergan demostraciones interactivas de diferentes instancias de GPT-2 y otros modelos de transformadores. [164] [165] [166]
Los autores de GPT-2 sostienen que los modelos de lenguaje no supervisados son aprendices de propósito general, como lo demuestra el hecho de que GPT-2 logró una precisión y una perplejidad de vanguardia en 7 de las 8 tareas de cero disparos (es decir, el modelo no fue entrenado más en ningún ejemplo de entrada-salida específico de la tarea).
El corpus en el que se entrenó, llamado WebText, contiene aproximadamente 40 gigabytes de texto de URL compartidas en presentaciones de Reddit con al menos 3 votos positivos . Evita ciertos problemas al codificar vocabulario con tokens de palabras mediante el uso de codificación de pares de bytes . Esto permite representar cualquier cadena de caracteres codificando tanto caracteres individuales como tokens de múltiples caracteres. [167]
Descrito por primera vez en mayo de 2020, Generative Pre-trained [a] Transformer 3 (GPT-3) es un modelo de lenguaje de transformador no supervisado y el sucesor de GPT-2. [168] [169] [170] OpenAI afirmó que la versión completa de GPT-3 contenía 175 mil millones de parámetros , [170] dos órdenes de magnitud más grandes que los 1.5 mil millones [171] en la versión completa de GPT-2 (aunque también se entrenaron modelos GPT-3 con tan solo 125 millones de parámetros). [172]
OpenAI afirmó que GPT-3 tuvo éxito en ciertas tareas de " metaaprendizaje " y pudo generalizar el propósito de un único par de entrada-salida. El documento de publicación de GPT-3 proporcionó ejemplos de traducción y aprendizaje por transferencia interlingüística entre inglés y rumano, y entre inglés y alemán. [170]
GPT-3 mejoró drásticamente los resultados de referencia con respecto a GPT-2. OpenAI advirtió que dicha ampliación de los modelos de lenguaje podría estar acercándose o encontrando las limitaciones de capacidad fundamentales de los modelos de lenguaje predictivos. [173] El preentrenamiento de GPT-3 requirió varios miles de petaflop/s-días [b] de cómputo, en comparación con las decenas de petaflop/s-días para el modelo GPT-2 completo. [170] Al igual que su predecesor, [160] el modelo entrenado con GPT-3 no se lanzó inmediatamente al público por temor a un posible abuso, aunque OpenAI planeó permitir el acceso a través de una API en la nube paga después de una versión beta privada gratuita de dos meses que comenzó en junio de 2020. [156] [175]
El 23 de septiembre de 2020, GPT-3 fue licenciado exclusivamente a Microsoft. [176] [177]
Anunciado a mediados de 2021, Codex es un descendiente de GPT-3 que además ha sido entrenado en código de 54 millones de repositorios de GitHub, [178] [179] y es la IA que impulsa la herramienta de autocompletado de código GitHub Copilot . [179] En agosto de 2021, se lanzó una API en versión beta privada. [180] Según OpenAI, el modelo puede crear código funcional en más de una docena de lenguajes de programación, más efectivamente en Python. [178]
Se mencionaron varios problemas con fallos, fallas de diseño y vulnerabilidades de seguridad. [181] [182]
Se ha acusado a GitHub Copilot de emitir código con derechos de autor, sin atribución de autor ni licencia. [183]
OpenAI anunció que dejaría de brindar soporte para la API de Codex el 23 de marzo de 2023. [184]
El 14 de marzo de 2023, OpenAI anunció el lanzamiento de Generative Pre-trained Transformer 4 (GPT-4), capaz de aceptar entradas de texto o imagen. [185] Anunciaron que la tecnología actualizada aprobó un examen simulado de la abogacía de la facultad de derecho con una puntuación cercana al 10% superior de los examinados. (Por el contrario, GPT-3.5 obtuvo una puntuación cercana al 10% inferior). Dijeron que GPT-4 también podía leer, analizar o generar hasta 25.000 palabras de texto y escribir código en todos los principales lenguajes de programación. [186]
Los observadores informaron que la iteración de ChatGPT utilizando GPT-4 fue una mejora con respecto a la iteración anterior basada en GPT-3.5, con la salvedad de que GPT-4 mantuvo algunos de los problemas con las revisiones anteriores. [187] GPT-4 también es capaz de tomar imágenes como entrada en ChatGPT. [188] OpenAI se ha negado a revelar varios detalles técnicos y estadísticas sobre GPT-4, como el tamaño preciso del modelo. [189]
El 13 de mayo de 2024, OpenAI anunció y lanzó GPT-4o , que puede procesar y generar texto, imágenes y audio. [190] GPT-4o logró resultados de vanguardia en los puntos de referencia de voz, multilingüe y visión, estableciendo nuevos récords en reconocimiento y traducción de voz en audio. [191] [192] Obtuvo un puntaje del 88,7% en el punto de referencia Massive Multitask Language Understanding ( MMLU ) en comparación con el 86,5% de GPT-4. [193]
El 18 de julio de 2024, OpenAI lanzó GPT-4o mini, una versión más pequeña de GPT-4o que reemplaza a GPT-3.5 Turbo en la interfaz ChatGPT. Su API cuesta $0,15 por millón de tokens de entrada y $0,60 por millón de tokens de salida, en comparación con los $5 y $15 respectivamente de GPT-4o. OpenAI espera que sea particularmente útil para empresas, startups y desarrolladores que buscan automatizar servicios con agentes de IA. [194]
El 12 de septiembre de 2024, OpenAI lanzó los modelos o1-preview y o1-mini, que fueron diseñados para tomar más tiempo para pensar en sus respuestas, lo que genera una mayor precisión. Estos modelos son particularmente efectivos en tareas científicas, de codificación y razonamiento, y se pusieron a disposición de los miembros de ChatGPT Plus y Team. [195] [196]
Presentado en 2021, CLIP (Contrastive Language–Image Pre-training) es un modelo entrenado para analizar la similitud semántica entre texto e imágenes. Se puede utilizar en particular para la clasificación de imágenes. [197]
DALL-E, presentado en 2021, es un modelo de Transformer que crea imágenes a partir de descripciones textuales. [198] DALL-E utiliza una versión de GPT-3 de 12 mil millones de parámetros para interpretar entradas de lenguaje natural (como "un bolso de cuero verde con forma de pentágono" o "una vista isométrica de un triste capibara") y generar las imágenes correspondientes. Puede crear imágenes de objetos realistas ("una vidriera con la imagen de una fresa azul"), así como objetos que no existen en la realidad ("un cubo con la textura de un puercoespín"). A marzo de 2021, no hay ninguna API ni código disponible.
En abril de 2022, OpenAI anunció DALL-E 2, una versión actualizada del modelo con resultados más realistas. [199] En diciembre de 2022, OpenAI publicó en GitHub el software para Point-E, un nuevo sistema rudimentario para convertir una descripción de texto en un modelo tridimensional. [200]
En septiembre de 2023, OpenAI anunció DALL-E 3, un modelo más potente que puede generar imágenes a partir de descripciones complejas sin ingeniería de indicaciones manuales y representar detalles complejos como manos y texto. [201] Se lanzó al público como una función de ChatGPT Plus en octubre. [202]
Sora es un modelo de texto a video que puede generar videos basados en breves indicaciones descriptivas [203] , así como extender videos existentes hacia adelante o hacia atrás en el tiempo. [204] Puede generar videos con una resolución de hasta 1920x1080 o 1080x1920. Se desconoce la duración máxima de los videos generados.
El equipo de desarrollo de Sora lo nombró a partir de la palabra japonesa para "cielo", para significar su "potencial creativo ilimitado". [ 203] La tecnología de Sora es una adaptación de la tecnología detrás del modelo de texto a imagen DALL·E 3. [205] OpenAI entrenó el sistema utilizando videos disponibles públicamente, así como videos con derechos de autor autorizados para ese propósito, pero no reveló el número ni las fuentes exactas de los videos. [203]
El 15 de febrero de 2024, OpenAI mostró al público algunos videos de alta definición creados por Sora , afirmando que podía generar videos de hasta un minuto de duración. También compartió un informe técnico que destacaba los métodos utilizados para entrenar el modelo y las capacidades del mismo. [205] Reconoció algunas de sus deficiencias, incluidas las dificultades para simular la física compleja. [206] Will Douglas Heaven, de MIT Technology Review, calificó los videos de demostración de "impresionantes", pero señaló que deben haber sido seleccionados cuidadosamente y es posible que no representen el resultado típico de Sora. [205]
A pesar del escepticismo de algunos líderes académicos tras la demostración pública de Sora, figuras destacadas de la industria del entretenimiento han mostrado un interés significativo en el potencial de la tecnología. En una entrevista, el actor y cineasta Tyler Perry expresó su asombro ante la capacidad de la tecnología para generar videos realistas a partir de descripciones de texto, citando su potencial para revolucionar la narración de historias y la creación de contenido. Dijo que su entusiasmo por las posibilidades de Sora era tan fuerte que había decidido pausar los planes de expansión de su estudio de cine con sede en Atlanta . [207]
Whisper, lanzado en 2022, es un modelo de reconocimiento de voz de propósito general. [208] Está entrenado en un gran conjunto de datos de audio diverso y también es un modelo multitarea que puede realizar reconocimiento de voz multilingüe, así como traducción de voz e identificación de idiomas. [209]
MuseNet, lanzada en 2019, es una red neuronal profunda entrenada para predecir notas musicales posteriores en archivos de música MIDI . Puede generar canciones con 10 instrumentos en 15 estilos. Según The Verge , una canción generada por MuseNet tiende a comenzar de manera razonable, pero luego cae en el caos cuanto más se reproduce. [210] [211] En la cultura pop, las aplicaciones iniciales de esta herramienta se utilizaron ya en 2020 para el thriller psicológico de Internet Ben Drowned para crear música para el personaje principal. [212] [213]
Lanzado en 2020, Jukebox es un algoritmo de código abierto para generar música con voces. Después de entrenarse con 1,2 millones de muestras, el sistema acepta un género, un artista y un fragmento de letra y genera muestras de canciones. OpenAI afirmó que las canciones "muestran coherencia musical local [y] siguen patrones de acordes tradicionales", pero reconoció que las canciones carecen de "estructuras musicales más grandes y familiares, como coros que se repiten" y que "hay una brecha significativa" entre Jukebox y la música generada por humanos. The Verge afirmó que "es tecnológicamente impresionante, incluso si los resultados suenan como versiones cursis de canciones que pueden resultar familiares", mientras que Business Insider afirmó que "sorprendentemente, algunas de las canciones resultantes son pegadizas y suenan legítimas". [214] [215] [216]
En 2018, OpenAI lanzó el Debate Game, que enseña a las máquinas a debatir problemas de juguetes frente a un juez humano. El objetivo es investigar si este enfoque puede ayudar a auditar las decisiones de la IA y a desarrollar una IA explicable . [217] [218]
Lanzado en 2020, Microscope [219] es una colección de visualizaciones de cada capa y neurona significativa de ocho modelos de redes neuronales que a menudo se estudian en términos de interpretabilidad. [220] Microscope fue creado para analizar fácilmente las características que se forman dentro de estas redes neuronales. Los modelos incluidos son AlexNet , VGG-19 , diferentes versiones de Inception y diferentes versiones de CLIP Resnet . [221]
Lanzada en noviembre de 2022, ChatGPT es una herramienta de inteligencia artificial construida sobre GPT-3 que proporciona una interfaz conversacional que permite a los usuarios hacer preguntas en lenguaje natural . El sistema responde con una respuesta en cuestión de segundos. ChatGPT alcanzó el millón de usuarios 5 días después de su lanzamiento. [222] [223]
A partir de 2023, ChatGPT Plus es una versión de ChatGPT respaldada por GPT-4 [224] disponible por una tarifa de suscripción de US$20 por mes [225] (la versión original está respaldada por GPT-3.5). [226] OpenAI también pone GPT-4 a disposición de un grupo selecto de solicitantes a través de su lista de espera de API GPT-4; [227] después de ser aceptado, se cobra una tarifa adicional de US$0,03 por cada 1000 tokens en el texto inicial proporcionado al modelo ("aviso"), y US$0,06 por cada 1000 tokens que genera el modelo ("finalización"), por el acceso a la versión del modelo con una ventana de contexto de 8192 tokens ; para la ventana de contexto de 32768 tokens, los precios se duplican. [228]
En mayo de 2023, OpenAI lanzó una interfaz de usuario para ChatGPT para la App Store en iOS y más tarde, en julio de 2023, para la Play Store en Android. [229] La aplicación admite la sincronización del historial de chat y la entrada de voz (usando Whisper , el modelo de reconocimiento de voz de OpenAI ). [230] [229] [231] En septiembre de 2023, OpenAI anunció que ChatGPT "ahora puede ver, escuchar y hablar". Los usuarios de ChatGPT Plus pueden cargar imágenes, mientras que los usuarios de la aplicación móvil pueden hablar con el chatbot. [232] [233]
En octubre de 2023, el último modelo de generación de imágenes de OpenAI, DALL-E 3 , se integró en ChatGPT Plus y ChatGPT Enterprise. La integración utiliza ChatGPT para escribir indicaciones para DALL-E guiadas por conversaciones con los usuarios. [234] [235]
La tienda GPT de OpenAI, cuyo lanzamiento estaba previsto inicialmente para 2023, se ha pospuesto hasta una fecha no revelada a principios de 2024, probablemente debido a los cambios de liderazgo en noviembre tras el anuncio inicial. [236]
Las preocupaciones sobre el consumo energético de la IA generativa, incluido ChatGPT, están aumentando. En septiembre de 2024, Microsoft firmó un acuerdo con Constellation Energy para reabrir la planta nuclear de Three Mile Island y suministrar energía a sus centros de datos impulsados por IA. [237]
SearchGPT, un prototipo de motor de búsqueda desarrollado por OpenAI, se presentó el 25 de julio de 2024, con un lanzamiento inicial limitado a 10.000 usuarios de prueba. Combina las características tradicionales de los motores de búsqueda con capacidades de inteligencia artificial generativa. [238] [239]
Stargate es una posible supercomputadora de inteligencia artificial en desarrollo por Microsoft y OpenAI. [240] Stargate está diseñado como parte de un proyecto de centro de datos más grande, que podría representar una inversión de hasta 100 mil millones de dólares por parte de Microsoft. [241]
Se informa que Stargate es parte de una serie de proyectos de construcción relacionados con la IA planificados en los próximos años por las empresas Microsoft y OpenAI. [241] Las supercomputadoras se construirán en cinco fases. [240] La cuarta fase debería consistir en una supercomputadora OpenAI más pequeña, cuyo lanzamiento está previsto para alrededor de 2026. [240] Stargate es la quinta y última fase del programa, y tardará entre cinco y seis años en completarse y está previsto que se lance alrededor de 2028. [241]
La inteligencia artificial de Stargate está programada para estar contenida en millones de chips de servidor especiales. [241] El centro de datos de la supercomputadora se construirá en los EE. UU. en 700 acres de tierra. [241] Tiene un consumo de energía planificado de 5 gigavatios, para lo cual podría depender de energía nuclear . [241] El nombre "Stargate" es un homenaje a la película de ciencia ficción de 1994 Stargate . [241]
El 17 de noviembre de 2023, Sam Altman fue destituido como director ejecutivo cuando su junta directiva (compuesta por Helen Toner , Ilya Sutskever , Adam D'Angelo y Tasha McCauley) citó una falta de confianza en él. La directora de tecnología Mira Murati asumió como director ejecutivo interino. Greg Brockman , el presidente de OpenAI, también fue destituido como presidente de la junta [242] [243] y renunció a la presidencia de la empresa poco después. [244] Posteriormente, tres investigadores senior de OpenAI dimitieron: el director de investigación y líder de GPT-4 Jakub Pachocki, el jefe de riesgo de IA Aleksander Madry y el investigador Szymon Sidor. [245] [246]
El 18 de noviembre de 2023, se informó que hubo conversaciones sobre el regreso de Altman como director ejecutivo en medio de la presión ejercida sobre la junta por inversores como Microsoft y Thrive Capital , que se opusieron a la salida de Altman. [247] Aunque el propio Altman habló a favor de regresar a OpenAI, desde entonces ha declarado que consideró iniciar una nueva empresa y traer a ex empleados de OpenAI con él si las conversaciones para reincorporarlo no funcionaban. [248] Los miembros de la junta acordaron "en principio" renunciar si Altman regresaba. [249] El 19 de noviembre de 2023, las negociaciones con Altman para regresar fracasaron y Murati fue reemplazado por Emmett Shear como director ejecutivo interino. [250] La junta inicialmente se puso en contacto con el director ejecutivo de Anthropic, Dario Amodei (un ex ejecutivo de OpenAI) sobre el reemplazo de Altman, y propuso una fusión de las dos empresas, pero ambas ofertas fueron rechazadas. [251]
El 20 de noviembre de 2023, el CEO de Microsoft, Satya Nadella, anunció que Altman y Brockman se unirían a Microsoft para liderar un nuevo equipo de investigación de IA avanzada, pero agregó que todavía estaban comprometidos con OpenAI a pesar de los eventos recientes. [252] Antes de que se finalizara la asociación con Microsoft, Altman le dio a la junta otra oportunidad para negociar con él. [253] Aproximadamente 738 de los 770 empleados de OpenAI, incluidos Murati y Sutskever, firmaron una carta abierta en la que declaraban que dejarían sus trabajos y se unirían a Microsoft si la junta no volvía a contratar a Altman y luego renunciaba. [254] [255] Esto llevó a los inversores de OpenAI a considerar también emprender acciones legales contra la junta. [256] En respuesta, la gerencia de OpenAI envió un memorando interno a los empleados indicando que las negociaciones con Altman y la junta se habían reanudado y tomarían algún tiempo. [257]
El 21 de noviembre de 2023, después de continuar las negociaciones, Altman y Brockman regresaron a la empresa en sus roles anteriores junto con una junta reconstruida compuesta por los nuevos miembros Bret Taylor (como presidente) y Lawrence Summers , con D'Angelo permaneciendo. [258] El 22 de noviembre de 2023, informes emergentes sugirieron que el despido de Sam Altman de OpenAI puede haber estado relacionado con su presunto mal manejo de un avance significativo en el proyecto secreto de la organización con nombre en código Q*. Según fuentes dentro de OpenAI, Q* tiene como objetivo desarrollar capacidades de IA en razonamiento lógico y matemático, y al parecer implica realizar matemáticas al nivel de estudiantes de primaria. [259] [260] [261] Se informó que las preocupaciones sobre la respuesta de Altman a este desarrollo, específicamente con respecto a las posibles implicaciones de seguridad del descubrimiento, se plantearon a la junta directiva de la empresa poco antes del despido de Altman. [262] El 29 de noviembre de 2023, OpenAI anunció que un empleado anónimo de Microsoft se había unido a la junta como miembro sin derecho a voto para observar las operaciones de la empresa; [263] Microsoft renunció a la junta en julio de 2024. [264]
En enero de 2023, OpenAI fue criticada por subcontratar la anotación de conjuntos de datos a Sama , una empresa con sede en San Francisco que empleaba a trabajadores en Kenia . Estas anotaciones se utilizaron para entrenar un modelo de IA para detectar toxicidad, que luego podría usarse para moderar el contenido tóxico , en particular a partir de los datos de entrenamiento y los resultados de ChatGPT. Sin embargo, estos fragmentos de texto generalmente contenían descripciones detalladas de varios tipos de violencia, incluida la violencia sexual. La investigación descubrió que OpenAI comenzó a enviar fragmentos de datos a Sama ya en noviembre de 2021. Los cuatro empleados de Sama entrevistados por Time se describieron a sí mismos como mentalmente marcados. OpenAI le pagó a Sama $ 12,50 por hora de trabajo, y Sama estaba redistribuyendo el equivalente de entre $ 1,32 y $ 2,00 por hora después de impuestos a sus anotadores. El portavoz de Sama dijo que los $ 12,50 también cubrían otros costos implícitos, entre los que se encontraban los gastos de infraestructura, control de calidad y gestión. [265]
En marzo de 2023, la empresa también fue criticada por revelar muy pocos detalles técnicos sobre productos como GPT-4, lo que contradice su compromiso inicial con la apertura y dificulta que los investigadores independientes repliquen su trabajo y desarrollen salvaguardas. OpenAI citó preocupaciones de competitividad y seguridad para justificar este giro estratégico. El ex científico jefe de OpenAI, Ilya Sutskever, argumentó en 2023 que la apertura de modelos cada vez más capaces era cada vez más arriesgada y que las razones de seguridad para no abrir el código fuente de los modelos de IA más potentes se volverían "obvias" en unos pocos años. [266]
El 17 de mayo de 2024, un artículo de Vox informó que OpenAI estaba pidiendo a los empleados que se iban a ir que firmaran un acuerdo de no desprestigio de por vida que les prohibía criticar a OpenAI o reconocer la existencia del acuerdo. Daniel Kokotajlo, un ex empleado, declaró públicamente que perdió su participación accionaria en OpenAI para irse sin firmar el acuerdo. [267] [268] Sam Altman declaró que no estaba al tanto de la disposición de cancelación de participación accionaria y que OpenAI nunca la hizo cumplir para cancelar la participación accionaria de ningún empleado. [269] Vox publicó documentos y correos electrónicos filtrados que cuestionaban esta afirmación. [270] El 23 de mayo de 2024, OpenAI envió un memorando que liberaba a los ex empleados del acuerdo. [271]
OpenAI fue demandado por violación de derechos de autor por los autores Sarah Silverman , Matthew Butterick , Paul Tremblay y Mona Awad en julio de 2023. [272] [273] [274] En septiembre de 2023, 17 autores, incluidos George RR Martin , John Grisham , Jodi Picoult y Jonathan Franzen , se unieron al Gremio de Autores para presentar una demanda colectiva contra OpenAI, alegando que la tecnología de la empresa estaba utilizando ilegalmente su trabajo protegido por derechos de autor. [275] [276] El New York Times también demandó a la empresa a fines de diciembre de 2023. [273] [277] En mayo de 2024 se reveló que OpenAI había destruido sus conjuntos de datos de entrenamiento Books1 y Books2, que se usaron en el entrenamiento de GPT-3 , y que el Gremio de Autores creía que contenían más de 100,000 libros con derechos de autor. [278]
En 2021, OpenAI desarrolló una herramienta de reconocimiento de voz llamada Whisper. OpenAI la utilizó para transcribir más de un millón de horas de vídeos de YouTube a texto para entrenar GPT-4. La transcripción automática de vídeos de YouTube generó inquietudes entre los empleados de OpenAI con respecto a posibles violaciones de los términos de servicio de YouTube, que prohíben el uso de vídeos para aplicaciones independientes de la plataforma, así como cualquier tipo de acceso automatizado a sus vídeos. A pesar de estas inquietudes, el proyecto prosiguió con la notable participación del presidente de OpenAI, Greg Brockman . El conjunto de datos resultante resultó fundamental para entrenar GPT-4. [279]
En febrero de 2024, The Intercept, así como Raw Story y Alternate Media Inc. presentaron una demanda contra OpenAI por motivos de litigio de derechos de autor. [280] [281] Se dice que la demanda trazó una nueva estrategia legal para que los editores exclusivamente digitales demanden a OpenAI. [282]
El 30 de abril de 2024, ocho periódicos presentaron una demanda en el Distrito Sur de Nueva York contra OpenAI y Microsoft, alegando la recolección ilegal de sus artículos protegidos por derechos de autor. Las publicaciones demandantes incluyeron The Mercury News , The Denver Post , The Orange County Register , St. Paul Pioneer Press , Chicago Tribune , Orlando Sentinel , Sun Sentinel y New York Daily News . [283]
En abril de 2023, el Comité Europeo de Protección de Datos (CEPD) de la UE formó un grupo de trabajo específico sobre ChatGPT "para fomentar la cooperación e intercambiar información sobre posibles medidas de cumplimiento llevadas a cabo por las autoridades de protección de datos" sobre la base de la "medida de cumplimiento emprendida por la autoridad de protección de datos italiana contra Open AI sobre el servicio Chat GPT". [284]
A finales de abril de 2024, NOYB presentó una denuncia ante la Datenschutzbehörde austriaca contra OpenAI por violar el Reglamento General de Protección de Datos de la UE . Un texto creado con ChatGPT proporcionaba una fecha de nacimiento falsa para una persona viva sin darle a la persona la opción de ver los datos personales utilizados en el proceso. Se denegó una solicitud para corregir el error. Además, no se pudo facilitar información sobre los destinatarios del trabajo de ChatGPT ni sobre las fuentes utilizadas, afirmó OpenAI. [285]
OpenAI eliminó silenciosamente su prohibición de usar ChatGPT para "actividades militares y de guerra". Hasta el 10 de enero de 2024, sus "políticas de uso" incluían una prohibición de "actividades que tengan un alto riesgo de daño físico, incluyendo", específicamente, "desarrollo de armas" y "actividades militares y de guerra". Sus nuevas políticas prohíben "[utilizar] nuestro servicio para dañarse a sí mismo o a otros" y para "desarrollar o usar armas". [286] [287] Como uno de los colaboradores de la industria, OpenAI proporciona LLM al Desafío Cibernético de Inteligencia Artificial (AIxCC) patrocinado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y la Agencia de Proyectos de Investigación Avanzada para la Salud para proteger el software crítico para los estadounidenses. [288]
En mayo de 2024, OpenAI eliminó las cuentas utilizadas por operaciones de influencia respaldadas por estados como Spamouflage de China y Doppelganger de Rusia . [289] [290] OpenAI prohibió el acceso a sus servicios desde China en julio de 2024. [291]
En junio de 2023, una demanda afirmó que OpenAI había extraído 300 mil millones de palabras de Internet sin consentimiento y sin registrarse como corredor de datos. La demanda fue presentada en San Francisco , California , por dieciséis demandantes anónimos. También afirmaron que OpenAI y su socio y cliente Microsoft seguían recopilando y utilizando ilegalmente datos personales de millones de consumidores en todo el mundo para entrenar modelos de inteligencia artificial. [292]
En comparación, en 2022, los ingresos fueron de solo $ 28 millones, principalmente por la venta de acceso a su software de inteligencia artificial... Las pérdidas de OpenAI se duplicaron aproximadamente a alrededor de $ 540 millones el año pasado mientras desarrollaba ChatGPT...
Desarrollado en colaboración con y exclusivamente para OpenAI
La supercomputadora OpenAI de Microsoft tiene 285.000 núcleos de CPU y 10.000 GPU. Es uno de los cinco sistemas más rápidos del mundo.
{{cite web}}
: CS1 maint: multiple names: authors list (link)Altman dijo que esperan que este proyecto, que durará décadas, supere la inteligencia humana.
El equipo que ha estado manteniendo Gym desde 2021 ha trasladado todo el desarrollo futuro a Gymnasium, un reemplazo directo de Gym (importar Gymnasium como Gym), y Gym no recibirá ninguna actualización futura.
¿Por qué OpenAI decidió publicar una API en lugar de publicar los modelos en código abierto?
Hay tres razones principales por las que lo hicimos. En primer lugar, comercializar la tecnología nos ayuda a pagar nuestros esfuerzos continuos de investigación, seguridad y políticas de IA. En segundo lugar, muchos de los modelos subyacentes a la API son muy grandes, lo que requiere mucha experiencia para desarrollarlos e implementarlos y hace que su funcionamiento sea muy costoso. Esto hace que sea difícil para cualquiera, excepto para las empresas más grandes, beneficiarse de la tecnología subyacente. Tenemos la esperanza de que la API haga que los sistemas de IA potentes sean más accesibles para las empresas y organizaciones más pequeñas. En tercer lugar, el modelo de API nos permite responder más fácilmente al mal uso de la tecnología. Dado que es difícil predecir los casos de uso posteriores de nuestros modelos, parece inherentemente más seguro publicarlos a través de una API y ampliar el acceso con el tiempo, en lugar de publicar un modelo
de código abierto
donde el acceso no se puede ajustar si resulta tener aplicaciones dañinas.
Si alguna vez quiso probar el aclamado conjunto de herramientas de aprendizaje automático de OpenAI, ahora es mucho más fácil. La empresa ha lanzado una API que permite a los desarrolladores llamar a sus herramientas de IA para "prácticamente cualquier tarea en inglés".
GPT-2, es un transformador de parámetros de 1.5B
Ya que aumentamos la capacidad en más de dos órdenes de magnitud de GPT-2 a GPT-3
Un petaflop/s-día (pfs-día) consiste en realizar 10
15
operaciones de red neuronal por segundo durante un día, o un total de aproximadamente 10
20
operaciones. El producto de tiempo de cómputo sirve como una conveniencia mental, similar a kW-hr para la energía.
{{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: multiple names: authors list (link){{cite news}}
: CS1 maint: url-status (link){{cite news}}
: CS1 maint: multiple names: authors list (link)Algunos en OpenAI creen que Q* (pronunciado Q-Star) podría ser un gran avance en la búsqueda de la startup de lo que se conoce como inteligencia artificial general (AGI), dijo una de las personas a Reuters. OpenAI define AGI como sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas.
… Authors Guild dijo… que los conjuntos de datos probablemente contenían "más de 100.000 libros publicados" … fundamental para sus acusaciones de que OpenAI utilizó materiales con derechos de autor para entrenar modelos de IA
{{cite web}}
: CS1 maint: multiple names: authors list (link)