OpenAI es una organización estadounidense de investigación de inteligencia artificial (IA) fundada en diciembre de 2015 y con sede en San Francisco, California. Su misión es desarrollar inteligencia artificial general "segura y beneficiosa" , que define como "sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos". [4] Como organización líder en el actual auge de la IA , [5] OpenAI es conocida por la familia GPT de grandes modelos de lenguaje , la serie DALL-E de modelos de texto a imagen y un modelo de texto a video llamado Sora . [6] [7] Se atribuye al lanzamiento de ChatGPT en noviembre de 2022 el mérito de haber catalizado el interés generalizado en la IA generativa .
La organización está formada por la organización sin fines de lucro OpenAI, Inc. , [8] registrada en Delaware y su subsidiaria con fines de lucro introducida en 2019, OpenAI Global, LLC. [9] Microsoft posee aproximadamente el 49% del capital social de OpenAI , habiendo invertido 13 mil millones de dólares. [10] También proporciona recursos informáticos a OpenAI a través de su plataforma en la nube Microsoft Azure . [11]
En 2023 y 2024, OpenAI enfrentó múltiples demandas por presunta infracción de derechos de autor contra autores y empresas de medios cuyo trabajo se utilizó para entrenar algunos de los productos de OpenAI. En noviembre de 2023, la junta directiva de OpenAI destituyó a Sam Altman como director ejecutivo, alegando falta de confianza en él, y luego lo reintegró cinco días después después de negociaciones que dieron como resultado una junta reconstruida. Desde entonces, la junta directiva de OpenAI ha incorporado al exsecretario del Tesoro de Estados Unidos, Lawrence Summers , y al exjefe de la Agencia de Seguridad Nacional, Paul Nakasone .
En diciembre de 2015, OpenAI fue fundada por Sam Altman , Elon Musk , Ilya Sutskever , Greg Brockman , Trevor Blackwell , Vicki Cheung, Andrej Karpathy , Durk Kingma, John Schulman, Pamela Vagata y Wojciech Zaremba , con Sam Altman y Elon Musk como copresidentes. Sam Altman, Greg Brockman, Elon Musk, Reid Hoffman , Jessica Livingston , Peter Thiel , Amazon Web Services (AWS), Infosys y YC Research prometieron mil millones de dólares en total . [12] [13] La cantidad total real de contribuciones recaudadas fue de solo $ 130 millones hasta 2019. [9] Según una investigación dirigida por TechCrunch , Musk fue su mayor donante, mientras que YC Research no contribuyó con nada en absoluto. [14] La organización declaró que "colaboraría libremente" con otras instituciones e investigadores haciendo que sus patentes e investigaciones estuvieran abiertas al público. [15] [16] OpenAI tenía su sede en el edificio Pioneer en el distrito de la Misión, San Francisco . [17] [18]
Según Wired , Brockman se reunió con Yoshua Bengio , uno de los "padres fundadores" del aprendizaje profundo , y elaboró una lista de los "mejores investigadores en este campo". [19] Brockman pudo contratar a nueve de ellos como primeros empleados en diciembre de 2015. [19] En 2016, OpenAI pagó salarios a nivel corporativo (en lugar de a nivel sin fines de lucro), pero no pagó salarios a los investigadores de IA comparables a los de Facebook o Google . [19]
Peter Lee , de Microsoft, afirmó que el costo de un importante investigador de IA supera el costo de un importante mariscal de campo de la NFL . [19] El potencial y la misión de OpenAI atrajeron a estos investigadores a la empresa; Un empleado de Google dijo que estaba dispuesto a dejar Google por OpenAI "en parte debido al grupo muy fuerte de personas y, en gran medida, debido a su misión". [19] Brockman afirmó que "lo mejor que podía imaginar hacer era acercar a la humanidad a construir una IA real de forma segura". [19] El cofundador de OpenAI, Wojciech Zaremba, declaró que rechazó ofertas "casi locas" de dos o tres veces su valor de mercado para unirse a OpenAI. [19]
En abril de 2016, OpenAI lanzó una versión beta pública de "OpenAI Gym", su plataforma para la investigación del aprendizaje por refuerzo . [20] Nvidia regaló su primera supercomputadora DGX-1 a OpenAI en agosto de 2016 para ayudarlo a entrenar modelos de IA más grandes y complejos con la capacidad de reducir el tiempo de procesamiento de seis días a dos horas. [21] [22] En diciembre de 2016, OpenAI lanzó "Universe", una plataforma de software para medir y entrenar la inteligencia general de una IA en toda la oferta mundial de juegos, sitios web y otras aplicaciones. [23] [24] [25] [26]
En 2017, OpenAI gastó 7,9 millones de dólares, o una cuarta parte de sus gastos funcionales, solo en computación en la nube. [27] En comparación, los gastos totales de DeepMind en 2017 fueron de 442 millones de dólares. En el verano de 2018, simplemente entrenar los robots Dota 2 de OpenAI requería alquilar 128.000 CPU y 256 GPU de Google durante varias semanas.
En 2018, Musk renunció a su puesto en la junta directiva, citando "un posible conflicto [de intereses] futuro " con su papel como director ejecutivo de Tesla debido al desarrollo de inteligencia artificial de Tesla para automóviles autónomos. [28] Sam Altman afirma que Musk creía que OpenAI se había quedado atrás con respecto a otros jugadores como Google y Musk propuso, en cambio, hacerse cargo de OpenAI él mismo, lo que la junta rechazó. Posteriormente, Musk dejó OpenAI, pero afirmó seguir siendo donante, pero no hizo donaciones después de su partida. [29]
En febrero de 2019, se anunció GPT-2 , que llamó la atención por su capacidad para generar texto similar a un humano. [30]
En 2019, OpenAI pasó de ser una organización sin fines de lucro a una organización con fines de lucro "limitada", con un límite de ganancias de 100 veces cualquier inversión. [31] Según OpenAI, el modelo de beneficio limitado permite a OpenAI Global, LLC atraer legalmente inversiones de fondos de riesgo y, además, conceder a los empleados participaciones en la empresa. [32] Muchos investigadores destacados trabajan para Google Brain , DeepMind o Facebook , que ofrecen opciones sobre acciones que una organización sin fines de lucro no podría ofrecer. [33] Antes de la transición, la divulgación pública de la remuneración de los principales empleados de OpenAI era un requisito legal. [34]
Luego, la empresa distribuyó acciones entre sus empleados y se asoció con Microsoft, [35] anunciando un paquete de inversión de mil millones de dólares en la empresa. Desde entonces, los sistemas OpenAI se han ejecutado en una plataforma de supercomputación basada en Azure de Microsoft. [36] [37] [38]
OpenAI Global, LLC anunció luego su intención de licenciar comercialmente sus tecnologías. [39] Planeaba gastar los mil millones de dólares "en un plazo de cinco años, y posiblemente mucho más rápido". [40] Altman ha declarado que incluso mil millones de dólares pueden resultar insuficientes y que, en última instancia, el laboratorio puede necesitar "más capital del que cualquier organización sin fines de lucro haya recaudado jamás" para lograr la inteligencia artificial general. [41]
La transición de una organización sin fines de lucro a una compañía con ganancias limitadas fue vista con escepticismo por Oren Etzioni, del Instituto Allen para la IA , una organización sin fines de lucro , quien estuvo de acuerdo en que atraer a los mejores investigadores a una organización sin fines de lucro es difícil, pero afirmó: "No estoy de acuerdo con la idea de que una organización sin fines de lucro pueda No compito" y señaló proyectos exitosos de bajo presupuesto de OpenAI y otros. "Si siempre fuera mejor ser más grande y mejor financiado, entonces IBM seguiría siendo el número uno".
La organización sin fines de lucro, OpenAI, Inc., es el único accionista mayoritario de OpenAI Global, LLC, que, a pesar de ser una empresa con fines de lucro, conserva una responsabilidad fiduciaria formal ante los estatutos sin fines de lucro de OpenAI, Inc. La mayoría de la junta directiva de OpenAI, Inc. tiene prohibido tener participaciones financieras en OpenAI Global, LLC. [32] Además, los miembros minoritarios con participación en OpenAI Global, LLC no pueden participar en determinadas votaciones debido a conflictos de intereses. [33] Algunos investigadores han argumentado que el cambio de OpenAI Global, LLC al estado con fines de lucro es inconsistente con las afirmaciones de OpenAI de estar "democratizando" la IA. [42]
En 2020, OpenAI anunció GPT-3 , un modelo de lenguaje entrenado en grandes conjuntos de datos de Internet. GPT-3 está destinado a responder preguntas en lenguaje natural, pero también puede traducir entre idiomas y generar texto improvisado de forma coherente. También anunció que una API asociada, denominada simplemente "la API", formaría el corazón de su primer producto comercial. [43]
Once empleados abandonaron OpenAI, principalmente entre diciembre de 2020 y enero de 2021, para establecer Anthropic . [44]
En 2021, OpenAI presentó DALL-E , un modelo de aprendizaje profundo especializado capaz de generar imágenes digitales complejas a partir de descripciones textuales, utilizando una variante de la arquitectura GPT-3. [45]
En diciembre de 2022, OpenAI recibió una amplia cobertura mediática después de lanzar una vista previa gratuita de ChatGPT , su nuevo chatbot de IA basado en GPT-3.5. Según OpenAI, la vista previa recibió más de un millón de registros en los primeros cinco días. [46] Según fuentes anónimas citadas por Reuters en diciembre de 2022, OpenAI Global, LLC proyectaba 200 millones de dólares de ingresos en 2023 y 1.000 millones de dólares de ingresos en 2024. [47]
En enero de 2023, OpenAI Global, LLC estaba en conversaciones para obtener una financiación que valoraría la empresa en 29.000 millones de dólares, el doble de su valor en 2021. [48] El 23 de enero de 2023, Microsoft anunció una nueva inversión de 10 mil millones de dólares estadounidenses en OpenAI Global, LLC durante varios años, parcialmente necesaria para utilizar el servicio de computación en la nube de Microsoft, Azure . [49] [50] Los rumores de este acuerdo sugirieron que Microsoft puede recibir el 75% de las ganancias de OpenAI hasta que asegure el retorno de su inversión y una participación del 49% en la empresa. [51] Se cree que la inversión es parte de los esfuerzos de Microsoft para integrar ChatGPT de OpenAI en el motor de búsqueda Bing. Google anunció una aplicación de inteligencia artificial similar ( Bard ), después del lanzamiento de ChatGPT, por temor a que ChatGPT pudiera amenazar el lugar de Google como fuente de información. [52] [53]
El 7 de febrero de 2023, Microsoft anunció que estaba incorporando tecnología de inteligencia artificial basada en la misma base que ChatGPT en Microsoft Bing , Edge , Microsoft 365 y otros productos. [54]
El 3 de marzo de 2023, Reid Hoffman renunció a su puesto en la junta directiva, citando el deseo de evitar conflictos de intereses con sus inversiones en empresas de inteligencia artificial a través de Greylock Partners y su cofundación de la startup de inteligencia artificial Inflection AI . Hoffman permaneció en la junta directiva de Microsoft, un importante inversor en OpenAI. [55]
El 14 de marzo de 2023, OpenAI lanzó GPT-4 , como API (con lista de espera) y como característica de ChatGPT Plus. [56]
El 22 de mayo de 2023, Sam Altman, Greg Brockman e Ilya Sutskever publicaron recomendaciones para la gobernanza de la superinteligencia . [57] Consideran que la superinteligencia podría surgir en los próximos 10 años, permitiendo un "futuro dramáticamente más próspero" y que "dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos". Proponen crear una organización internacional de vigilancia similar a la OIEA para supervisar los sistemas de IA por encima de un cierto umbral de capacidad, lo que sugiere que los sistemas de IA relativamente débiles del otro lado no deberían estar excesivamente regulados. También piden más investigación técnica sobre seguridad para las superinteligencias y piden más coordinación, por ejemplo a través de que los gobiernos lancen un proyecto conjunto del que "muchos esfuerzos actuales pasan a formar parte". [57] [58]
En julio de 2023, OpenAI lanzó el proyecto de superalineación, con el objetivo de encontrar en un plazo de 4 años cómo alinear las superinteligencias futuras mediante la automatización de la investigación de alineación utilizando IA. [59]
En agosto de 2023, se anunció que OpenAI había adquirido la nueva empresa Global Illumination, con sede en Nueva York , una empresa que implementa inteligencia artificial para desarrollar infraestructura digital y herramientas creativas. [60]
El 21 de septiembre de 2023, Microsoft había comenzado a cambiar el nombre de todas las variantes de su Copilot a Microsoft Copilot , incluido el antiguo Bing Chat y Microsoft 365 Copilot . [61] Esta estrategia se siguió en diciembre de 2023 al agregar MS-Copilot a muchas instalaciones de Windows 11 y Windows 10 , así como a una aplicación Microsoft Copilot independiente lanzada para Android [62] y una lanzada para iOS posteriormente. [63]
En octubre de 2023, Sam Altman y Peng Xiao, director ejecutivo de la empresa emiratí de IA G42 , anunciaron que Open AI permitiría a G42 implementar la tecnología Open AI. [64]
El 6 de noviembre de 2023, OpenAI lanzó GPT, lo que permite a las personas crear versiones personalizadas de ChatGPT para propósitos específicos, ampliando aún más las posibilidades de las aplicaciones de IA en diversas industrias. [65] El 14 de noviembre de 2023, OpenAI anunció que suspendió temporalmente los nuevos registros para ChatGPT Plus debido a la alta demanda. [66] El acceso para nuevos suscriptores se reabrió un mes después, el 13 de diciembre. [67]
El 17 de noviembre de 2023, Sam Altman fue destituido como director ejecutivo cuando su junta directiva (compuesta por Helen Toner , Ilya Sutskever , Adam D'Angelo y Tasha McCauley) citó una falta de confianza en él. La directora de tecnología, Mira Murati, asumió el cargo de directora ejecutiva interina. Greg Brockman, presidente de OpenAI, también fue destituido como presidente de la junta directiva [68] [69] y renunció a la presidencia de la empresa poco después. [70] Posteriormente, tres investigadores senior de OpenAI dimitieron: el director de investigación y líder de GPT-4, Jakub Pachocki, el jefe de riesgo de IA, Aleksander Madry, y el investigador Szymon Sidor. [71] [72]
El 18 de noviembre de 2023, supuestamente se habló de que Altman regresaría como director ejecutivo en medio de la presión ejercida sobre la junta por inversores como Microsoft y Thrive Capital , que se opusieron a la salida de Altman. [73] Aunque el propio Altman habló a favor de regresar a OpenAI, desde entonces ha declarado que consideró iniciar una nueva empresa y traer consigo a ex empleados de OpenAI si las conversaciones para reinstalarlo no funcionaban. [74] Los miembros de la junta acordaron "en principio" dimitir si Altman regresaba. [75] El 19 de noviembre de 2023, las negociaciones con Altman para regresar fracasaron y Murati fue reemplazado por Emmett Shear como director ejecutivo interino. [76] La junta inicialmente se puso en contacto con el director ejecutivo de Anthropic, Dario Amodei (un ex ejecutivo de OpenAI) para reemplazar a Altman y propuso una fusión de las dos compañías, pero ambas ofertas fueron rechazadas. [77]
El 20 de noviembre de 2023, el director ejecutivo de Microsoft, Satya Nadella, anunció que Altman y Brockman se unirían a Microsoft para liderar un nuevo equipo de investigación avanzada de IA, pero agregó que todavía estaban comprometidos con OpenAI a pesar de los acontecimientos recientes. [78] Antes de que se finalizara la asociación con Microsoft, Altman le dio a la junta directiva otra oportunidad para negociar con él. [79] Alrededor de 738 de los 770 empleados de OpenAI, incluidos Murati y Sutskever, firmaron una carta abierta declarando que renunciarían a sus trabajos y se unirían a Microsoft si la junta no volvía a contratar a Altman y luego renunciaba. [80] [81] Esto llevó a los inversores de OpenAI a considerar también acciones legales contra la junta. [82] En respuesta, la dirección de OpenAI envió un memorando interno a los empleados indicando que las negociaciones con Altman y la junta se habían reanudado y llevarían algún tiempo. [83]
El 21 de noviembre de 2023, después de continuas negociaciones, Altman y Brockman regresaron a la empresa en sus funciones anteriores junto con una junta reconstruida compuesta por los nuevos miembros Bret Taylor (como presidente) y Lawrence Summers , quedando D'Angelo. [84] El 22 de noviembre de 2023, informes emergentes sugirieron que el despido de Sam Altman de OpenAI puede haber estado relacionado con su presunto mal manejo de un avance significativo en el proyecto secreto de la organización con nombre en código Q*. Según fuentes de OpenAI, Q* tiene como objetivo desarrollar capacidades de IA en razonamiento lógico y matemático y, según se informa, implica realizar matemáticas al nivel de los estudiantes de primaria. [85] [86] [87] Se informó que las preocupaciones sobre la respuesta de Altman a este desarrollo, específicamente con respecto a las posibles implicaciones de seguridad del descubrimiento, se plantearon a la junta directiva de la compañía poco antes del despido de Altman. [88] El 29 de noviembre de 2023, OpenAI anunció que un empleado anónimo de Microsoft se había unido a la junta como miembro sin derecho a voto para observar las operaciones de la empresa; [89] Microsoft renunció a la junta directiva en julio de 2024. [90]
El 16 de enero de 2024, en respuesta al intenso escrutinio de los reguladores de todo el mundo, OpenAI anunció la formación de un nuevo equipo de Alineación Colectiva que tendría como objetivo implementar ideas del público para garantizar que sus modelos "se alineen con los valores de la humanidad". La medida se debió a su programa público lanzado en mayo de 2023. La compañía explicó que el programa estaría separado de sus esfuerzos comerciales. [91] El 18 de enero de 2024, OpenAI anunció una asociación con la Universidad Estatal de Arizona que le daría acceso completo a ChatGPT Enterprise. ASU planea incorporar la tecnología en varios aspectos de sus operaciones, incluidos cursos, tutoría e investigación. Es la primera asociación de OpenAI con una institución educativa. [92]
En febrero de 2024, la Comisión de Bolsa y Valores de EE. UU. estaba investigando a OpenAI sobre si las comunicaciones internas de la empresa realizadas por Altman se utilizaban para engañar a los inversores; y estaba en curso una investigación de las declaraciones de Altman, abierta por la Fiscalía Federal del Sur de Nueva York en noviembre anterior. [93] [94]
El 15 de febrero de 2024, OpenAI anunció un modelo de conversión de texto a vídeo llamado Sora , que planea lanzar al público en una fecha no especificada. [95] Actualmente está disponible para los equipos rojos para gestionar daños y riesgos críticos. [96]
El 29 de febrero de 2024, OpenAI y su director ejecutivo, Sam Altman, fueron demandados por Elon Musk , quien los acusó de priorizar las ganancias sobre el bien público, en contra de la misión original de OpenAI [97] de desarrollar IA para beneficio de la humanidad. [98] La demanda citó el cambio de política de OpenAI después de asociarse con Microsoft, cuestionando su compromiso con el código abierto y agitando el debate entre la ética y las ganancias de la IA. [99] En una publicación de blog, OpenAI declaró que "Elon entendió que la misión no implicaba AGI de código abierto". [100] En un memorando al personal, también negaron ser una subsidiaria de facto de Microsoft. [101]
En un expediente judicial del 11 de marzo de 2024, OpenAI dijo que estaba "bien sin Elon Musk" después de que dejó la compañía en 2018. También respondieron a la demanda de Musk, calificando las afirmaciones del multimillonario de "incoherentes", "frívolas", "extraordinarias". " y "una ficción". [102] El 11 de junio de 2024, Musk retiró inesperadamente la demanda. [103] El 5 de agosto de 2024, Musk reabrió la demanda contra Altman y otros, alegando que Altman afirmó que OpenAI iba a fundarse como una organización sin fines de lucro. [104] [105]
El 15 de mayo de 2024, Ilya Sutskever renunció a OpenAI y fue reemplazado por Jakub Pachocki como científico jefe. [106] Horas más tarde, Jan Leike , el otro colíder del equipo de superalineación, anunció su salida, citando una erosión de la seguridad y la confianza en el liderazgo de OpenAI. [107] Sus salidas, junto con la salida de varios investigadores del grupo, llevaron a OpenAI a absorber el trabajo del equipo en otras áreas de investigación y cerrar oficialmente el grupo de superalineación. [108] Según fuentes entrevistadas por Fortune , la promesa de OpenAI de asignar el 20% de sus capacidades informáticas al proyecto de superalineación no se había cumplido. [109]
El 19 de mayo de 2024, Reddit y OpenAI anunciaron una asociación para integrar el contenido de Reddit en los productos OpenAI, incluido ChatGPT . Esta colaboración permite a OpenAI acceder a la API de datos de Reddit , proporcionando contenido estructurado en tiempo real para mejorar las herramientas de IA y la participación de los usuarios con las comunidades de Reddit. Además, Reddit planea desarrollar nuevas funciones impulsadas por IA para usuarios y moderadores que utilizan la plataforma OpenAI. La asociación se alinea con el compromiso de Reddit con la privacidad, adhiriéndose a su Política de contenido público y a los Términos de API de datos existentes, que restringen el uso comercial sin aprobación. OpenAI también actuará como socio publicitario de Reddit. [110]
El 22 de mayo de 2024, OpenAI celebró un acuerdo con News Corp para integrar contenido de noticias de The Wall Street Journal , New York Post , The Times y The Sunday Times en su plataforma de IA. Mientras tanto, otras publicaciones como The New York Times optaron por demandar a OpenAI y Microsoft por infracción de derechos de autor por el uso de su contenido para entrenar modelos de IA. [111]
El 29 de mayo de 2024, Axios informó que OpenAI había firmado acuerdos con Vox Media y The Atlantic para compartir contenido y mejorar la precisión de los modelos de IA como ChatGPT mediante la incorporación de fuentes de noticias confiables, abordando las preocupaciones sobre la desinformación de la IA. [112] Los periodistas, incluidos los que trabajan para las publicaciones, así como los sindicatos de las publicaciones, expresaron preocupación por la decisión. El Sindicato Vox declaró: "Como periodistas y trabajadores, tenemos serias preocupaciones sobre esta asociación, que creemos que podría afectar negativamente a los miembros de nuestro sindicato, sin mencionar las preocupaciones éticas y ambientales bien documentadas que rodean el uso de IA generativa". [113]
Un grupo de nueve empleados actuales y anteriores de OpenAI acusó a la empresa de priorizar las ganancias sobre la seguridad, utilizar acuerdos restrictivos para silenciar las preocupaciones y actuar demasiado rápido con una gestión de riesgos inadecuada. Piden mayor transparencia, protección de los denunciantes y regulación legislativa del desarrollo de la IA. [114]
El 10 de junio de 2024, se anunció en la WWDC 2024 que OpenAI se había asociado con Apple Inc. para llevar las funciones ChatGPT a Apple Intelligence y iPhone . [115]
El 13 de junio de 2024, OpenAI anunció que Paul Nakasone , exjefe de la NSA, se uniría a la junta directiva de la empresa. Nakasone también se unió al subcomité de seguridad de la empresa. [116]
El 24 de junio de 2024, OpenAI adquirió Multi, una startup que ejecuta una plataforma de colaboración basada en Zoom . [117]
En julio de 2024, Reuters informó que OpenAI estaba trabajando en un proyecto con el nombre en código "Strawberry" (anteriormente conocido como Q*) con el objetivo de mejorar las capacidades de razonamiento de la IA. Según se informa, el proyecto busca permitir que la IA planifique con anticipación, navegue por Internet de forma autónoma y realice una "investigación profunda". [118] [119]
El 5 de agosto, TechCrunch informó que el cofundador de OpenAI, John Schulman, dejó la empresa para unirse a la startup rival de IA Anthropic . Schulman citó el deseo de centrarse más profundamente en la investigación de alineación de la IA como el motivo de esta medida. Además, el presidente y cofundador de OpenAI, Greg Brockman, se tomará una licencia prolongada hasta fin de año [120] .
Fuentes: [89] [125]
Algunos científicos, como Stephen Hawking y Stuart Russell , han expresado su preocupación de que si la IA avanzada gana la capacidad de rediseñarse a un ritmo cada vez mayor, una " explosión de inteligencia " imparable podría conducir a la extinción humana . El cofundador Musk caracteriza la IA como la "mayor amenaza existencial" de la humanidad. [132]
Musk y Altman han declarado que están motivados en parte por las preocupaciones sobre la seguridad de la IA y el riesgo existencial de la inteligencia artificial general . [133] [134] OpenAI afirma que "es difícil comprender cuánto podría beneficiar a la sociedad la IA a nivel humano", y que es igualmente difícil comprender "cuánto podría dañar a la sociedad si se construye o se utiliza incorrectamente". [16] La investigación sobre seguridad no se puede posponer con seguridad: "debido a la sorprendente historia de la IA, es difícil predecir cuándo la IA a nivel humano podría estar a nuestro alcance". [135] OpenAI afirma que la IA "debería ser una extensión de la voluntad humana individual y, en aras de la libertad, estar distribuida lo más amplia y uniformemente posible". [16] El copresidente Sam Altman espera que el proyecto de décadas supere la inteligencia humana. [136]
Vishal Sikka , ex director ejecutivo de Infosys, afirmó que una "apertura", en la que el esfuerzo "produciría resultados en general en beneficio de la humanidad", era un requisito fundamental para su apoyo; y que OpenAI "se alinea muy bien con nuestros valores arraigados desde hace mucho tiempo" y su "esfuerzo por realizar un trabajo con propósito". [137] Cade Metz de Wired sugirió que corporaciones como Amazon podrían estar motivadas por el deseo de utilizar software y datos de fuente abierta para nivelar el campo de juego contra corporaciones como Google y Facebook, que poseen enormes cantidades de datos propietarios. Altman afirmó que las empresas de Y Combinator compartirían sus datos con OpenAI. [136]
En los primeros años previos a su partida en 2018, Musk planteó la pregunta: "¿Qué es lo mejor que podemos hacer para garantizar que el futuro sea bueno? Podríamos quedarnos al margen o podemos alentar la supervisión regulatoria, o podríamos participar con las personas adecuadas". estructura con personas que se preocupan profundamente por desarrollar la IA de una manera que sea segura y beneficiosa para la humanidad". Reconoció que "siempre existe cierto riesgo de que al intentar avanzar en la IA (amigable) podamos crear lo que nos preocupa"; pero, no obstante, que la mejor defensa era "facultar a la mayor cantidad de personas posible para que tuvieran IA. Si todos tienen poderes de IA, entonces no hay una sola persona o un pequeño grupo de individuos que puedan tener un superpoder de IA". [121]
La estrategia contraintuitiva de Musk y Altman (la de tratar de reducir el daño de la IA dando a todos acceso a ella) es controvertida entre quienes se preocupan por el riesgo existencial de la IA. El filósofo Nick Bostrom dijo: "Si tienes un botón que podría hacerle cosas malas al mundo, no querrás dárselo a todo el mundo". [134] Durante una conversación de 2016 sobre la singularidad tecnológica , Altman dijo: "No planeamos publicar todo nuestro código fuente" y mencionó un plan para "permitir que amplias franjas del mundo elijan representantes para una nueva junta de gobierno". Greg Brockman declaró: "Nuestro objetivo en este momento... es hacer lo mejor que podamos hacer. Es un poco vago". [138]
Por el contrario, la decisión inicial de OpenAI de retener GPT-2 alrededor de 2019, debido a un deseo de "pecar de cauteloso" ante la presencia de un posible uso indebido, fue criticada por los defensores de la apertura. Delip Rao, un experto en generación de texto, afirmó: "No creo que [OpenAI] haya dedicado suficiente tiempo a demostrar que [GPT-2] era realmente peligroso". Otros críticos argumentaron que la publicación abierta era necesaria para replicar la investigación y crear contramedidas. [139]
Más recientemente, en 2022, OpenAI publicó su enfoque sobre el problema de la alineación , anticipando que alinear la AGI con los valores humanos probablemente sería más difícil que alinear los sistemas de IA actuales: "Una AGI no alineada podría plantear riesgos sustanciales para la humanidad[,] y resolver el problema de alineación de la AGI. podría ser tan difícil que requerirá que toda la humanidad trabaje junta". Afirmaron que tenían la intención de explorar cómo utilizar mejor la retroalimentación humana para entrenar sistemas de IA y cómo utilizar la IA de forma segura para automatizar incrementalmente la investigación de alineación. [140] Algunos observadores creen que la reorganización de la empresa en noviembre de 2023, incluido el regreso de Altman como director ejecutivo y los cambios en su junta directiva, indicó un cambio probable hacia un enfoque empresarial y una influencia reducida de las "personas cautelosas" en OpenAI. [141]
En sus inicios, la investigación de OpenAI incluía muchos proyectos centrados en el aprendizaje por refuerzo (RL). [142] OpenAI ha sido visto como un competidor importante de DeepMind . [143]
Anunciado en 2016, Gym tenía como objetivo proporcionar un punto de referencia de inteligencia general de fácil implementación en una amplia variedad de entornos, similar, pero más amplio, al ImageNet Large Scale Visual Recognition Challenge utilizado en la investigación de aprendizaje supervisado . Buscaba estandarizar cómo se definían los entornos en las publicaciones de investigación de IA, de modo que las investigaciones publicadas fueran más fácilmente reproducibles [20] [144] y proporcionar a los usuarios una interfaz sencilla. A partir de junio de 2017, Gym solo se podía utilizar con Python . [145] En septiembre de 2017, el sitio de documentación de Gym no se mantuvo y el trabajo activo se centró en su página de GitHub . [146] [ se necesita fuente no primaria ]
Lanzado en 2018, Gym Retro es una plataforma para la investigación del aprendizaje por refuerzo (RL) en videojuegos, [147] utilizando algoritmos RL y generalización de estudios. La investigación anterior de RL se centró principalmente en optimizar agentes para resolver tareas individuales. Gym Retro brinda la posibilidad de generalizar entre juegos con conceptos similares pero apariencias diferentes.
Lanzado en 2017, RoboSumo es un mundo virtual donde los agentes robóticos humanoides de metaaprendizaje inicialmente carecen de conocimiento sobre cómo caminar, pero se les asigna el objetivo de aprender a moverse y empujar al agente contrario fuera del ring. [148] A través de este proceso de aprendizaje adversario, los agentes aprenden cómo adaptarse a las condiciones cambiantes. Cuando luego se retira a un agente de este entorno virtual y se lo coloca en un nuevo entorno virtual con fuertes vientos, el agente se prepara para permanecer erguido, lo que sugiere que ha aprendido a mantener el equilibrio de forma generalizada. [148] [149] Igor Mordatch de OpenAI argumentó que la competencia entre agentes podría crear una "carrera armamentista" de inteligencia que podría aumentar la capacidad de un agente para funcionar incluso fuera del contexto de la competencia. [148]
OpenAI Five es un equipo de cinco bots seleccionados por OpenAI utilizados en el videojuego competitivo de cinco contra cinco Dota 2 , que aprenden a jugar contra jugadores humanos con un alto nivel de habilidad completamente a través de algoritmos de prueba y error. Antes de convertirse en un equipo de cinco, la primera demostración pública ocurrió en The International 2017 , el primer campeonato anual del juego, donde Dendi , un jugador profesional ucraniano, perdió contra un bot en un enfrentamiento uno contra uno en vivo. [150] [151] Después del partido, el CTO Greg Brockman explicó que el robot había aprendido jugando contra sí mismo durante dos semanas en tiempo real , y que el software de aprendizaje era un paso en la dirección de la creación de software que pueda manejar tareas complejas como un cirujano. [152] [153] El sistema utiliza una forma de aprendizaje por refuerzo , ya que los robots aprenden con el tiempo jugando contra ellos mismos cientos de veces al día durante meses, y son recompensados por acciones como matar a un enemigo y tomar objetivos del mapa. [154] [155] [156]
En junio de 2018, la capacidad de los bots se amplió para jugar juntos como un equipo completo de cinco y pudieron derrotar a equipos de jugadores aficionados y semiprofesionales. [157] [154] [158] [159] En The International 2018 , OpenAI Five jugó dos partidos de exhibición contra jugadores profesionales, pero terminó perdiendo ambos juegos. [160] [161] [162] En abril de 2019, OpenAI Five derrotó a OG , los campeones mundiales reinantes del juego en ese momento, 2:0 en un partido de exhibición en vivo en San Francisco. [163] [164] La última aparición pública de los bots se produjo más tarde ese mes, donde jugaron en 42.729 juegos en total en una competencia abierta en línea de cuatro días, ganando el 99,4% de esos juegos. [165]
Los mecanismos de OpenAI Five en el reproductor bot de Dota 2 muestran los desafíos de los sistemas de IA en los juegos multijugador en línea de campo de batalla (MOBA) y cómo OpenAI Five ha demostrado el uso de agentes de aprendizaje por refuerzo profundo (DRL) para lograr una competencia sobrehumana en los partidos de Dota 2. [166]
Desarrollado en 2018, Dactyl utiliza el aprendizaje automático para entrenar una Mano Sombra , una mano robótica de apariencia humana, para manipular objetos físicos. [167] Aprende completamente en simulación utilizando los mismos algoritmos RL y código de entrenamiento que OpenAI Five. OpenAI abordó el problema de la orientación a objetos mediante el uso de aleatorización de dominios , un enfoque de simulación que expone al alumno a una variedad de experiencias en lugar de intentar adaptarse a la realidad. La configuración de Dactyl, además de tener cámaras de seguimiento de movimiento, también tiene cámaras RGB para permitir al robot manipular un objeto arbitrario al verlo. En 2018, OpenAI demostró que el sistema era capaz de manipular un cubo y un prisma octogonal. [168]
En 2019, OpenAI demostró que Dactyl podía resolver un cubo de Rubik . El robot pudo resolver el rompecabezas el 60% de las veces. Objetos como el cubo de Rubik introducen una física compleja que es más difícil de modelar. OpenAI hizo esto mejorando la robustez de Dactyl ante las perturbaciones mediante el uso de aleatorización automática de dominios (ADR), un enfoque de simulación para generar entornos progresivamente más difíciles. ADR se diferencia de la aleatorización manual de dominios en que no necesita que un humano especifique los rangos de aleatorización. [169]
En junio de 2020, OpenAI anunció una API multipropósito que, según dijo, era "para acceder a nuevos modelos de IA desarrollados por OpenAI" para permitir a los desarrolladores recurrir a ella para "cualquier tarea de IA en inglés". [170] [171]
La empresa ha popularizado los transformadores generativos preentrenados (GPT). [172]
El artículo original sobre el preentrenamiento generativo de un modelo de lenguaje basado en transformador fue escrito por Alec Radford y sus colegas, y publicado en preimpresión en el sitio web de OpenAI el 11 de junio de 2018. [173] Mostró cómo un modelo generativo de lenguaje podría adquirir conocimiento del mundo y procesar dependencias de largo alcance mediante un entrenamiento previo en un corpus diverso con largos tramos de texto contiguo.
Generative Pre-trained Transformer 2 ("GPT-2") es un modelo de lenguaje de transformador no supervisado y el sucesor del modelo GPT original de OpenAI ("GPT-1"). GPT-2 se anunció en febrero de 2019, y inicialmente solo se lanzaron al público versiones demostrativas limitadas. La versión completa de GPT-2 no se lanzó de inmediato debido a la preocupación por un posible uso indebido, incluidas aplicaciones para escribir noticias falsas . [174] Algunos expertos expresaron escepticismo de que GPT-2 representara una amenaza significativa.
En respuesta a GPT-2, el Instituto Allen de Inteligencia Artificial respondió con una herramienta para detectar "noticias neuronales falsas". [175] Otros investigadores, como Jeremy Howard, advirtieron sobre "la tecnología para llenar totalmente Twitter, el correo electrónico y la web con una prosa que suene razonable y apropiada para el contexto, lo que ahogaría todos los demás discursos y sería imposible de filtrar". . [176] En noviembre de 2019, OpenAI lanzó la versión completa del modelo de lenguaje GPT-2. [177] Varios sitios web albergan demostraciones interactivas de diferentes instancias de GPT-2 y otros modelos de transformadores. [178] [179] [180]
Los autores de GPT-2 argumentan que los modelos de lenguaje no supervisados son aprendices de propósito general, ilustrados por el hecho de que GPT-2 logra precisión y perplejidad de última generación en 7 de 8 tareas de tiro cero (es decir, el modelo no fue entrenado más en ninguna tarea). -ejemplos específicos de entrada-salida).
El corpus en el que se entrenó, llamado WebText, contiene aproximadamente 40 gigabytes de texto de URL compartidas en envíos de Reddit con al menos 3 votos a favor . Evita ciertos problemas al codificar vocabulario con tokens de palabras mediante el uso de codificación de pares de bytes . Esto permite representar cualquier cadena de caracteres codificando tanto caracteres individuales como tokens de varios caracteres. [181]
Descrito por primera vez en mayo de 2020, Generative Pre-trained [a] Transformer 3 (GPT-3) es un modelo de lenguaje de transformador no supervisado y el sucesor de GPT-2. [182] [183] [184] OpenAI declaró que la versión completa de GPT-3 contenía 175 mil millones de parámetros , [184] dos órdenes de magnitud mayores que los 1.5 mil millones [185] en la versión completa de GPT-2 (aunque GPT -También se entrenaron 3 modelos con tan solo 125 millones de parámetros). [186]
OpenAI declaró que GPT-3 tuvo éxito en ciertas tareas de " metaaprendizaje " y podría generalizar el propósito de un único par de entrada-salida. El documento de publicación de GPT-3 brindó ejemplos de traducción y aprendizaje de transferencia interlingüística entre inglés y rumano, y entre inglés y alemán. [184]
GPT-3 mejoró drásticamente los resultados de las pruebas comparativas con respecto a GPT-2. OpenAI advirtió que dicha ampliación de los modelos de lenguaje podría acercarse o encontrarse con las limitaciones de capacidad fundamentales de los modelos de lenguaje predictivo. [187] El entrenamiento previo de GPT-3 requirió varios miles de petaflop/s-día [b] de cálculo, en comparación con decenas de petaflop/s-día para el modelo GPT-2 completo. [184] Al igual que su predecesor, [174] el modelo entrenado GPT-3 no se lanzó inmediatamente al público por preocupaciones de posible abuso, aunque OpenAI planeó permitir el acceso a través de una API paga en la nube después de una versión beta privada gratuita de dos meses que comenzó. en junio de 2020. [170] [189]
El 23 de septiembre de 2020, GPT-3 obtuvo la licencia exclusiva de Microsoft. [190] [191]
Anunciado a mediados de 2021, Codex es un descendiente de GPT-3 que además ha sido entrenado en código de 54 millones de repositorios de GitHub, [192] [193] y es la IA que impulsa la herramienta de autocompletado de código GitHub Copilot . [193] En agosto de 2021, se lanzó una API en versión beta privada. [194] Según OpenAI, el modelo puede crear código de trabajo en más de una docena de lenguajes de programación, de manera más efectiva en Python. [192]
Se citaron varios problemas con fallas técnicas, fallas de diseño y vulnerabilidades de seguridad. [195] [196]
GitHub Copilot ha sido acusado de emitir código con derechos de autor, sin atribución ni licencia del autor. [197]
OpenAI anunció que dejaría de admitir la API del Codex el 23 de marzo de 2023. [198]
El 14 de marzo de 2023, OpenAI anunció el lanzamiento de Generative Pre-trained Transformer 4 (GPT-4), capaz de aceptar entradas de texto o imágenes. [199] Anunciaron que la tecnología actualizada aprobó un examen simulado de la facultad de derecho con una puntuación de alrededor del 10% de los mejores examinados. (Por el contrario, GPT-3.5 obtuvo una puntuación de alrededor del 10% inferior). Dijeron que GPT-4 también podía leer, analizar o generar hasta 25.000 palabras de texto y escribir código en los principales lenguajes de programación. [200]
Los observadores informaron que la iteración de ChatGPT usando GPT-4 fue una mejora con respecto a la iteración anterior basada en GPT-3.5, con la salvedad de que GPT-4 conservaba algunos de los problemas de revisiones anteriores. [201] GPT-4 también es capaz de tomar imágenes como entrada en ChatGPT. [202] OpenAI se ha negado a revelar varios detalles técnicos y estadísticas sobre GPT-4, como el tamaño preciso del modelo. [203]
El 13 de mayo de 2024, OpenAI anunció y lanzó GPT-4o , que puede procesar y generar texto, imágenes y audio. [204] GPT-4o logró resultados de última generación en pruebas comparativas de voz, multilingüe y visión, estableciendo nuevos récords en reconocimiento y traducción de voz en audio. [205] [206] Obtuvo una puntuación del 88,7% en el punto de referencia de comprensión masiva del lenguaje multitarea ( MMLU ) en comparación con el 86,5% de GPT-4. [207]
El 18 de julio de 2024, OpenAI lanzó GPT-4o mini, una versión más pequeña de GPT-4o que reemplaza a GPT-3.5 Turbo en la interfaz ChatGPT. Su API cuesta 0,15 dólares por millón de tokens de entrada y 0,60 dólares por millón de tokens de salida, en comparación con 5 dólares y 15 dólares respectivamente para GPT-4o. OpenAI espera que sea particularmente útil para empresas, nuevas empresas y desarrolladores que buscan automatizar servicios con agentes de IA. [208]
Revelado en 2021, CLIP (Preentrenamiento de imágenes y lenguaje contrastivo) es un modelo entrenado para analizar la similitud semántica entre texto e imágenes. En particular, se puede utilizar para la clasificación de imágenes. [209]
Revelado en 2021, DALL-E es un modelo Transformer que crea imágenes a partir de descripciones textuales. [210] DALL-E utiliza una versión de 12 mil millones de parámetros de GPT-3 para interpretar entradas de lenguaje natural (como "un bolso de cuero verde con forma de pentágono" o "una vista isométrica de un capibara triste") y generar las correspondientes imágenes. Puede crear imágenes de objetos realistas ("un vitral con la imagen de una fresa azul") así como objetos que no existen en la realidad ("un cubo con la textura de un puercoespín"). A partir de marzo de 2021, no hay API ni código disponibles.
En abril de 2022, OpenAI anunció DALL-E 2, una versión actualizada del modelo con resultados más realistas. [211] En diciembre de 2022, OpenAI publicó en GitHub el software para Point-E, un nuevo sistema rudimentario para convertir una descripción de texto en un modelo tridimensional. [212]
En septiembre de 2023, OpenAI anunció DALL-E 3, un modelo más potente y capaz de generar imágenes a partir de descripciones complejas sin ingeniería manual y representar detalles complejos como manos y texto. [213] Se lanzó al público como una función ChatGPT Plus en octubre. [214]
Sora es un modelo de texto a video que puede generar videos basados en breves indicaciones descriptivas [215], así como extender videos existentes hacia adelante o hacia atrás en el tiempo. [216] Puede generar videos con resolución de hasta 1920x1080 o 1080x1920. Se desconoce la duración máxima de los videos generados.
El equipo de desarrollo de Sora le puso el nombre de la palabra japonesa que significa "cielo", para significar su "potencial creativo ilimitado". [215] La tecnología de Sora es una adaptación de la tecnología detrás del modelo de texto a imagen DALL·E 3 . [217] OpenAI entrenó el sistema utilizando videos disponibles públicamente, así como videos con derechos de autor con licencia para ese propósito, pero no reveló el número ni las fuentes exactas de los videos. [215]
OpenAI demostró al público algunos videos de alta definición creados por Sora el 15 de febrero de 2024, afirmando que podía generar videos de hasta un minuto de duración. También compartió un informe técnico que destaca los métodos utilizados para entrenar el modelo y las capacidades del modelo. [217] Reconoció algunas de sus deficiencias, incluidas las luchas que simulan física compleja. [218] Will Douglas Heaven del MIT Technology Review calificó los videos de demostración como "impresionantes", pero señaló que deben haber sido seleccionados cuidadosamente y podrían no representar la producción típica de Sora. [217]
A pesar del escepticismo de algunos líderes académicos tras la demostración pública de Sora, figuras notables de la industria del entretenimiento han mostrado un interés significativo en el potencial de la tecnología. En una entrevista, el actor y cineasta Tyler Perry expresó su asombro por la capacidad de la tecnología para generar videos realistas a partir de descripciones de texto, citando su potencial para revolucionar la narración y la creación de contenido. Dijo que su entusiasmo por las posibilidades de Sora era tan fuerte que había decidido pausar los planes para expandir su estudio de cine con sede en Atlanta . [219]
Lanzado en 2022, Whisper es un modelo de reconocimiento de voz de uso general. [220] Está entrenado en un gran conjunto de datos de audio diverso y también es un modelo multitarea que puede realizar reconocimiento de voz multilingüe, así como traducción de voz e identificación de idioma. [221]
Lanzada en 2019, MuseNet es una red neuronal profunda entrenada para predecir notas musicales posteriores en archivos de música MIDI . Puede generar canciones con 10 instrumentos en 15 estilos. Según The Verge , una canción generada por MuseNet tiende a comenzar de manera razonable pero luego cae en el caos cuanto más se reproduce. [222] [223] En la cultura pop, las aplicaciones iniciales de esta herramienta se utilizaron ya en 2020 para el thriller psicológico de Internet Ben Drowned para crear música para el personaje principal. [224] [225]
Lanzado en 2020, Jukebox es un algoritmo de código abierto para generar música con voces. Después de entrenar con 1,2 millones de muestras, el sistema acepta un género, artista y un fragmento de letra y genera muestras de canciones. OpenAI afirmó que las canciones "muestran coherencia musical local [y] siguen patrones de acordes tradicionales", pero reconoció que las canciones carecen de "estructuras musicales familiares más grandes, como coros que se repiten" y que "existe una brecha significativa" entre Jukebox y la música generada por humanos. . The Verge declaró: "Es tecnológicamente impresionante, incluso si los resultados suenan como versiones blandas de canciones que pueden resultar familiares", mientras que Business Insider declaró "sorprendentemente, algunas de las canciones resultantes son pegadizas y suenan legítimas". [226] [227] [228]
En 2018, OpenAI lanzó el Juego de Debate, que enseña a las máquinas a debatir los problemas de los juguetes frente a un juez humano. El objetivo es investigar si un enfoque de este tipo puede ayudar a auditar las decisiones de la IA y a desarrollar una IA explicable . [229] [230]
Lanzado en 2020, Microscope [231] es una colección de visualizaciones de cada capa y neurona significativa de ocho modelos de redes neuronales que a menudo se estudian en términos de interpretabilidad. [232] El microscopio fue creado para analizar fácilmente las características que se forman dentro de estas redes neuronales. Los modelos incluidos son AlexNet , VGG 19, diferentes versiones de Inception y diferentes versiones de CLIP Resnet . [233]
Lanzado en noviembre de 2022, ChatGPT es una herramienta de inteligencia artificial construida sobre GPT-3 que proporciona una interfaz conversacional que permite a los usuarios hacer preguntas en lenguaje natural . Luego, el sistema responde con una respuesta en cuestión de segundos. ChatGPT alcanzó 1 millón de usuarios 5 días después de su lanzamiento. [234] [235]
A partir de 2023, ChatGPT Plus es una versión de ChatGPT [236] respaldada por GPT-4 disponible por una tarifa de suscripción de 20 dólares estadounidenses al mes [237] (la versión original está respaldada por GPT-3.5). [238] OpenAI también pone GPT-4 a disposición de un grupo selecto de solicitantes a través de su lista de espera de API GPT-4; [239] después de ser aceptado, se cobra una tarifa adicional de US$0,03 por cada 1000 tokens en el texto inicial proporcionado al modelo ("prompt"), y US$0,06 por cada 1000 tokens que genera el modelo ("finalización"), para el acceso. a la versión del modelo con una ventana contextual de 8192 tokens ; para la ventana de contexto de 32768 tokens, los precios se duplican. [240]
En mayo de 2023, OpenAI lanzó una interfaz de usuario para ChatGPT para App Store en iOS y posteriormente, en julio de 2023, para Play Store en Android. [241] La aplicación admite la sincronización del historial de chat y la entrada de voz (utilizando Whisper , el modelo de reconocimiento de voz de OpenAI ). [242] [241] [243] En septiembre de 2023, OpenAI anunció que ChatGPT "ahora puede ver, oír y hablar". Los usuarios de ChatGPT Plus pueden cargar imágenes, mientras que los usuarios de la aplicación móvil pueden hablar con el chatbot. [244] [245]
En octubre de 2023, el último modelo de generación de imágenes de OpenAI, DALL-E 3 , se integró en ChatGPT Plus y ChatGPT Enterprise. La integración utiliza ChatGPT para escribir indicaciones para DALL-E guiadas por la conversación con los usuarios. [246] [247]
La tienda GPT de OpenAI, inicialmente programada para su lanzamiento en 2023, ahora se pospone hasta una fecha no revelada a principios de 2024, lo que probablemente se atribuye a los cambios de liderazgo en noviembre después del anuncio inicial. [248]
SearchGPT, un prototipo de motor de búsqueda desarrollado por OpenAI, se presentó el 25 de julio de 2024, con un lanzamiento inicial limitado a 10.000 usuarios de prueba. Combina funciones de motores de búsqueda tradicionales con capacidades de inteligencia artificial generativa. [249] [250]
Stargate es una posible supercomputadora de inteligencia artificial en desarrollo por Microsoft y OpenAI. [251] Stargate está diseñado como parte de un proyecto de centro de datos más amplio, que podría representar una inversión de hasta 100 mil millones de dólares por parte de Microsoft. [252]
Se informa que Stargate forma parte de una serie de proyectos de construcción relacionados con la IA planificados en los próximos años por las empresas Microsoft y OpenAI. [252] Las supercomputadoras se construirán en cinco fases. [251] La cuarta fase debería consistir en una supercomputadora OpenAI más pequeña, cuyo lanzamiento está previsto para alrededor de 2026. [251] Stargate es la quinta y última fase del programa, tardará cinco y seis años en completarse y está previsto que se lance alrededor de 2028. [ 252]
Está previsto que la inteligencia artificial de Stargate esté contenida en millones de chips de servidores especiales. [252] El centro de datos de la supercomputadora se construirá en los EE. UU. en 700 acres de terreno. [252] Tiene un consumo de energía previsto de 5 gigavatios, para lo cual podría depender de la energía nuclear . [252] El nombre "Stargate" es un homenaje a la película de ciencia ficción Stargate de 1994 . [252]
En enero de 2023, OpenAI fue criticada por subcontratar la anotación de conjuntos de datos a Sama , una empresa con sede en San Francisco que empleaba trabajadores en Kenia . Estas anotaciones se utilizaron para entrenar un modelo de IA para detectar toxicidad, que luego podría usarse para moderar el contenido tóxico , en particular a partir de los datos y resultados de entrenamiento de ChatGPT. Sin embargo, estos fragmentos de texto generalmente contenían descripciones detalladas de varios tipos de violencia, incluida la violencia sexual. Los cuatro empleados de Sama entrevistados por Time se describieron a sí mismos como personas con cicatrices mentales. OpenAI pagó a Sama 12,50 dólares por hora de trabajo, y Sama estaba redistribuyendo el equivalente de entre 1,32 y 2 dólares por hora después de impuestos a sus anotadores. El portavoz de Sama dijo que los 12,50 dólares cubrían también otros costos implícitos, entre los que se encontraban gastos de infraestructura, control de calidad y gestión. [253]
En marzo de 2023, la empresa también fue criticada por revelar muy pocos detalles técnicos sobre productos como GPT-4, lo que contradice su compromiso inicial con la apertura y dificulta que los investigadores independientes repliquen su trabajo y desarrollen salvaguardias. OpenAI citó preocupaciones de competitividad y seguridad para justificar este giro estratégico. El ex científico jefe de OpenAI, Ilya Sutskever, argumentó en 2023 que el código abierto de modelos cada vez más capaces era cada vez más riesgoso y que las razones de seguridad para no abrir el código abierto de los modelos de IA más potentes se volverían "obvias" en unos pocos años. [254]
El 17 de mayo de 2024, un artículo de Vox informó que OpenAI estaba pidiendo a los empleados salientes que firmaran un acuerdo de no menosprecio de por vida que les prohibía criticar a OpenAI o reconocer la existencia del acuerdo. Daniel Kokotajlo, un ex empleado, declaró públicamente que perdió su capital adquirido en OpenAI para irse sin firmar el acuerdo. [255] [256] Sam Altman declaró que desconocía la disposición de cancelación de capital y que OpenAI nunca la aplicó para cancelar el capital adquirido de ningún empleado. [257] Vox publicó documentos y correos electrónicos filtrados que cuestionan esta afirmación. [258] El 23 de mayo de 2024, OpenAI envió un memorando liberando a los ex empleados del acuerdo. [259]
OpenAI fue demandada por infracción de derechos de autor por los autores Sarah Silverman , Matthew Butterick , Paul Tremblay y Mona Awad en julio de 2023. [260] [261] [262] En septiembre de 2023, 17 autores, incluidos George RR Martin , John Grisham , Jodi Picoult y Jonathan Franzen , se unió al Authors Guild para presentar una demanda colectiva contra OpenAI, alegando que la tecnología de la empresa estaba utilizando ilegalmente su trabajo protegido por derechos de autor. [263] [264] El New York Times también demandó a la empresa a finales de diciembre de 2023. [261] [265] En mayo de 2024 se reveló que OpenAI había destruido sus conjuntos de datos de entrenamiento Books1 y Books2, que se utilizaron en el entrenamiento de GPT. -3 , y que el Authors Guild creía que contenía más de 100.000 libros protegidos por derechos de autor. [266]
En 2021, OpenAI desarrolló una herramienta de reconocimiento de voz llamada Whisper. OpenAI lo utilizó para transcribir más de un millón de horas de vídeos de YouTube en texto para entrenar GPT-4. La transcripción automatizada de vídeos de YouTube generó preocupación entre los empleados de OpenAI sobre posibles violaciones de los términos de servicio de YouTube, que prohíben el uso de vídeos para aplicaciones independientes de la plataforma, así como cualquier tipo de acceso automatizado a sus vídeos. A pesar de estas preocupaciones, el proyecto prosiguió con una notable participación del presidente de OpenAI, Greg Brockman . El conjunto de datos resultante resultó fundamental en el entrenamiento de GPT-4. [267]
En febrero de 2024, The Intercept , así como Raw Story y Alternate Media Inc. presentaron una demanda contra OpenAI por litigios de derechos de autor. [268] [269] Se dice que la demanda trazó una nueva estrategia legal para que los editores exclusivamente digitales demanden a OpenAI. [270]
El 30 de abril de 2024, ocho periódicos presentaron una demanda en el Distrito Sur de Nueva York contra OpenAI y Microsoft, alegando recolección ilegal de sus artículos protegidos por derechos de autor. Las publicaciones demandadas incluyeron The Mercury News , The Denver Post , The Orange County Register , St. Paul Pioneer Press , Chicago Tribune , Orlando Sentinel , Sun Sentinel y New York Daily News . [271]
En abril de 2023, el Consejo Europeo de Protección de Datos (EDPB) de la UE formó un grupo de trabajo dedicado a ChatGPT "para fomentar la cooperación e intercambiar información sobre posibles acciones de cumplimiento llevadas a cabo por las autoridades de protección de datos" basándose en las "medidas de cumplimiento emprendidas por las autoridades italianas de protección de datos". autoridad contra Open AI sobre el servicio Chat GPT". [272]
A finales de abril de 2024 NOYB presentó una denuncia ante el Datenschutzbehörde austriaco contra OpenAI por violar el Reglamento General Europeo de Protección de Datos . Un texto, creado con ChatGPT, daba una fecha de nacimiento falsa de una persona viva sin darle la opción de ver los datos personales utilizados en el proceso. Se denegó una solicitud para corregir el error. Además, ni los destinatarios del trabajo de ChatGPT ni las fuentes utilizadas pudieron estar disponibles, afirmó OpenAI. [273]
OpenAI eliminó silenciosamente su prohibición de usar ChatGPT para "militares y guerras". Hasta el 10 de enero de 2024, sus "políticas de uso" incluían la prohibición de "actividades que tengan un alto riesgo de daño físico, incluido", específicamente, el "desarrollo de armas" y "militares y bélicos". Sus nuevas políticas prohíben "[usar] nuestro servicio para dañarse a sí mismo o a otros" y "desarrollar o utilizar armas". [274] [275] Como uno de los colaboradores de la industria, OpenAI proporciona LLM al Desafío Cibernético de Inteligencia Artificial (AIxCC) patrocinado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y la Agencia de Proyectos de Investigación Avanzada para la Salud para proteger el software crítico para los estadounidenses. [276]
En mayo de 2024, OpenAI eliminó las cuentas utilizadas por operaciones de influencia respaldadas por el estado , como Spamouflage de China y Doppelganger de Rusia . [277] [278] OpenAI prohibió el acceso a sus servicios desde China en julio de 2024. [279]
En junio de 2023, una demanda afirmó que OpenAI extrajo 300 mil millones de palabras en línea sin consentimiento y sin registrarse como intermediario de datos. Fue presentada en San Francisco , California , por dieciséis demandantes anónimos. También afirmaron que OpenAI y su socio y cliente Microsoft continuaron recopilando y utilizando ilegalmente datos personales de millones de consumidores en todo el mundo para entrenar modelos de inteligencia artificial. [280]
En 2022, en comparación, los ingresos fueron de solo 28 millones de dólares, principalmente por la venta de acceso a su software de inteligencia artificial... Las pérdidas de OpenAI aproximadamente se duplicaron a alrededor de 540 millones de dólares el año pasado mientras desarrollaba ChatGPT...
Creado en colaboración y exclusivamente para OpenAI
La supercomputadora OpenAI de Microsoft tiene 285.000 núcleos de CPU y 10.000 GPU. Es uno de los cinco sistemas más rápidos del mundo.
{{cite news}}
: CS1 maint: multiple names: authors list (link)Algunos en OpenAI creen que Q* (pronunciado Q-Star) podría ser un gran avance en la búsqueda de la startup de lo que se conoce como inteligencia artificial general (AGI), dijo una de las personas a Reuters. OpenAI define AGI como sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas.
Altman dijo que esperan que este proyecto de décadas supere la inteligencia humana.
¿Por qué OpenAI decidió lanzar una API en lugar de abrir los modelos?
Hay tres razones principales por las que hicimos esto. En primer lugar, comercializar la tecnología nos ayuda a pagar nuestros esfuerzos continuos de investigación, seguridad y políticas de IA. En segundo lugar, muchos de los modelos subyacentes a la API son muy grandes, lo que requiere mucha experiencia para desarrollarlos e implementarlos y hace que su ejecución sea muy costosa. Esto hace que sea difícil para cualquiera, excepto para las empresas más grandes, beneficiarse de la tecnología subyacente. Tenemos la esperanza de que la API haga que los potentes sistemas de IA sean más accesibles para las empresas y organizaciones más pequeñas. En tercer lugar, el modelo API nos permite responder más fácilmente al mal uso de la tecnología. Dado que es difícil predecir los casos de uso posteriores de nuestros modelos, parece intrínsecamente más seguro publicarlos a través de una API y ampliar el acceso con el tiempo, en lugar de lanzar un modelo
de código abierto
donde el acceso no se puede ajustar si resulta que tiene aplicaciones dañinas. .
Si alguna vez quisiste probar el tan cacareado conjunto de herramientas de aprendizaje automático de OpenAI, ahora es mucho más fácil. La compañía ha lanzado una API que permite a los desarrolladores utilizar sus herramientas de inteligencia artificial en "prácticamente cualquier tarea en inglés".
GPT-2, es un transformador de parámetros de 1,5 mil millones
Dado que aumentamos la capacidad en más de dos órdenes de magnitud de GPT-2 a GPT-3
Un petaflop/s-día (pfs-día) consiste en realizar 10
15
operaciones de red neuronal por segundo durante un día, o un total de aproximadamente 10
20
operaciones. El producto de tiempo de cálculo sirve como comodidad mental, similar a los kW-h de energía.
{{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: multiple names: authors list (link){{cite news}}
: CS1 maint: url-status (link)…El Gremio de Autores dijo... que los conjuntos de datos probablemente contenían "más de 100.000 libros publicados"... central en sus acusaciones de que OpenAI utilizó materiales protegidos por derechos de autor para entrenar modelos de IA.
{{cite web}}
: CS1 maint: multiple names: authors list (link)