Resulta que no es tan difícil hacer lo que hace OpenAI por menos dinero
OpenAI Mientras OpenAI sigue aferrándose a su afirmación de que el único camino hacia la inteligencia artificial pasa por enormes gastos financieros y energéticos, investigadores independientes aprovechan las tecnologías de código abierto para igualar el rendimiento de sus modelos más potentes, y lo hacen por una fracción del precio. El viernes pasado, un equipo unificado de la Universidad de Stanford y la Universidad de Washington anunció que había entrenado un modelo de lenguaje de gran tamaño centrado en las matemáticas y la codificación que rinde tan bien como los modelos de razonamiento o1 de OpenAI y R1 de DeepSeek. Su construcción costó sólo 50 dólares en créditos de computación en la nube. Al parecer, el equipo utilizó un modelo base comercial y, a continuación, destiló en él el modelo Gemini 2.0 Flash Thinking Experimental de Google. Además, el martes, los investigadores de Hugging Face lanzaron un competidor de las herramientas Deep Research de OpenAI y Deep Research de Google Gemini (también), denominado Open Deep Research, que desarrollaron en tan solo 24 horas. "Mientras que los potentes LLM ya están disponibles gratuitamente en código abierto, OpenAI no reveló mucho sobre el marco agentico subyacente a Deep Research", escribió Hugging Face en su anuncio. "Así que decidimos embarcarnos en una misión de 24 horas para reproducir sus resultados y, de paso, hacer open-source el marco necesario" El modelo de Hugging Face obtuvo posteriormente una precisión del 55% en la prueba de referencia General AI Assistants (GAIA), que se utiliza para probar las capacidades de los sistemas de IA agéntica. En comparación, Deep Research de OpenAI obtuvo entre un 67% y un 73% de precisión, dependiendo de las metodologías de respuesta. Es cierto que el modelo de 24 horas no rinde tan bien como el de OpenAI, pero tampoco ha necesitado miles de millones de dólares ni la capacidad de generación de energía de un país europeo de tamaño medio para entrenarse. Estos esfuerzos siguen a la noticia de enero de que un equipo del Sky Computing Lab de la Universidad de California en Berkeley consiguió entrenar su modelo de razonamiento Sky T1 por unos 450 dólares en créditos de computación en la nube. El modelo Sky-T1-32B-Preview del equipo demostró estar a la altura de la primera versión del modelo de razonamiento o1-preview. A medida que surgen más de estos competidores de código abierto al dominio de la industria de OpenAI, su mera existencia pone en duda si el plan de la compañía de gastar medio billón de dólares en construir centros de datos de IA e instalaciones de producción de energía es realmente la respuesta. Andrew Tarantola es un periodista con más de una década informando sobre tecnologías emergentes que van desde la robótica y la máquina... Los chatbots se van a Washington con ChatGPT Gov En un post X el lunes comentando el repentino éxito de DeepSeek, el CEO de OpenAI, Sam Altman, prometió "subir algunos lanzamientos" y parece que lo ha hecho. OpenAI presentó el martes su nuevo producto, una "versión adaptada de ChatGPT diseñada para proporcionar a las agencias gubernamentales estadounidenses una forma adicional de acceder a los modelos de frontera de OpenAI", según el anuncio. Según se informa, ChatGPT Gov ofrecerá medidas de seguridad de datos aún más estrictas que ChatGPT Enterprise, pero ¿cómo gestionará las alucinaciones que plagan los otros modelos de la empresa? Según OpenAI, más de 90.000 empleados de la administración federal, estatal y local de 3.500 agencias han consultado ChatGPT más de 18 millones de veces desde principios de 2024. La nueva plataforma permitirá a las agencias gubernamentales introducir "información confidencial no pública" en ChatGPT mientras se ejecuta dentro de sus entornos de alojamiento seguro -en concreto, la nube comercial Microsoft Azure o la nube comunitaria Azure Government- y marcos de ciberseguridad como IL5 o CJIS. Esto permite a cada agencia "gestionar sus propios requisitos de seguridad, privacidad y cumplimiento", dijo Felipe Millón, jefe de ventas gubernamentales de OpenAI a los periodistas en la rueda de prensa del martes. Leer más Microsoft ya tiene su punto de mira legal puesto en DeepSeek La interfaz de chat de la página de inicio de DeepSeek AI. Nadeem Sarwar / Digital Trends Microsoft, uno de los principales inversores en OpenAI, está ahora explorando si la empresa china DeepSeek utilizó métodos nefastos para entrenar sus modelos de razonamiento. Según Bloomberg Law, la compañía cree ahora que DeepSeek violó sus términos de servicio al utilizar su interfaz de programación de aplicaciones (API) para entrenar su modelo R1, anunciado recientemente. Leer más Cómo DeepSeek puso patas arriba el mundo de la tecnología de la noche a la mañana DeepSeek, el chatbot creado por una startup china que aparentemente destronó a ChatGPT, está arrasando en todo el mundo. Actualmente es el tema número uno en todas las noticias, y han ocurrido muchas cosas en las últimas 24 horas. Entre otros hechos destacados, las acciones de Nvidia se desplomaron como respuesta a DeepSeek; el presidente Donald Trump hizo comentarios sobre la nueva IA; Mark Zuckerberg está reuniendo un equipo para encontrar una respuesta a DeepSeek. A continuación, cubriremos todas las últimas noticias que necesitas saber sobre DeepSeek. Nvidia se ve afectada por el auge de DeepSeek Aunque ChatGPT es el chatbot que perdió rápidamente su estatus de favorito del público con el auge de DeepSeek, Nvidia es la empresa que sufrió las mayores pérdidas. De hecho, la pérdida de mercado de Nvidia tras el lanzamiento del gran modelo de lenguaje (LLM) de DeepSeek marca la mayor caída bursátil en un día de la historia, dice Forbes. Nvidia perdió casi 600.000 millones de dólares como consecuencia de que la empresa china que está detrás de DeepSeek revelara lo barato que resulta desarrollar el nuevo LLM en comparación con rivales de Anthropic, Meta u OpenAI. Más información
Otros artículos
Resulta que no es tan difícil hacer lo que hace OpenAI por menos dinero
Mientras Hugging Face clonaba Deep Research de OpenAI en 24 horas, un equipo multiinstitucional de investigadores construía un competidor de o1 por sólo 50 dólares.
