El auge de la IA no se detiene y Nvidia promete un nuevo chip cada año

El mercado esperaba con impaciencia los resultados financieros de Nvidia, que gracias a sus chips de IA se ha convertido en el metrónomo y faro de muchas industrias. La compañía liderada por Jensen Huang ha cumplido con las altísimas expectativas de los inversores, y para su gozo les ha dicho que aún hay más. Nvidia no se limitará a mantener el ritmo, sino que lo aumentará y para conseguirlo diseñará un nuevo chip de IA cada año en lugar de cada dos.

"Puedo anunciar que después de Blackwell hay otro chip. Vamos a un ritmo de uno por año", ha dicho Huang. Hasta ahora Nvidia ha lanzado un chip cada dos años, incluyendo Hopper (H100) en 2022 y Blackwell (B200) en 2024. Estas arquitecturas (o sus variantes) se utilizan en chips de IA y las tarjetas gráficas GeForce. Los rumores aseguran que el chip de 2025 se llama Rubin (R100) en honor a la astrónoma estadounidense Vera Rubin y usará el nodo de 3 nm.

Nvidia pretende acelerar el lanzamiento de todos los chips para igualar la cadencia de los de IA. "Nuevas CPU, nuevas GPU, nuevas tarjeta de interfaz de red (NIC), nuevos conmutadores... se avecina una montaña de chips", asegura Huang. ¿Cómo pretende Nvidia vender los nuevos chips si los viejos aún tienen una alta demanda? La compañía no espera que exista ningún problema y asegura que la transición de los H100 a H200 y a B200 es muy sencilla.

Nvidia prevé que la demanda de chips de IA siga superando la oferta "durante algún tiempo" debido a que las compañías quieren tener sus centros de datos funcionando lo antes posible. También confía en el miedo que tienen las empresas de no ser las primeras. "La próxima empresa que alcance el siguiente nivel anunciará una IA revolucionaria y la segunda anunciará algo que es un 0,3 % mejor", comenta Huang. "¿Quieres ser la empresa que ofrece una IA revolucionaria o la que ofrece un 0,3 % más?".

“La próxima revolución industrial ha comenzado", asegura Huang. "Las empresas y países se están asociando con Nvidia para cambiar los centros de datos tradicionales, que mueven billones de dólares, por la computación acelerada y la construcción de un nuevo tipo de centro de datos, fábricas de IA, para producir una nueva materia prima: la inteligencia artificial. La IA aportará mejoras significativas en la productividad de casi todas las industrias y ayudará a las empresas a ser más eficientes en costes y energía, al tiempo que ampliará las oportunidades de negocio".

Los accionistas de Nvidia deben saber que la compañía ha cerrado el primer trimestre fiscal 2025 con unos ingresos de 26.000 millones de dólares, un 262 % más que hace un año. Este crecimiento se explica por los 22.600 millones de dólares aportados por la división Data Center, que experimenta un aumento interanual de los ingresos del 427 %. Por el contrario, la división gaming donde encontramos GeForce se conforma con aportar 2.600 millones de dólares, un 8 % menos que hace un año. Además, Nvidia ha anunciado un aumento del dividendo y un split de sus acciones para rebajar su precio nominal y hacerlas más accesibles.

Fuente: The Verge
Esta claro que la IA ya es una realidad. El único pero que le puedo poner, es que entre el usuario y la pasarela para hacer uso de la IA, aun me parecen rudimentarios. El ejemplo perfecto lo tengo con Copilot de Microsoft. Es increíblemente potente, y te da un buen grado de soluciones, pero no es capaz de salir de algo establecido como el hecho de solicitar algo que no es capaz de hacer. Es decir ... puede hacerte imágenes, puedes hacerte videos, puede hacerte melodías, pero si le pides que de un texto te haga una canción, si no es capaz ... tampoco te sabe decir como puedes conseguirlo, y ahí entra el escollo. Al final, hay cientos de webs que te ofrecen soluciones con IA, pero al mismo tiempo, es como que Google se dividiera en 100 paginas para buscar 100 tipos distintos de servicios. Y esa seria para mi, la primera cosa a resolver en esta nueva revolución.
Yo he intentado usar la IA para mi trabajo fin de máster y me he dado cuenta de que todavía está muy verde. Chatgpt no te dice las fuentes.
Copilot no está mal, pero no la saques de sus 4 o 5 cosas.
Lo de askyourpdf ya es de traca, le preguntas cosas y te dice en ocasiones que no viene, cuando si que está reflejado.
Scholar AI si, mucho inglés pero de español bien poquito.
Al final me ha ayudado un poco, pero más que nada a localizar fuentes, cosa que podría haber hecho Google.

Creo que aún le queda unos años de trabajo.
Por otro lado, se avecina malos tiempos para los “gamer”.
A nvidia el sector juegos le interesa poquito teniendo el de la IA, antes pasó lo mismo con las criptomonedas.
Yo con la rtx 4090 espero tener para tiempo, pero con AMD estando lejos de la gama alta, creo que nvidia tiene el monopolio.
ajbeas escribió:Yo he intentado usar la IA para mi trabajo fin de máster y me he dado cuenta de que todavía está muy verde. Chatgpt no te dice las fuentes.
Copilot no está mal, pero no la saques de sus 4 o 5 cosas.
Lo de askyourpdf ya es de traca, le preguntas cosas y te dice en ocasiones que no viene, cuando si que está reflejado.
Scholar AI si, mucho inglés pero de español bien poquito.
Al final me ha ayudado un poco, pero más que nada a localizar fuentes, cosa que podría haber hecho Google.

Creo que aún le queda unos años de trabajo.
Por otro lado, se avecina malos tiempos para los “gamer”.
A nvidia el sector juegos le interesa poquito teniendo el de la IA, antes pasó lo mismo con las criptomonedas.
Yo con la rtx 4090 espero tener para tiempo, pero con AMD estando lejos de la gama alta, creo que nvidia tiene el monopolio.


Has usado chatgpt de pago? porque entre la de pago y la gratuita hay 1 universo de diferencia.
xboxadicto escribió:
ajbeas escribió:Yo he intentado usar la IA para mi trabajo fin de máster y me he dado cuenta de que todavía está muy verde. Chatgpt no te dice las fuentes.
Copilot no está mal, pero no la saques de sus 4 o 5 cosas.
Lo de askyourpdf ya es de traca, le preguntas cosas y te dice en ocasiones que no viene, cuando si que está reflejado.
Scholar AI si, mucho inglés pero de español bien poquito.
Al final me ha ayudado un poco, pero más que nada a localizar fuentes, cosa que podría haber hecho Google.

Creo que aún le queda unos años de trabajo.
Por otro lado, se avecina malos tiempos para los “gamer”.
A nvidia el sector juegos le interesa poquito teniendo el de la IA, antes pasó lo mismo con las criptomonedas.
Yo con la rtx 4090 espero tener para tiempo, pero con AMD estando lejos de la gama alta, creo que nvidia tiene el monopolio.


Has usado chatgpt de pago? porque entre la de pago y la gratuita hay 1 universo de diferencia.


Si, pero la he usado cuando ya no iban los plugin, cuando solo hay gpts.
A mi me ha defraudado para el trabajo fin de máster.
@ajbeas En cosas técnicas note puedes fiar mucho sinceramente, cuando lo probé inicialmente hace meses le tengo cazado varias meteduras de pata gordas y en algunas incluso corrigiéndole no te aceptaba la respuesta hasta que le dabas una fuente tipo BOE, normativa técnica...
Aunque en los últimos tiempos sí que me parece que mejoró bastante, solo que es más fiable cuanto más mainstream sea el tema por lo que le preguntas, incluidos temas técnicos. De todos al menos a día de hoy no me fiaría de sus respuestas, al menos en motivos serios.
Luego para otros casos de uso como, por ejemplo, asistente en aplicaciones si que le veo más utilidad a corto plazo.
Que anuncien las nuevas y se dejen de tonterías que tengo prisa por agarrar una [+risas]

Yo creo que se viene subida de precios
La AI va a arrasar si pero con los puestos de trabajo como por ejemplo con el doblaje de pelis o centros de atencion de cliente incluso ya las hay que diseñan chips y esto es solo el principio, como ya lo dijo Jensen Huang en 5-10 años la AI hara practicamente todo el trabajo en todos los sectores y la robotica sera la proxima.
xboxadicto escribió:Has usado chatgpt de pago? porque entre la de pago y la gratuita hay 1 universo de diferencia.

Eso decis algunos, pero hay papers que dicen que GPT-4 le pegaron un downgrade tan gordo que GPT-3.5 es mejor en algunas cosas:
https://arxiv.org/pdf/2307.09009

Y cuadra con lo que dijeron de GPT-4 en el evento Build 2024, que ahora consume 12 veces menos, está claro que eso significa que ahora corren versiones cuantizadas que degradan los resultados.

A ver si ponen de una vez el GPT-4o para todos como dijeron y podemos probarlo.
Demasiado populismo veo en sus palabras. Pero quitando la paja, sin duda la IA es una revolución, grande o pequeña no lo sé.
654321 escribió:
xboxadicto escribió:Has usado chatgpt de pago? porque entre la de pago y la gratuita hay 1 universo de diferencia.

Eso decis algunos, pero hay papers que dicen que GPT-4 le pegaron un downgrade tan gordo que GPT-3.5 es mejor en algunas cosas:
https://arxiv.org/pdf/2307.09009

Y cuadra con lo que dijeron de GPT-4 en el evento Build 2024, que ahora consume 12 veces menos, está claro que eso significa que ahora corren versiones cuantizadas que degradan los resultados.

A ver si ponen de una vez el GPT-4o para todos como dijeron y podemos probarlo.

Yo ya lo tengo, y mi cuenta es gratuita de siempre. Mira a ver si ya lo tienes.

Imagen
paco_man escribió:Yo ya lo tengo, y mi cuenta es gratuita de siempre. Mira a ver si ya lo tienes.

habrá que aprovechar ahora que están en fase de marketing, antes de que le peguen el downgrade ...
654321 escribió:
paco_man escribió:Yo ya lo tengo, y mi cuenta es gratuita de siempre. Mira a ver si ya lo tienes.

habrá que aprovechar ahora que están en fase de marketing, antes de que le peguen el downgrade ...

Sí, ten por seguro de que van a dejarlo igual de tonto que GPT 3.5. [qmparto]
Buscar una 4090 para comprarla, no hay ni una y si las hay están a mayor precio o a un precio superior que el de salida, Nvidia les está vendiendo todas a los chinos para granjas de IA.

Por cierto si queréis usar modelos inferiores para IA, van a 1/4 de potencia respecto a la 4090, las 4080 para abajo, van capadas para tal efecto, pero el precio se mantiene intacto.

El caso es que gracias a la IA, los precios de las gamas altas vuelven a subir de precio e incluso están más caras que de salida en algunos casos.(4090)

Mi consejo es que corráis a comprar sus nuevas gráficas y contribuyáis a la especulación, antes va el vicio que la dignidad, a Nvidia los gamers les importan.
(mensaje borrado)
Qué decepción. Un nuevo chip cada año?

Deberían sacar uno por semana, hombre.
Menos mal que han caido en gaming. Llegan a crecer en gaming en lo que es probablemente su peor generacion de gráficas gaming y sería para flipar.

No queda muy claro en la noticia si eso incluye una nueva generacion de gráficas gaming al año, pero lo dudo mucho.
No solo porque es mucho volumen de chips que pretenden volver de "usar y tirar" sino que con TSMC saturada no tiene sentido que se pisen la cola por minucias
pfff IA sigo diciendo que me parece marketing mas que otra cosa, como los "rayitos" etc , de algo tienen que vivir
En gaming esto será la leche bien usado.

Pero como ya pasó con el online y otros avances en el medio, tendrá también malos usos, claro. El online fue la puerta de entrada para dlcs y micropagos por porrón de basura, toxicicidad a cascoporro, pero a nadie se le ocurre dar marcha atrás porque también metió muchas cosas buenas a cambio.

654321 escribió:Eso decis algunos, pero hay papers que dicen que GPT-4 le pegaron un downgrade tan gordo que GPT-3.5 es mejor en algunas cosas:
https://arxiv.org/pdf/2307.09009

Y cuadra con lo que dijeron de GPT-4 en el evento Build 2024, que ahora consume 12 veces menos, está claro que eso significa que ahora corren versiones cuantizadas que degradan los resultados.

A ver si ponen de una vez el GPT-4o para todos como dijeron y podemos probarlo.


Yo lo he visto, con ciertas preguntas específicas de código me encontré que va bastante peor que el 3.5.

Me sorprendió... para muy mal xD

me deja usarlo un buen puñado de ¿tokens? al dia, tras lo cual revierte al anterior.
Mientras nadie le haga sombra, sacarán un chip anual, refriteishon anual, con ligeras mejorías respecto al anterior, y a venderte la burra cada 12 meses en vez de los 24.
La IA si aprende de errores siempre será tonta.... no perfecta. Una grafica de 2000 pavos al año?, estos han esnifado medio quilo de harina de trigo... Graficas con chips upgradeables ... maybe ... pero una nueva cada año.... ni jarto de mayonesa de huevo de TREX.
No veo con tanto humo. Cada vez se parece más a las cyptos.
@cristiano.88 gran comentario teniendo en cuenta que el BTC está en máximos
paco_man escribió:Yo ya lo tengo, y mi cuenta es gratuita de siempre. Mira a ver si ya lo tienes.

Imagen

Pues a mi me sale esto:

Imagen
654321 escribió:
paco_man escribió:Yo ya lo tengo, y mi cuenta es gratuita de siempre. Mira a ver si ya lo tienes.

Imagen

Pues a mi me sale esto:

Imagen

Sí igual que a mí. Ahora pregúntale algo y en la respuesta que te da, abajo te sale el desplegable para elegir el modelo. Mira esta captura:

Imagen
@paco_man ostia, gracias por el truco !!!!!
Justo lo que queria hacer que me daba error pq decia que era demasiado grande, si le hago una pregunta tonta, luego en la segunda si que me deja ya pq ha pasado a gpt-4o.

A ver si el resultado es mejor que el que me ha dado DeepseekCoder33B corriendolo en local en una 3080 12GB
654321 escribió:@paco_man ostia, gracias por el truco !!!!!
Justo lo que queria hacer que me daba error pq decia que era demasiado grande, si le hago una pregunta tonta, luego en la segunda si que me deja ya pq ha pasado a gpt-4o.

A ver si el resultado es mejor que el que me ha dado DeepseekCoder33B corriendolo en local en una 3080 12GB

Interesante, ¿ese modelo es para programadores? Tengo LM Studio, ¿se puede probar ahí? ¿qué tal va?
@paco_man Sí, dicen que es el mejor:
https://www.reddit.com/r/LocalLLaMA/comments/1b6m30g/best_coding_llm_opensource/

A mi me estan defraudando todos, quiero ver si son capaces de traducirme codigo de python a C o C++, una pequeña biblioteca de comunicaciones, y me esperaba mejores resultados.

Con LM Studio lo estoy usando.
654321 escribió:@paco_man Sí, dicen que es el mejor:
https://www.reddit.com/r/LocalLLaMA/comments/1b6m30g/best_coding_llm_opensource/

A mi me estan defraudando todos, quiero ver si son capaces de traducirme codigo de python a C o C++, una pequeña biblioteca de comunicaciones, y me esperaba mejores resultados.

Con LM Studio lo estoy usando.

Genial compañero, tengo muchas ganas de probarlo. Veo varios, mi GPU tiene 12 gb de vram. Tal vez me venga bien el mismo que estás usando, ¿cual es el tuyo?

Imagen
@paco_man Yo con 32GB de RAM y 12VRAM me he instalado el de 33B Q5_K y va arrastrandose

Los resultados son peores que los de GPT-4o ademas, me da 10 lineas de codigo y me dice que luego el resto es rellenar ... cabron, lo que quiere es que tu rellenes por mi
654321 escribió:@paco_man Yo con 32GB de RAM y 12VRAM me he instalado el de 33B Q5_K y va arrastrandose

Los resultados son peores que los de GPT-4o ademas, me da 10 lineas de codigo y me dice que luego el resto es rellenar ... cabron, lo que quiere es que tu rellenes por mi

Vaya, entonces pasando, a mí me irá igual de mal. Gracias de todos modos compañero. [tadoramo]
@paco_man el de 7B va fino, y no esta mal para pedirle sugerencias y cosas así
El caso es que ese futuro de CI.FI. ya esta aquí, en ciudades modernas ya esta implantado y a Europa acabara llegando y no es por la IA de momento, la revolución de la IA será el ultimo coletazo que acabara con el empleo cosa que ya veremos como se regula y como la manejamos, pero que en un futuro la sociedad será auto mantenida por las maquinas no lo dudo.

Almacenes totalmente automatizados han remplazado a miles de trabajadores por todo el mundo
Imagen

Sin tener en cuenta la IA, pensar en todos los puestos de trabajo que han desaparecido ya, los mozos de almacén, los cajeros de los bancos ya son un recuerdo, las cajeras de los supermercados pueden ser sustituidas, el 70% de la policía puede ser remplazada por video vigilancia y drones, correos es un muerto viviente, todos los repartidores son fácilmente sustituibles, todas las gestiones administrativas se pueden hacer desde casa sobran el 80% de funcionarios, pronto el 50% de las consultas medicas podrán hacerse telemáticamente y todo esto ya se puede hacer sin la IA, los vendedores las tiendas físicas en general serán un nicho lo normal y general será comprar todo online. Del almacén totalmente automatizado llevado a tu casa por dron. Cuando realmente se implante la IA, será el siguiente paso, el paso en que la propia IA gestionara las maquinas y el humano será el ultimo controlador de todo el sistema.

Lo que yo no me esperaba es que la IA se metiera en el campo creativo, quitando trabajo también en el sector de la pintura, escritura y música
Crápula escribió:@cristiano.88 gran comentario teniendo en cuenta que el BTC está en máximos


Y ello no quita que siga siendo un timo.
Alguien sabe cómo instalar en el PC sin necesidad de API que registra que haces etc... el mejor modelo para hacer impainting y crear mis propios deep fakes(+18) y un chat desbloqueado para 3/4 de lo mismo? No se si me hago entender, está guapo para ver de forma realista colegas con su ropa de nacimiento.

No eso suena demasiado obvio, mejor para despelotar tías de forma realista y fácil.

Tenía una web y conseguí hacer una maravilla, me falta colegas féminas porque las que tenía ya son mercancía estropeada y para usar fotos de desconocidas veo reales directamente.

Aunque una novia virtual vendría bien para mis largas noches por alta mar, AR
34 respuestas