Nvidia presenta Blackwell B200, su nuevo chip para procesar modelos de IA de billones de parámetros

Nvidia lidera cómodamente y con grandes réditos el apetitoso mercado de los procesadores que aceleran las cargas de trabajo de la IA, pero no puede dormirse en los laureles debido a que algunos de sus clientes están diseñando sus propios chips para reducir su dependencia. Mientras estas compañías se intentan poner al día con el hardware, Nvidia avanza y para seguir alimentando a las tecnológicas que quieren entrenar y ejecutar sus modelos de IA presenta la arquitectura Blackwell liderada por la GPU B200 y el superchip GB200.

Blackwell B200 se ha concebido con 208.000 millones de transistores mediante un proceso de fabricación de 4NP de TSMC, y según Nvidia sus GPUs “incluyen los chips más potentes jamás creados”. La nueva G200 ofrece hasta 20 petaflops de potencia FP4 por los 4 petaflops de su antecesor H100, y en caso de combinar dos de estas GPUs con un procesador Grace en un superchip GB200 se puede obtener hasta 30 veces más rendimiento para ejecutar cargas de trabajo de inferencia para grandes modelos de lenguaje (LLM, por sus siglas en inglés), como son GPT de Open IA, Gemini de Google, Llama de Meta o Claude de Anthropic.

ImagenEl superchip GB200 con dos GPU B200 Blackwell y una CPU Grace.

El B200 no solo supera el rendimiento del actual H100 que ha transformado a Nvidia en una empresa con un valor bursátil superior al de Amazon o Alphabet, sino que además lo hace con “un coste y consumo de energía hasta 25 veces menor”. Según la compañía, para entrenar un modelo de IA de 1.800 millones de parámetros hacen falta 8.000 GPUs Hopper (H100) y 15 megavatios de potencia, mientras que la arquitectura Blackwell hace el mismo trabajo con 2.000 GPUs y cuatro megavatios.

Estas GPUs liberan todo su potencial de computación cuando se conectan entre ellas en un clúster de servidores. Ahí es donde entra en juego la nueva generación del protocolo NVLink, que permite que 576 B200 instaladas en diferentes servidores se comuniquen entre sí con una interconexión de 1,8 TB/s. Nvidia también destaca el uso del motor de descompresión de Blackwell y su capacidad para acceder a grandes cantidades de memoria en la CPU Grace a través de un enlace de alta velocidad de 900 GB/s de ancho de banda bidireccional.

En resumen, la arquitectura Blackwell promete abrir un nuevo capítulo de la IA generativa “con un rendimiento, una eficacia y una escala sin precedentes”, cosa que espera conseguir entrenando modelos de IA de “billones y billones de parámetros”.

ImagenRack GB200 NVL72 con 36 CPUs y 72 GPUs.

¿Y las GPUs para juegos? Nvidia ha presentado la arquitectura Blackwell junto al chip B200 y el superchip GB200 en la GTC, una conferencia para desarrolladores centrada en la computación por GPU y la IA, así que no se esperaba nada sobre videojuegos. Sin embargo, muy probablemente la Blackwell impulsará las tarjetas gráficas de la serie RTX 50, que serán presentadas y se pondrán a la venta cuando estén listas.

Fuente: Nvidia
Lo siento ... pero nVidia algún día de estos, a estas CPUs para IA debería llamarlas Skynet (como alias) ...
Lo peor es que la gráfica ya la habrá hecho una IA...
gojesusga escribió:Lo peor es que la gráfica ya la habrá hecho una IA...


Con tanta IA y esa potencia, se inventan directamente la gráfica y la mayoría de fps del juego..

Bromas aparte, ya sabemos por dónde va el mercado y el futuro tecnologico. Antes fue por la minería y ahora por la minerIA, seguirán escalando los precios de las gráficas de consumo por la demanda de estos chips
El papá de Skynet ya está aquí
Faltan precios para comparar y lo de potencia y energía aun mucha gente no lo tiene claro. Lo que he leudoy es humo para inversores. Siempre he sido muy fan de NVIDIA y los LLM son muy majos, pero ganar dinero solo ha ganado NVIDIA de momento. Y es porque se han gastado una pasta en hacer software para sus gpus con todo lo bueno y malo que significa.
Vaya bicho :O

He visto trozos de la presentación y aparecían por ahí un par de robotitos tipo Wall-E xD
Qué rollo con la IA, quillo.
Nvidia ya nunca venderá gráficas de gama baja media a precios decentes. Esto da demasiado dinero fácil
IA hasta el la sopa y yo ni siquiera he hecho una búsqueda en IA ni nada más relacionado, no he probado absolutamente nada aún porque no le veo gran cosa al menos de momento.... [qmparto]
Para Petaflops el que me he tirado esta mañana.

Imagen
Al final no se necesitara ni CPU
gojesusga escribió:Lo peor es que la gráfica ya la habrá hecho una IA...


Las máquinas ya se crean unas a otras.
Máquinas cada vez más perfectas, creando máquinas cada vez más perfectas.
Ese en resumen del artículo suena a Chat-GPT que da gusto...
Vale, pero a cuantos FPS mueve eso el Crysis? [sonrisa]
Seguimos con los consumos eléctricos disparados. Así cualquiera.
Parámetros a tutti [looco] [+risas]

@boquetipo

Peor que el reguetrap autotune y mierdas de esas .. ZzzZZ [boma]
Optimización eléctrica....CERO.

Asi cualquiera puede envenenar sus chips para ser mas poderosos, sin nada de optimización, nvidia lo único que hace es darle esteroides a sus chips en aras de que nadie los "supere"

En fin, mientras siga el boom y gente siga creyendo en la "utopia" de las IA, nvidia tendrá dinero.
Efraim27 escribió:Vale, pero a cuantos FPS mueve eso el Crysis? [sonrisa]

Seguramente menos que una 4090, ya que tendrá sobretodo Nucleos Tensor ...
@shimazaki Nunca he entendido a la gente que se queja del consumo (no lo personalices).
Entiendo que te quejas del consumo cuando mencionas la optimización eléctrica pero me parece que la cosa no ha cambiado, si quieres potencia necesitas consumo.
Si hay algo que se le da bien a NVIDIA es el marketing, sabe vender muy bien números que tienen * y nombres muy comerciales para el usuario comun o inversor.

Con solo ver el tamaño del Chips que le ocupa toda la palma de la mano a Jensen vs el H100 ya te das cuenta que simplemente han aumentado unidades de cómputo y han agregado soporte para instrucciónes de 4 bits (FP4), para vender un mega salto y una revolución de arquitecturas, cuando hacer eso es lo más fácil y básico , los saltos de arquitecturas se marcan en IPC no en meter mas a lo bruto, me recuerda al meme de AMD de more cores.

Que es un salto de rendimiento vs lo anterior pues si , pero costa de un chip mas grande y seria ver el consumo.
La verdad es que estas cosas me mosquean bastante... porque mejor no crean un componente exclusivo para esas tareas?... lo unico que hacen es crear un mercado especulativo donde los que usan la GPU solo para jugar se ven perjudicados... ya nos pasó con los mineros de criptomonedas, ahora vienen entusiastas de la IA, y con ello nuevamente el enfoque a tareas exclusivas se olvida o pasan a un plano secundario y los precios se mantienen arriba solo para quienes quieren jugar
alemusg escribió:La verdad es que estas cosas me mosquean bastante... porque mejor no crean un componente exclusivo para esas tareas?... lo unico que hacen es crear un mercado especulativo donde los que usan la GPU solo para jugar se ven perjudicados... ya nos pasó con los mineros de criptomonedas, ahora vienen entusiastas de la IA, y con ello nuevamente el enfoque a tareas exclusivas se olvida o pasan a un plano secundario y los precios se mantienen arriba solo para quienes quieren jugar


Ya esta pasando, en china, compran tarjetas RTX para hacer tareas de IA!, desde el año pasado, y con el veto que ahora tienen, compran aun mas tarjetas en el mercado negro y les modifican el sistema de enfriamiento. para darles mas trabajo de depp learning e IA!
ÑeK escribió:Seguimos con los consumos eléctricos disparados. Así cualquiera.

Las alternativas qué potencia y consumo tienen? Por ver hasta qué punto es disparatado el consumo.

Porque entiendo que no lo estás comparando con gráficas para videojuegos, ya que a nivel relación potencia/consumo siempre se mejora con cada generación. Ahora, si apuntamos a la mas potente, sí, claro que consume mucho, pero también tiene mucha potencia. De hecho por ejemplo la 4090 tiene mas eficiencia que su gama media 4060: https://www.techpowerup.com/review/giga ... oc/40.html

Aunque bueno, esos números son los por defecto, si quieres puedes hacerlo más optimo con undervolt.

shimazaki escribió:Optimización eléctrica....CERO.

La noticia indica "El B200 no solo supera el rendimiento del actual H100 [...] sino que además lo hace con 'un coste y consumo de energía hasta 25 veces menor'".

Si eso no te parece eso algo de optimización, a qué te refieres?
23 respuestas