Nvidia presenta la GH200 Grace Hopper, la primera GPU con memoria HBM3e para impulsar la intelige...

Nvidia se ha presentado en el SIGGRAPH que esta semana se celebra en Los Ángeles con un carro de novedades donde destaca la nueva versión del superchip GH200, el primero del mundo con memoria HBM3e. Esta plataforma está diseñada para procesar cargas de trabajo de inteligencia artificial (IA) generativa y computación acelerada, dos elementos que durante los últimos meses han transformado a Nvidia en una compañía valorada en un billón de dólares.

La GH200 presentada hoy es una variante de la GH200 que Nvidia anunció en el Computex de Taiwán el pasado marzo. Su principal novedad es el uso de la memoria HBM3e. Esta plataforma equipa un procesador con 72 núcleos Arm Neoverse y un chip gráfico con hasta 141 GB de memoria HBM3e. Nvidia asegura que en una configuración dual con 282 GB, la GH200 ofrece hasta 3,5 veces más de capacidad de memoria y 3 veces más de ancho de banda que la generación actual. El GH200 más reciente cuenta con 96 GB de memoria HBM3 que proporciona un ancho de banda que ronda los 4 TB/s.

Según Nvidia, la plataforma GH200 Grace Hopper con memoria HMB3 está actualmente en producción y estará disponible a partir del próximo mes. Por su parte, la plataforma GH200 Grace Hopper con memoria HMB3e que hoy nos ocupa, se podrá adquirir a partir del segundo trimestre de 2024. La nueva GH200 utiliza el mismo silicio que la GH100 original, así que en este sentido no habrá cambios en el número de revisión o stepping. Por otro lado, Nvidia afirma que la GH200 original con HMB3 y la GH200 mejorada con HMB3e coexistirán. Esto significa que la segunda tendrá un precio superior.

Actualmente Nvidia es prácticamente la única compañía capaz de ofrecer GPUs dedicadas a la IA generativa. Estas plataformas que alimentan modelos complejos de IA requieren de GPUs muy potentes y Nvidia es la compañía mejor posicionada para ofrecer este tipo de hardware. Todos los grandes proveedores de servicios en la nube como Amazon Web Services, Microsoft Azure y Google Cloud utilizan las GPU H100 Tensor Core. La GH200 tiene como objetivo ocupar el puesto de la H100 para impulsar (aún más) la IA.

Todas las grandes tecnológicas trabajan con Nvidia, pero las hay que además buscan alternativas. Por ejemplo, Microsoft estaría colaborando con AMD en el diseño de chips para inteligencia artificial. Tener una segunda opción también es una forma de ahorrar costes, pues esta clase de GPUs no son para nada económicas. Una H100 supera los 30.000 dólares y están tan cotizadas que incluso se usan como garantía. CoreWeave, un proveedor de servicios en la nube, consiguió recientemente una línea de crédito de 2.300 millones de dólares que avaló con chips H100.

Fuente: Nvidia
Veamos si lanzando estas tarjetas específicas para IA se consigue que disminuya el precio de las enfocadas al gaming :-|
neofonta escribió:Veamos si lanzando estas tarjetas específicas para IA se consigue que disminuya el precio de las enfocadas al gaming :-|

Es un sarcasmo, verdad?
Veamos si está tarjetas preparadas para la IA reemplazan a los programadores actuales XD.
chatgpt necesita como 1 millon de esas para funcionar mejor...
Me recuerda al cóctel que toma Raj, un grasshopper.
Nvidia está nadando en dinero. Se van los mineros pero viene la IA.

Vamos a tener que acostumbrarnos a pillar gráficas de gamas antiguas en ofertas de remate, segunda mano, etc. Es lo que hay.
neofonta escribió:Veamos si lanzando estas tarjetas específicas para IA se consigue que disminuya el precio de las enfocadas al gaming :-|


Precisamente lo contrario.
Me recuerda a la Super Nintendo (versión americana).
chachin2007 escribió:Me recuerda a la Super Nintendo (versión americana).


El cerebro de la bestia
Pero lleva chip gordo?

Y mueve el Crysis?
Llevamos miles de años con inteligencia artificiosa y ahora les da por la artificial. Qué lata.
No me la compro hasta que baje a 200 euros
Tarjetas profesionales que no llegan hasta el segundo trimestre de 2024. Estando Nvidia saturada en el sector profesional por lo que ni está ni se le espera en el sector gaming.

La catástrofe de precios desde la serie GTX1000 a la RTX4000 no tiene precedentes, pero ya es un hecho que se ha convertido en norma.
Y AMD que tenia la oportunidad de revertir la situación a su favor, va y se suma al carro de precios.

Es increible ver lo que cuesta una RTX4080 (cuando no deja de ser una 4060ti o 4070 real renombrada a 4080), y que sea eso lo único contra lo que puede competir AMD con su tope de gama (7900XT) es muy triste.
7900XT que se llama 7900XT por puro marketing, para hacer creer que te llevas más (mas gama, o lo que sea que cuele en el comprador incauto) a precio algo inferior a las 4080 en mismo rango de rendimiento y con menos tecnologias. Porque realmente deberia haberse llamado 7700XT y tener un precio acorde.

Nvidia se merece un hostión que desgraciadamente no le va a llegar, y AMD tiene el que se merece (caida bestial de cuota de mercado ya por debajo del 10% total). Y por culpa de unos y otros a pagar el usuario.
neofonta escribió:Veamos si lanzando estas tarjetas específicas para IA se consigue que disminuya el precio de las enfocadas al gaming :-|

Pues deberían, el otro día ejecutando una inferencia de Wisper, solo me usaba el 1% de los nucleos de la GPU, pero me usaba el 85% de la VRAM.

Ahora mismo como no hay otra cosa, estan pagando una burrada por unas GPUs que tienen mas de lo que necesitan para IA, pero como alguien saque algo mas barato, y que para IA rinde igual, se van al garete.

Ya hay empresas tochas trabajando en ello:
https://www.reuters.com/technology/meta-announces-ai-training-inference-chip-project-2023-05-18/
Convendría lo que dice la noticia, que hubiera competencia, o los precios van a ser los que a NVIDIA le salga del alma.
Skynet cada día más cerca [qmparto] [qmparto] [qmparto] [qmparto]
Después de leer esta noticia, ... solo espero que dentro de poco, o anuncien una tarjeta denominada Skynet o que directamente se llamen Skynet nVidia ...
Ya los mineros que usaban las GPUs para esto se jodieron, y eso que ya de por si eran pocos, ya que tengo entendido que la IA consume mucha VRAM no?
18 respuestas