Intel apunta al liderazgo de Nvidia en la IA: "toda la industria quiere eliminar a CUDA"

Pat Gelsinger, CEO de Intel, ha puesto a su compañía en rumbo de colisión con Nvidia. A decir verdad, lo cierto es que el fabricante de procesadores ya abandonó su relativa neutralidad hace tiempo con el lanzamiento de las tarjetas gráficas Arc (y no es que Nvidia no ambicione el mercado de las CPU de sobremesa), pero rara vez el máximo responsable de una gran compañía habla en términos tan contundentes, llegando a afirmar que toda la industria tiene ganas de perder a CUDA de vista. Así lo aseguró el ejecutivo durante la presentación de los chips Core Ultra.

"¿Sabes? La industria al completo está motivada para eliminar el mercado de CUDA [la plataforma de IA y API de Nvidia]", afirmó Gelsinger. "Pensamos que el foso de CUDA es poco profundo y pequeño [...] la industria está motivada para trabajar con una más amplia gama de tecnologías para entrenamiento, innovación, ciencia de datos etc. [...] Con la inferencia [de IA], hey, una vez que has entrenado el modelo... No hay dependencia de CUDA".

Con estas palabras, Gelsinger se refiere al papel que actualmente ocupa Nvidia como proveedor de hardware y herramientas para las empresas que trabajan con IA. Fundamentalmente, sus productos se utilizan durante la fase de entrenamiento, es decir, la entrada y el análisis de datos, pero conforme la inferencia (la capacidad de una IA para "comprender" los datos y derivar resultados de ese conocimiento) vaya ganando importancia, su relevancia irá decreciendo. Según Gelsinger, la industria está volcada con CUDA por estricta necesidad, y próximamente Intel podrá plantarle cara usando herramientas como OpenVINO, que no requiere hardware de Nvidia.

Gelsinger, que adelanta que Intel luchará "al 100 %" por el mercado de los centros de datos para IA, cree que la industria está migrando hacia un modelo "Pythonico" más abierto. Aún no está claro cómo piensa arrebatar a Nvidia una cuota de mercado que se aproxima al 80 %, pero el CEO de Intel confía en una estrategia que combina el uso de sus propias fundiciones, produciendo chips usando procesos internos exclusivos, con software basado en estándares abiertos.

Fuente: Tom's Hardware
[maszz]
Menudo tarado.
Hacen falta hechos no palabras al aire.
Yo pense que AMD e Intel lo harian mejor la verdad hace 10 años programar gpus con algo que no fuera CUDA era muy fastiado... y lo sigue siendo. Si es verdad que limita mucho el uso de computación heterogenea y le da mucho poder y valor al silicio de NVIDIA. Pero formar a la peña es mucho mas caro y puede que incluso no tengas resultados.

Hablando lo que presento Intel ayer, 4 tiles para casi no superar en nada un tile de AMD queda feo...
Del dicho al echo hay un trecho.
pabloc escribió:[maszz]
Menudo tarado.
Hacen falta hechos no palabras al aire.


Acta non verba.
Esta gente lo único que quiere es controlar el estándar porque ya hay alternativas que ellos mismos apoyaron en su día como oneAPI.
Livskraft escribió:
pabloc escribió:[maszz]
Menudo tarado.
Hacen falta hechos no palabras al aire.


Acta non verba.

Esse quam videri.
La insdustria está harta de CUDA, pero casi nadie de la industria soporta OpenCL, todos soportan CUDA, mi no entender.
Les falta comer mucho colacao, ojalá desbancasen a nvidia, ojalá.
Lo unico medio estandar medio abierto medio funciona bien es Vulkan, pero al final te da igual porque el hardware bueno de verdad esta en nvidia y nvidia no abre la mano.

Los de Linux sabemos bien de que pasta estan hechos los nvidieros. [+furioso]
Es bueno tener competencia, aunque sea verbal.
A ver si con el tiempo y una caña acaban demostrando que de verdad son capaces de ello.
Creía que regalaban una bandeja de polvorones o algo así. [carcajad] [carcajad]
Esas declaraciones suenan a "Si lo digo en alto y en publico, igual me atuconvezco a mi y a los demas" xD

Parece que Intel y/o Pat se ha fumado un porrazo importante.
OOQQ escribió:Lo unico medio estandar medio abierto medio funciona bien es Vulkan, pero al final te da igual porque el hardware bueno de verdad esta en nvidia y nvidia no abre la mano.


Gracioso que digas eso por internet, el cual está construido mayormente de estándares abiertos, tanto de HW como de SW.
Livskraft escribió:
pabloc escribió:[maszz]
Menudo tarado.
Hacen falta hechos no palabras al aire.


Acta non verba.


neofonta escribió:
Livskraft escribió:
pabloc escribió:[maszz]
Menudo tarado.
Hacen falta hechos no palabras al aire.


Acta non verba.

Esse quam videri.


Yo también quiero yo también quiero:

Nescio quid ponere

[looco] [looco]
Nvidia lleva con CUDA mas de quince años. La manera en cómo ha explotado el machine learning, ha sido bien burra y sus STONKS van a dispararse por un tiempo bien largo. En cambio casas como AMD... estan en bragas en ese aspecto, van a tardar mucho en llegar a su nivel en ML si lo llegan a hacer algún dia.

Estaría bien que hubiesen unas librerias que dependiesen menos de una sola compañia pero... aquí nvidia ha sido el cerdito del cuento que se ha hecho la casa con buenos ladrillos mientras las demás estaban a otras cosas.
El problema de CUDA no es que otras alternativas sean peores o mejores, es la lluvia de dinero que puso hace 15 años. Lo digo y repito, yo he visto conferencias de ciencia completamente patrocinadas por Nvidia donde todos los programas tenían CUDA porque estaban pagados para ello. Esto ha hecho que la mayoría de programas científicos a dia de hoy tengan ya un soporte para CUDA que solo tienen que mantener. Por lo tanto los grandes centros de calculo piden gráficas Nvidia y, a la vez, los programas se mantienen y gira la rueda.
Vamos, practicas monopolistas de nivel básico.
davoker escribió:
Livskraft escribió:
pabloc escribió:[maszz]
Menudo tarado.
Hacen falta hechos no palabras al aire.


Acta non verba.


neofonta escribió:
Livskraft escribió:
Acta non verba.

Esse quam videri.


Yo también quiero yo también quiero:

Nescio quid ponere

[looco] [looco]




Siento no haber encontrado la escena en español, pero ya os hacéis a la idea [tomaaa].
lovechii5 escribió:El problema de CUDA no es que otras alternativas sean peores o mejores, es la lluvia de dinero que puso hace 15 años. Lo digo y repito, yo he visto conferencias de ciencia completamente patrocinadas por Nvidia donde todos los programas tenían CUDA porque estaban pagados para ello. Esto ha hecho que la mayoría de programas científicos a dia de hoy tengan ya un soporte para CUDA que solo tienen que mantener. Por lo tanto los grandes centros de calculo piden gráficas Nvidia y, a la vez, los programas se mantienen y gira la rueda.
Vamos, practicas monopolistas de nivel básico.

Yo todavía recuerdo el baño de sangre que supuso para los usuarios de GPUs AMD en Blender cuando se implementó Cycles y lo que duró y sigue durando esa guerra. AMD intentó hacer lo propio con OpenCL pero falló miserablemente y ahora las gráficas AMD usan HIP para activar la aceleración por GPU en Cycles que sigue siendo peor y más lenta que CUDA u OptiX.

Así que cuando piden recomendación de gráfica para Blender el 100% recae en Nvidia y AMD es completamente residual hasta el punto de que una RX 7900 XTX es equivalente a una RTX 4060 Ti.
Se debería hacer esfuerzo por crear una API abierta y buena como se ha hecho con Vulkan.
Vaya, vaya...Así que el Gelsinger [Z] tiene un poco de Nvidia hacia la competencia, ¿eh?. La lleva clara para desbancar a Nvidia sistema CUDA. XD XD
A buenas horas quieren arreglar el monopolio de cuda.
nvidia se merece que le vaya mal, pero el resto está a mínimo una decada por detrás en este ámbito
El viejales de Intel chochea pero bueno. Es divertido escuchar sus paridas así que por mí que siga (y eso que yo no soy muy fan de Nvidia precisamente).

Un saludo,

BY DERHYUS.[chulito]
Intel no tiene músculo para competir con Nvidia, a día de hoy.
Al menos tenemos a Nvidia.

Si por Intel y AMD fuese, estabamos aun en la epoca de la IA de los años 90.
Ramanujan está baneado por "Troll"
lovechii5 escribió:El problema de CUDA no es que otras alternativas sean peores o mejores, es la lluvia de dinero que puso hace 15 años. Lo digo y repito, yo he visto conferencias de ciencia completamente patrocinadas por Nvidia donde todos los programas tenían CUDA porque estaban pagados para ello. Esto ha hecho que la mayoría de programas científicos a dia de hoy tengan ya un soporte para CUDA que solo tienen que mantener. Por lo tanto los grandes centros de calculo piden gráficas Nvidia y, a la vez, los programas se mantienen y gira la rueda.
Vamos, practicas monopolistas de nivel básico.



En ese caso se llama inversión. Y no parece que las otras compañías, iNtel y AMD, hayan sacado una tecnología similar.


John_Carpenter escribió:Intel no tiene músculo para competir con Nvidia, a día de hoy.


Yo creo que sí. Intel tiene unas buenas tarjetas gráficas integradas, pero el precio es mayor que el de AMD y eso le dificulta poder competir.
27 respuestas