AMD apunta al mercado profesional de Nvidia con su Instinct MI100, la primera GPU con 10 TF FP64 ...

La compra de Xilinx por parte de AMD es solo una muestra más del interés de Lisa Su por competir a todos los niveles con Intel y Nvidia. Si la adquisición del mayor fabricante de unidades FPGA le abría nuevos horizontes en industrias en las que hasta ahora ni siquiera estaba presente, hoy la compañía ha anunciado el lanzamiento de la primera GPU para centros de datos con más de 10 TF FP64 (formato en coma flotante de doble precisión).

La AMD Instinct MI100 supone un enorme salto con respecto a tarjetas anteriores. Si bien AMD ya comercializaba productos orientados al procesamiento de IA y grandes cantidades de datos bajo la gama Instinct, sus datos palidecían frente a las propuestas de Nvidia, lo que redundó en unas tasas de adopción bastante limitadas.

Imagen

Imagen

Este nuevo modelo, no obstante, superaría según los datos oficiales incluso a la aceleradora Tesla A100, basada en Ampere. En total hablamos de 11,5 TFLOPS con un TBP de 300 W, cuando Nvidia saca 9,7 TFLOPS a 400 W. Es una diferencia enorme a nivel profesional, pero sobre todo considerando la trayectora que había tenido AMD hasta ahora en este mercado.

La ficha técnica de esta GPU es bastante interesante, y deja claro que no se trata de una Radeon RX 6000 vitaminada y sin salida de vídeo. De hecho, su arquitectura de 7 nm CDNA (Compute DNA) es la última etapa evolutiva de GCN, por lo que se emparenta con Vega, pero beneficiándose de las últimas optimizaciones en los procesos de producción de AMD (como un nodo a 7 nm), así como de diversos elementos y funciones que simplemente no tendrían mucho sentido en una GPU de consumo.


A nivel de especificaciones, cada tarjeta Instinct MI100 posee 120 unidades de computación (CU), pero no hay aceleradores de rayos, puesto que como decíamos CDNA deriva de GCN y además su misión principal no es renderizar en 3D. Asimismo, la memoria no es GDDR6, sino HBM2; muy veloz (el ancho de banda total es de hasta 1,23 TB/s), pero también notablemente cara.

Las tarjetas Instinct MI100 se utilizarán en sistemas de computación de alto rendimiento relacionados con tareas de inteligencia artificial, diseño de fármacos, visión computerizada para conducción autónoma y otras labores bastante alejadas de los videojuegos, al menos a nivel de usuario. Queda por ver su impacto en un mercado donde Nvidia juega muy fuerte (la calidad del soporte de software de AMD podría ser determinante), pero este golpe de mano deja claro que AMD ha puesto sus miras más allá de los ordenadores personales.

Fuente: AMD
Me parece bien que AMD apriete a NVIDIA en todos los campos. La competencia siempre nos beneficia a todos seamos más partidarios de NVIDIA o AMD!
A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.

+1
Nvidia e Intel se lo tenian muy creido, pero ahora que AMD ha vuelto les va a petar el culo a ambos.
Espero que AMD les apriete las pilas a nvidia e intel a pesar que una vez lo consigan hagan lo mismo que ellos.

Saludos eolianos.
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.


Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación (alucino con los mega-fans)
Quark escribió:
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.


Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación


No tiene que hacer directamente ninguna explicacion o comparativa tecnica.

AMD no tiene CUDA.

Sin CUDA, todo el software desarrollado para usar CUDA no funciona. Asi que como AMD no tiene CUDA, ningun software pensado para CUDA va a funcionar con AMD por muchos TF que tenga su grafica.

Yo uso CUDA, programo para CUDA con esa maravilla de NVCC y no veo ningun motivo para hacer mis aplicaciones para CUDA y reprogramarlas para otra tecnologia.

Se van a comer un mojonazo (Esto es opinion personal ya).
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.


OpenCL, aunque creo que tienen el soporte bastante abandonado.

eQ9 escribió:¿La potencia de una Series X a precio de Series X, o más cara?

Por favor que nadie me conteste que esta tarjeta no está orientada al mercado gaming.


Te autocontestas en tu mensaje. El sector profesional para procesamiento de datos tiene necesidades muy distintas al de Gaming, con hardware muy especializado para satisfacerlas.

Nvidia vende equipos "DGX A100" con 8 NVIDIA A100, CPU AMD de 64 núcleos, 1 TB de RAM y 15 TB de SSD por 200,000$. No se venderían GPUs o equipos profesionales con esos precios si pudieses poner GPUs domésticas más baratas en un SLI y conseguir resultados similares.
La competencia siempre es buena.... soy totalmente profano en el tema, pero si hasta ahora todo el pastel de este mercado profesional lo tenía Nvidia, mal no vendrá que AMD les plante cara también ahí.

Ahora una duda, que no se si es conceptual o filosófica.... Una gráfica sin salida de vídeo ¿sigue siendo una gráfica?. Es decir, entiendo que las GPU de hoy en día tienen muchísimas funciones más allá de generar gráficos (criptomonedas, Inteligencia Artificial, programas de edición, etc) por que su arquitectura hace que sean tanto o más productivas a tal fin de lo que puede ser cualquier CPU al uso..... pero no deja de hacérseme de lo más extraño ver una gráfica sin salida de vídeo. Supongo que sí que sigue siéndolo, ya que a fin de cuentas sigue siendo una "unidad de procesamiento gráfico", por mucho que el uso que se le de (y para el que específicamente se han diseñado en el caso de estos modelos) sea completamente distinto.

Salu2!
Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)

CrowX escribió:La competencia siempre es buena.... soy totalmente profano en el tema, pero si hasta ahora todo el pastel de este mercado profesional lo tenía Nvidia, mal no vendrá que AMD les plante cara también ahí.

Ahora una duda, que no se si es conceptual o filosófica.... Una gráfica sin salida de vídeo ¿sigue siendo una gráfica?. Es decir, entiendo que las GPU de hoy en día tienen muchísimas funciones más allá de generar gráficos (criptomonedas, Inteligencia Artificial, programas de edición, etc) por que su arquitectura hace que sean tanto o más productivas a tal fin de lo que puede ser cualquier CPU al uso..... pero no deja de hacérseme de lo más extraño ver una gráfica sin salida de vídeo. Supongo que sí que sigue siéndolo, ya que a fin de cuentas sigue siendo una "unidad de procesamiento gráfico", por mucho que el uso que se le de (y para el que específicamente se han diseñado en el caso de estos modelos) sea completamente distinto.

Salu2!


No son tarjetas gráficas ni se usan para "mostrar gráficos", son para procesamiento de datos/aceleración de data centers/ia
Odioregistrarme escribió:
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.


OpenCL, aunque creo que tienen el soporte bastante abandonado.

eQ9 escribió:¿La potencia de una Series X a precio de Series X, o más cara?

Por favor que nadie me conteste que esta tarjeta no está orientada al mercado gaming.


Te autocontestas en tu mensaje. El sector profesional para procesamiento de datos tiene necesidades muy distintas al de Gaming, con hardware muy especializado para satisfacerlas.

Nvidia vende equipos "DGX A100" con 8 NVIDIA A100, CPU AMD de 64 núcleos, 1 TB de RAM y 15 TB de SSD por 200,000$. No se venderían GPUs o equipos profesionales con esos precios si pudieses poner GPUs domésticas más baratas en un SLI y conseguir resultados similares.


No es que se autoconteste, es que quizo ser sarcástico e irónico pero sabe que el horno no esta pa'bollos, por eso ha dejado eso en negrita.

Malamente lo has citado, muy mal shur.
eQ9 escribió:¿La potencia de una Series X a precio de Series X, o más cara?

Por favor que nadie me conteste que esta tarjeta no está orientada al mercado gaming.


Solo que ni de coña es la potencia de la series X si no más del doble
Cuda facilita mucho, open cl pues no..
NVIDIA A100 80GB anunciada: ¿el liderazgo de AMD en GPU para IA ha durado minutos?

https://www.profesionalreview.com/2020/ ... a100-80gb/


La competencia siempre es sana, un ejemplo claro es lo que pasa en el futbol cuando un gran futbolista se acomoda porque no tiene rival en su puesto. A poco que lo presiones un poco, mentiene su ritmo y su forma.
Siempre es sana la competencia, sobre todo para el consumidor, y, en general, para el desarrollo de la tecnología, y de otros muchos campos.
[beer]
Quark escribió:Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)


No me he explicado bien, NVIDIA soporta CUDA y OpenCL (Aunque sus drivers OpenCL son mierda). AMD solo OpenCL.

CUDA es mejor que OpenCL para nuestras GPGPU (A100). Por eso en nuestros sistemas usamos CUDA en vez de OpenCL.

No es una cuestion de gustos, es una cuestion de sacar el maximo rendimiento a un superordenador de 4 millones de euros. Eso lo hacemos con CUDA, si pudiesemos hacerlo con OpenCL y con tarjetas mas potentes, mas baratas y con menor consumo energetico lo hariamos. No es el caso hoy en dia.

Asi que, o AMD mejora OpenCL o si, se van a comer un mojonazo porque a dia de hoy, CUDA se lo merienda.

No es cuestion de sacar una cosa mas gorda, es que lo que te permita explotar esa cosa gorda este a la altura, y OpenCL no lo esta.
@leapfrog Nada más que añadir.

Quark escribió:
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.


Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación (alucino con los mega-fans)



Quark escribió:Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)


Mientras que yo he sido respetuoso en todo momento y no he pretendido sentar cátedra, tú me faltas el respeto y encima parece que no tienes ni idea de lo que hablas. Aquí no se está contando píxeles ni teraflops. Yo tuve GPUs de AMD durante toda la vida hasta que no fueron capaces de darme lo que necesitaba, que poco tiene que ver con los videojuegos. Si tengo que calcular el campo magnético creado por un mapa de corrientes en 800 millones de puntos y AMD no puede darme una alternativa rápida y bien documentada como si lo hace NVIDIA con CUDA, pues lo siento mucho pero tendré que pasar a NVIDIA. Mi primer código en CUDA lo programé en un par de días. Para hacer lo mismo con OpenCL tardé una semana y el rendimiento era penoso. Porque te hagas una idea, el mismo cálculo con CUDA me tarda un día, con OpenCL tres días y con CPU 17 días. Y precisamente esto le quita un montón de ventas a AMD. Yo hace cuatro años que no les compro una gráfica, en mi trabajo todos los ordenadores vienen con NVIDIA para poder usar mis códigos y otros programas usados en ciencia programados en CUDA, y muchos compañeros de otros grupos de investigación (por ejemplo en la simulación de plasmas, o en la reconstrucción de tomografías 3D en microscopía electrónica) solo usan tarjetas NVIDIA precisamente por el mismo motivo.

Cuando hablo de CUDA no me refiero a los CUDA cores, me refiero al lenguaje CUDA. Vamos, que manda narices que sin tener idea del tema te metas a llamar mega fans a otros. Si no sabes de lo que hablas mejor quedarse calladito, o por lo menos ser humilde.
A las empresas pequeñas les conviene más CUDA por la documentación y ser una API asentada. A los que montan superordenadores de varios millones de $/€ se la pela CUDA y OpenCL porque desarrollan sus propias soluciones.

Por eso por mucho que cueste creerlo hay superordenadores que montan aceleradoras AMD. En la nota de prensa mencionan bastantes proyectos entre ellos Azure de Microsoft que no es precisamente pequeño:

https://ir.amd.com/news-events/press-re ... inct-mi100
Yo no me entero de nada. Pero esto parece bueno si eres inversor de AMD
¿se les puede seguir llamando GPU si no tienen salidas de video?
Para los profanos, una explicación de andar por casa.

Los procesadores de las tarjetas gráficas (GPU) lo que hacen para mostrar gráficos son realizar muchísimas multiplicaciones de matrices (que representan los píxeles que luego veis en pantalla) para calcular cómo debería verse el pelazo de Keanu Reeves en el Cyberpunk. Esto lo hacen muchísimo mas rápido que lo que un procesador (CPU) pueda hacer jamás, porque las GPU están especializadas en una cosa (gráficos) y las CPU tiene que ser capaces de hacer cosas de todo tipo.

Sin embargo, los científicos se dieron cuenta de que muchos problemas matemáticos se pueden traducir "un montón de multiplicaciones de matrices" y ejecutarlas en GPUs en lugar de CPUs, aprovechando una parte del ordenador que va muchísimo mas rápido para este tipo de cálculos específicos.

Nvidia se dió cuenta de que los científicos estaban haciendo eso y creó un lenguaje de programación propio (CUDA) que les facilitase la tarea a esta buena gente y además decidió crear tarjetas gráficas diseñadas exclusivamente para hacer cálculos chungos con matrices quitando cosas que no les sirven a los matemáticos, como por ejemplo las salidas de vídeo y dándole mas potencia, a un precio mucho mayor (ya que estas cosas las pagan universidades y empresas para realizar cálculos muy complejos).

AMD lleva varios años intentando entrar en este mercado, pero la delantera de Nvidia en este campo es brutal, aunque según la noticia, parece que se están metiendo caña a ver si pillan a los de Nvidia, lo cual mola, porque puede que abarate los costes y veamos mas desarrollos de cosas chulas.

Para el que piense "me compro una de estas y lo peto con el proximo Call of Duty a 500FPS", decirle que los videojuegos en una de estas tarjetas directamente no funcionan. Los equipos que he visto montando este tipo de gráficas lo mas bonito que son capaces de mostrar en pantalla son las letras blancas sobre fondo negro de una ventana de comandos.

Eso si, para realizar tareas de entrenamiento de inteligencia artificial (que al final no son mas que sumas y multiplicaciones de varios BILLONES de matrices) son la re-hostia.



TL;DR: Esto no sirve para jugar, pero está guay que haya competencia en las gráficas también el mercado de los centros de cómputo porque los científicos hacen cosas muy chulas con ellas.
Latiosu escribió:Para los profanos, una explicación de andar por casa.

Los procesadores de las tarjetas gráficas (GPU) lo que hacen para mostrar gráficos son realizar muchísimas multiplicaciones de matrices (que representan los píxeles que luego veis en pantalla) para calcular cómo debería verse el pelazo de Keanu Reeves en el Cyberpunk. Esto lo hacen muchísimo mas rápido que lo que un procesador (CPU) pueda hacer jamás, porque las GPU están especializadas en una cosa (gráficos) y las CPU tiene que ser capaces de hacer cosas de todo tipo.

Sin embargo, los científicos se dieron cuenta de que muchos problemas matemáticos se pueden traducir "un montón de multiplicaciones de matrices" y ejecutarlas en GPUs en lugar de CPUs, aprovechando una parte del ordenador que va muchísimo mas rápido para este tipo de cálculos específicos.

Nvidia se dió cuenta de que los científicos estaban haciendo eso y creó un lenguaje de programación propio (CUDA) que les facilitase la tarea a esta buena gente y además decidió crear tarjetas gráficas diseñadas exclusivamente para hacer cálculos chungos con matrices quitando cosas que no les sirven a los matemáticos, como por ejemplo las salidas de vídeo y dándole mas potencia, a un precio mucho mayor (ya que estas cosas las pagan universidades y empresas para realizar cálculos muy complejos).

AMD lleva varios años intentando entrar en este mercado, pero la delantera de Nvidia en este campo es brutal, aunque según la noticia, parece que se están metiendo caña a ver si pillan a los de Nvidia, lo cual mola, porque puede que abarate los costes y veamos mas desarrollos de cosas chulas.

Para el que piense "me compro una de estas y lo peto con el proximo Call of Duty a 500FPS", decirle que los videojuegos en una de estas tarjetas directamente no funcionan. Los equipos que he visto montando este tipo de gráficas lo mas bonito que son capaces de mostrar en pantalla son las letras blancas sobre fondo negro de una ventana de comandos.

Eso si, para realizar tareas de entrenamiento de inteligencia artificial (que al final no son mas que sumas y multiplicaciones de varios BILLONES de matrices) son la re-hostia.



TL;DR: Esto no sirve para jugar, pero está guay que haya competencia en las gráficas también el mercado de los centros de cómputo porque los científicos hacen cosas muy chulas con ellas.

Pero de hecho creo que esas "gráficas" servirían para minar criptos.
Latiosu escribió:Para los profanos, una explicación de andar por casa.

Los procesadores de las tarjetas gráficas (GPU) lo que hacen para mostrar gráficos son realizar muchísimas multiplicaciones de matrices (que representan los píxeles que luego veis en pantalla) para calcular cómo debería verse el pelazo de Keanu Reeves en el Cyberpunk. Esto lo hacen muchísimo mas rápido que lo que un procesador (CPU) pueda hacer jamás, porque las GPU están especializadas en una cosa (gráficos) y las CPU tiene que ser capaces de hacer cosas de todo tipo.

Sin embargo, los científicos se dieron cuenta de que muchos problemas matemáticos se pueden traducir "un montón de multiplicaciones de matrices" y ejecutarlas en GPUs en lugar de CPUs, aprovechando una parte del ordenador que va muchísimo mas rápido para este tipo de cálculos específicos.

Nvidia se dió cuenta de que los científicos estaban haciendo eso y creó un lenguaje de programación propio (CUDA) que les facilitase la tarea a esta buena gente y además decidió crear tarjetas gráficas diseñadas exclusivamente para hacer cálculos chungos con matrices quitando cosas que no les sirven a los matemáticos, como por ejemplo las salidas de vídeo y dándole mas potencia, a un precio mucho mayor (ya que estas cosas las pagan universidades y empresas para realizar cálculos muy complejos).

AMD lleva varios años intentando entrar en este mercado, pero la delantera de Nvidia en este campo es brutal, aunque según la noticia, parece que se están metiendo caña a ver si pillan a los de Nvidia, lo cual mola, porque puede que abarate los costes y veamos mas desarrollos de cosas chulas.

Para el que piense "me compro una de estas y lo peto con el proximo Call of Duty a 500FPS", decirle que los videojuegos en una de estas tarjetas directamente no funcionan. Los equipos que he visto montando este tipo de gráficas lo mas bonito que son capaces de mostrar en pantalla son las letras blancas sobre fondo negro de una ventana de comandos.

Eso si, para realizar tareas de entrenamiento de inteligencia artificial (que al final no son mas que sumas y multiplicaciones de varios BILLONES de matrices) son la re-hostia.



TL;DR: Esto no sirve para jugar, pero está guay que haya competencia en las gráficas también el mercado de los centros de cómputo porque los científicos hacen cosas muy chulas con ellas.


Gracias por la explicación, muy clara y sencilla de entender para los ignorantes como yo. Tiene mucho sentido.

Sin duda entonces que es una buena noticia, puesto que si llegase a abaratar costes, muchas más organizaciones podrían tener acceso a esta tecnología o a mejor tecnología al mismo coste, lo que empujaría el desarrollo de muchísimas más cosas que probablemente ahora no sean posibles por falta de capacidad o porque no sean rentables.
Orestes escribió:A las empresas pequeñas les conviene más CUDA por la documentación y ser una API asentada. A los que montan superordenadores de varios millones de $/€ se la pela CUDA y OpenCL porque desarrollan sus propias soluciones.

Por eso por mucho que cueste creerlo hay superordenadores que montan aceleradoras AMD. En la nota de prensa mencionan bastantes proyectos entre ellos Azure de Microsoft que no es precisamente pequeño:

https://ir.amd.com/news-events/press-re ... inct-mi100


El problema viene derivado de que usamos software desarrollado por terceros tambien, y este sistema viene mejorandose desde hace 10 años, por lo que arrastramos tambien mucho desarrollo de la epoca en la que OpenCL daba entre asco y pena y la unica opcion era CUDA.

Pero vamos, que en la lista TOP 500 dime alguno de esos monstruos que monten AMD (GPUs, no CPUs que de esos hay alguno)

https://www.top500.org/lists/top500/2020/06/

(Y luego haz el ejercicio de contar cuantas veces sale la palabra nvidia en esa lista)
nekuro escribió:
Latiosu escribió:...

Pero de hecho creo que esas "gráficas" servirían para minar criptos.

Depende de las criptos, algunas de ellas todavía se pueden minar con GPU, pero conforme ha ido avanzando la cosa ha llegado a tal punto que ni siquera con GPUs sale rentable minar algunas de ellas porque no serían capaces de recuperar el dinero del hardware en el que ejecutan.

Para ello existen los circuitos integrados de aplicación específica (ASIC) que son chips diseñados únicamente para una tarea, como por ejemplo minar bitcoins. Si las GPUs solo trabajan con operaciones de cálculo matricial, los ASIC que se usan para cripto solo pueden realizar una operación: "Mina bitcoins". Con lo cual son mas rápidos todavía para la única tarea que son capaces de hacer, pero completamente inútiles para todo lo demas.
vik_sgc escribió:@leapfrog Nada más que añadir.

Quark escribió:
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.


Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación (alucino con los mega-fans)



Quark escribió:Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)


Mientras que yo he sido respetuoso en todo momento y no he pretendido sentar cátedra, tú me faltas el respeto y encima parece que no tienes ni idea de lo que hablas. Aquí no se está contando píxeles ni teraflops. Yo tuve GPUs de AMD durante toda la vida hasta que no fueron capaces de darme lo que necesitaba, que poco tiene que ver con los videojuegos. Si tengo que calcular el campo magnético creado por un mapa de corrientes en 800 millones de puntos y AMD no puede darme una alternativa rápida y bien documentada como si lo hace NVIDIA con CUDA, pues lo siento mucho pero tendré que pasar a NVIDIA. Mi primer código en CUDA lo programé en un par de días. Para hacer lo mismo con OpenCL tardé una semana y el rendimiento era penoso. Porque te hagas una idea, el mismo cálculo con CUDA me tarda un día, con OpenCL tres días y con CPU 17 días. Y precisamente esto le quita un montón de ventas a AMD. Yo hace cuatro años que no les compro una gráfica, en mi trabajo todos los ordenadores vienen con NVIDIA para poder usar mis códigos y otros programas usados en ciencia programados en CUDA, y muchos compañeros de otros grupos de investigación (por ejemplo en la simulación de plasmas, o en la reconstrucción de tomografías 3D en microscopía electrónica) solo usan tarjetas NVIDIA precisamente por el mismo motivo.

Cuando hablo de CUDA no me refiero a los CUDA cores, me refiero al lenguaje CUDA. Vamos, que manda narices que sin tener idea del tema te metas a llamar mega fans a otros. Si no sabes de lo que hablas mejor quedarse calladito, o por lo menos ser humilde.


No controlo mucho este mundillo pero esta es mi humilde opinión.

Reflexionemos un poco. NVIDIA es el rey en este mercado porque fue de las primeras en dar una solución rentable ($€). Al no haber un liderazgo en ese sector, NVIDIA desarrollo un API a medida para el hardware que ya tenía. Mejorando las soluciones que ya existían, que no era difícil, y convirtiéndose de facto en un estándar del sector.

Con esto consiguió que todo el software desarrollado fuese bajo su API cerrada, atando a los consumidores a su Hardware. Esto dejo a la competencia en una situación difícil ya que, por ejemplo, en caso de querer deshacerse de NVIDA y querer pasar a AMD, no solo sería costoso el reemplazar el hardware, sino que tendrían que volver a programar todo el software desde cero ya que CUDA solo funciona en Hardware NVIDIA (esto es lo malo de programar con APIs no libres). Y todos sabemos que las empresas se crean para ganar dinero. .

Por eso en estos momentos NVIDIA no tiene rival y el resto de competidores están a años luz de pelear de tú a tú.

Uno pensaría ¿Por qué AMD no hace lo mismo? Ya es tarde, el germen de NVIDIA lo ha infectado todo e inventarte una API ahora desde cero y cerrarla como lo hizo NVIDIA en su momento sería muy costoso ($€) y poco rentable. Por eso hacen uso del estándar OpenCL, un API libre a disposición de todo el mundo, un estándar que no solo utiliza AMD, sino que muchas otras empresas lo usan en sus productos.

Son dos APIs totalmente distintas. Es cierto han sido diseñadas para el mismo fin, pero en su planteamiento inicial y su desarrollo son totalmente opuestas. CUDA se enfoca solamente en el Hadrware de NVIDIA y evolucionan conjuntamente. OpenCL en cambio, al ser un API libre, está enfocada a ser compatible con mucho hardware y no está controlado por una única empresa, es un consorcio de ellas la que mantiene el estándar.

De ahí que AMD+OpenCL no sea rival para NVIDIA+CUDA en estos momentos. NVIDIA controla su API ya ampliamente aceptada y su Hardware, haciendo y deshaciendo a su antojo, y pasando olímpicamente de otros estándares. En Cambio, AMD solamente controla su Hardware y tiene que adaptarlo a un API que no controla.

En esta situación comparar CUDA y OpenCL no sé si tiene mucho sentido.

(Perdon por la parrafada).
FoRTu escribió:No controlo mucho este mundillo pero esta es mi humilde opinión.

Reflexionemos un poco. NVIDIA es el rey en este mercado porque fue de las primeras en dar una solución rentable ($€). Al no haber un liderazgo en ese sector, NVIDIA desarrollo un API a medida para el hardware que ya tenía. Mejorando las soluciones que ya existían, que no era difícil, y convirtiéndose de facto en un estándar del sector.

Con esto consiguió que todo el software desarrollado fuese bajo su API cerrada, atando a los consumidores a su Hardware. Esto dejo a la competencia en una situación difícil ya que, por ejemplo, en caso de querer deshacerse de NVIDA y querer pasar a AMD, no solo sería costoso el reemplazar el hardware, sino que tendrían que volver a programar todo el software desde cero ya que CUDA solo funciona en Hardware NVIDIA (esto es lo malo de programar con APIs no libres). Y todos sabemos que las empresas se crean para ganar dinero. .

Por eso en estos momentos NVIDIA no tiene rival y el resto de competidores están a años luz de pelear de tú a tú.

Uno pensaría ¿Por qué AMD no hace lo mismo? Ya es tarde, el germen de NVIDIA lo ha infectado todo e inventarte una API ahora desde cero y cerrarla como lo hizo NVIDIA en su momento sería muy costoso ($€) y poco rentable. Por eso hacen uso del estándar OpenCL, un API libre a disposición de todo el mundo, un estándar que no solo utiliza AMD, sino que muchas otras empresas lo usan en sus productos.

Son dos APIs totalmente distintas. Es cierto han sido diseñadas para el mismo fin, pero en su planteamiento inicial y su desarrollo son totalmente opuestas. CUDA se enfoca solamente en el Hadrware de NVIDIA y evolucionan conjuntamente. OpenCL en cambio, al ser un API libre, está enfocada a ser compatible con mucho hardware y no está controlado por una única empresa, es un consorcio de ellas la que mantiene el estándar.

De ahí que AMD+OpenCL no sea rival para NVIDIA+CUDA en estos momentos. NVIDIA controla su API ya ampliamente aceptada y su Hardware, haciendo y deshaciendo a su antojo, y pasando olímpicamente de otros estándares. En Cambio, AMD solamente controla su Hardware y tiene que adaptarlo a un API que no controla.

En esta situación comparar CUDA y OpenCL no sé si tiene mucho sentido.

(Perdon por la parrafada).


Lo has clavado. Todo aderezado que durante años toda la lista top500 ha ido creciendo de la mano de nvidia y creando un estandar de facto.

Vamos, que te puedes fabricar coches con motores de caza y moverlo con queroseno. Pero todo esta diseñado alrededor de coches movidos con motores de pistones y gasolina o diesel. Y esas infraestructuras te llevan años de ventaja. (Otro ejemplo son los electricos, muy molones, pero sin un punto de carga para hacer viajes largos).

Lo que no quita que OpenCL muestre una mejora espectacular en poco tiempo y nos interese migrar (Cosa que costaria muchos muchos muchos millones de euros y tendria que estar hiper justificado).

El mercado donde se estan metiendo no es muy propenso a cambios rapidos y a romper compatibilidades pasadas xD
Pero cuanto mina esta tarjeta? Hashes/seg?
Porque por culpa de esa m****a estamos como estamos en el ámbito de las gráficas de PC
Latiosu escribió:
nekuro escribió:
Latiosu escribió:...

Pero de hecho creo que esas "gráficas" servirían para minar criptos.

Depende de las criptos, algunas de ellas todavía se pueden minar con GPU, pero conforme ha ido avanzando la cosa ha llegado a tal punto que ni siquera con GPUs sale rentable minar algunas de ellas porque no serían capaces de recuperar el dinero del hardware en el que ejecutan.

Para ello existen los circuitos integrados de aplicación específica (ASIC) que son chips diseñados únicamente para una tarea, como por ejemplo minar bitcoins. Si las GPUs solo trabajan con operaciones de cálculo matricial, los ASIC que se usan para cripto solo pueden realizar una operación: "Mina bitcoins". Con lo cual son mas rápidos todavía para la única tarea que son capaces de hacer, pero completamente inútiles para todo lo demas.

Si, a lo que merefería es que este tipo de "gráficas" no es tan diferente a las "normales" en el sentido que aunque se usan para hacer cálculos, no deja de ser algo que muchos usuarios han han hecho con gráficas normales en su dia para minar criptos.
leapfrog escribió:
Orestes escribió:A las empresas pequeñas les conviene más CUDA por la documentación y ser una API asentada. A los que montan superordenadores de varios millones de $/€ se la pela CUDA y OpenCL porque desarrollan sus propias soluciones.

Por eso por mucho que cueste creerlo hay superordenadores que montan aceleradoras AMD. En la nota de prensa mencionan bastantes proyectos entre ellos Azure de Microsoft que no es precisamente pequeño:

https://ir.amd.com/news-events/press-re ... inct-mi100


El problema viene derivado de que usamos software desarrollado por terceros tambien, y este sistema viene mejorandose desde hace 10 años, por lo que arrastramos tambien mucho desarrollo de la epoca en la que OpenCL daba entre asco y pena y la unica opcion era CUDA.

Pero vamos, que en la lista TOP 500 dime alguno de esos monstruos que monten AMD (GPUs, no CPUs que de esos hay alguno)

https://www.top500.org/lists/top500/2020/06/

(Y luego haz el ejercicio de contar cuantas veces sale la palabra nvidia en esa lista)


Interesante, me gusta esos IBM POWER9 dando guerra alli también, ojala esa arquitectura POWER se extienda mas en otras areas.
31 respuestas