¿Alguien me puede aclarar porque las tarjetas AMD no son buenas para IA?

Buenas, tengo pensado en renovar el PC dentro de poco pero siempre leo que las GPU de AMD para IA como procesamiento de imagenes en local no son aconsejables porque son un dolor de muelas para configurar, me gustaria saber si esto es cierto y pasa en todos los ambitos de la IA.
Leviatan22 escribió:Buenas, tengo pensado en renovar el PC dentro de poco pero siempre leo que las GPU de AMD para IA como procesamiento de imagenes en local no son aconsejables porque son un dolor de muelas para configurar, me gustaria saber si esto es cierto y pasa en todos los ambitos de la IA.

No trabajo con IA así que a ciencia cierta no lo sé, pero sospecho que como muchos otros software, estarán pensados y optimizados para usar los núcleos CUDA privativos de Nvidia y dejando de lado la tecnología equivalente de AMD y de las GPU de Intel.
Me imagino que por ahí van los tiros.
La cuestión es que CUDA y en particular CUDNN para modelos de aprendizaje profundo se han vuelto el estandar de facto en este área. De esta forma, incluso si se van dando pequeños pasitos a nivel de hardware y de software (pienso en ROCm) los modelos que pueden entrenarse en hardware ya no digo AMD, sino “no-nVidia” son contados y habitualmente con rendimiento bastante más bajo que en tarjetas nVidia de similar precio.

Tensorflow, pytorch, etc por debajo usan eso y siguen la misma línea. Reitero que pequeños pasitos se van dando, de vez en cuando verás una noticia del estilo “X modelo de DL rinde genial en gráficas AMD”, pero si pretendes dedicar recursos a esto es muy recomendable no ponerte palos en la rueda ya de entrada. Quizás en unos años cambie la cosa.

…y antes que comprar una GPU de ninguna marca, piensa que tanto Google con colab como Kaggle ofrecen instancias con GPUs gratuitas con las que se pueden hacer bastantes cosas.

El procesamiento de imágenes “clásico”, con OpenCV y compañía, está siendo devorado por modelos de DL que no necesitan apenas conocimientos previos ni extraer descriptores. Pero vaya para eso no hace falta ninguna GPU de ninguna marca. Y para inferencia tampoco, usar los modelos es rápido incluso en CPU. Lo “caro” es entrenarlos.

Saludos
No tienen núcleos CUDA.
@Leviatan22 Ni para IA ni para un monton de cosas más por exactamente lo que han dicho, los cuda. No es un tema de hardware, es un tema de software propietario de Nvidia.
Los nucleos CUDA cada vez se usan menos, y cada vez mas los Tensor, aunque se usan APIs CUDA.

Pero PyTorch y otros cada vez soportan mas APIs, se estan viendo venir que dentro poco saldra algo mejor que las GPUs para la IA.
654321 escribió:Los nucleos CUDA cada vez se usan menos, y cada vez mas los Tensor, aunque se usan APIs CUDA.

Es que no es un problema de hardware...........es un problema de software propietario.
Nomada_Firefox escribió:Es que no es un problema de hardware...........es un problema de software propietario.

A lo que iba es que con la llegada de nuevas tecnologias, podrían llegar tambien algun API nuevo que supusiese muchas ventajas para la IA, y le comiesen la tostada a NVIDIA con su API ...

O tarjetas mas baratas pq tienen solo nucleos Tensor, y que los desarrolladores de IA se volcasen en eso y cambiasen de API ...

De momento PyTorch ya se ha abierto, y promueven OpenAI Triton en vez de atacar CUDA o HIP directamente:
https://pytorch.org/blog/experience-power-pytorch-2.0/
https://openai.com/research/triton

Si a nosotros no nos gusta depender de NVIDIA, imaginaos a las Big Tech [qmparto]
No se....esta claro viendo el pasado que siempre se hicieron alternativas pero tambien pienso que Nvidia invierte más que otros en software, vamos en desarrollo.....lo que si yo creo, es que todo esto de la IA va a hacer pum en algun momento del futuro. Es una burbuja más, basada en ignorancia, espulación abundante y falta de regulación.
Gnoblis escribió:
Leviatan22 escribió:Buenas, tengo pensado en renovar el PC dentro de poco pero siempre leo que las GPU de AMD para IA como procesamiento de imagenes en local no son aconsejables porque son un dolor de muelas para configurar, me gustaria saber si esto es cierto y pasa en todos los ambitos de la IA.

No trabajo con IA así que a ciencia cierta no lo sé, pero sospecho que como muchos otros software, estarán pensados y optimizados para usar los núcleos CUDA privativos de Nvidia y dejando de lado la tecnología equivalente de AMD y de las GPU de Intel.
Me imagino que por ahí van los tiros.

No existen los nucleos cuda
https://es.wikipedia.org/wiki/CUDA

En la arquitectura CUDA cuenta con unas unidades de ejecución denominadas Streaming Multiprocessors (SM), 8 unidades en el ejemplo de la figura, que están interconectadas entre sí por una zona de memoria común. Cada SM está compuesto a su vez por unos núcleos de cómputo llamados “núcleos CUDA”

https://www.nvidia.com/es-es/geforce/gr ... s/compare/

Imagen


Será una leyenda urbana entonces...
10 respuestas