AMD presentará las tarjetas RX Vega a finales de julio

Todo estaba listo en Taipéi. Decenas de periodistas de todo el mundo se apostaban frente a Lisa Hu para capturar las primeras fotografías de la familia RX Vega, la gama de tarjetas gráficas con la que AMD quiere culminar su renacimiento tras el debut de los procesadores Ryzen. Pero ese momento nunca llegó. Porque AMD, en contra de lo esperado, había preparado el anuncio del anuncio. Y es que la conferencia que hace poco ha brindado la compañía no ha servido para dar a conocer las primeras tarjetas Vega de consumo, sino para prometer que serán reveladas hacia finales de julio.

Así lo ha confirmado la máxima responsable de AMD en la feria Computex, tal vez decepcionando a los fans que realmente esperaban un lanzamiento (o como mínimo una presentación) "a la vuelta de la esquina" tal y como señaló inicialmente la compañía. La conferencia de AMD ha estado centrada casi totalmente en los nuevos procesadores Ryzen y la ya conocida tarjeta profesional Vega Frontier Edition, que saldrá a la venta el 27 de junio.

La demo de RX Vega comienza en el minuto 53:00 de la conferencia.

Lo cierto es que las tarjetas RX Vega ni siquiera han aparecido durante la conferencia en forma de renders. Tan solo se ofreció una demo de Prey 2 en calidad Ultra corriendo a 4K en un ordenador con un procesador Threadripper y dos tarjetas RX Vega (con un tearing sorprendentemente visible), pero sin proporcionar comparaciones directas con otras tarjetas gráficas o un simple contador de FPS con el que poder observar la velocidad de ejecución.

Según ha señalado Lisa Hu, RX Vega tendrá oficialmente su puesta de largo en la feria sobre infografía Siggraph 2017, que se celebrará entre el 30 de julio y el 3 de agosto. Será entonces cuando conoceremos las prestaciones y los precios de esta nueva línea de producto pensada para rivalizar con las GTX más potentes de Nvidia, que este año se ha mostrado muy activa en la Computex.

Fuente: AMD
Nos vamos a septiembre para que estén disponibles :(
Se lo toman con calma.
Parece que va a ser como Polaris, peor de lo que nos habían vendido ... a ver si al menos ajustan los precios.
Pues menuda decepción :(

A ver si realmente en septiembre sacan algo competitivo que haga bajar un poco los precios a Nvidia, porque el salto que ha habido entre la serie 9 y 10 ha sido bastante notorio [+risas] y si Volta nace sin competencia... igual son capaces de volver a subir los precios, lo cual sería malo para nosotros ¬_¬


Salu2
cercata escribió:Parece que va a ser como Polaris, peor de lo que nos habían vendido ... a ver si al menos ajustan los precios.

Las Polaris solo son refritos con mejor consumo y temperaturas, no tiene nada que ver.
A mi me huele a que no se ven capaces de hacer frente a la gama alta de Nvidia y por eso lo retrasan.
Motita escribió:
cercata escribió:Parece que va a ser como Polaris, peor de lo que nos habían vendido ... a ver si al menos ajustan los precios.

Las Polaris solo son refritos con mejor consumo y temperaturas, no tiene nada que ver.

Me refería a la primera hornada, las RX4XX, que antes de anunciarlas hicieron demos con ordenadores que no consumian nada, y luego cuando salieron no era eso qu ehabian enseñado.
No se porque algo me dice que lo del nombre es como si dijeran que costaran un pastizal y como si no hubieras comprado nada, osea un timo. Los de AMD últimamente van muy a lo alto haciendo demostraciones y demás y luego cuando se pone a la venta y los usuarios hacen pruebas se demuestra que todo lo mostrado por AMD era falso, como que las 2 RX480 eran como una 1080 cuando en realidad rinden como una 1070, los Ryzen eran superiores a los de i7 de intel y al final el mejor Ryzen se queda a la altura de un i5 de hace varios años, como es el R7 1700 que rinde por igual que un i5 de hace 5 años.... Cuando presenten las vegas veréis que harán lo mismo, la gente dirá que chulada y demás y cuando se pongan a la venta y hagan benchmaks se llevaran una decepción. AMD antes hacia productos de calidad que superaban a intel, caso de gráficas era ATi que ganaba a Nvidia con algunas y yo compraba tanto AMD como ATi, al unirse estos 2 no se que paso que la calidad de los productos bajo... AMD, tu antes molabas.
mmiiqquueell escribió:No se porque algo me dice que lo del nombre es como si dijeran que costaran un pastizal y como si no hubieras comprado nada, osea un timo. Los de AMD últimamente van muy a lo alto haciendo demostraciones y demás y luego cuando se pone a la venta y los usuarios hacen pruebas se demuestra que todo lo mostrado por AMD era falso, como que las 2 RX480 eran como una 1080 cuando en realidad rinden como una 1070, los Ryzen eran superiores a los de i7 de intel y al final el mejor Ryzen se queda a la altura de un i5 de hace varios años, como es el R7 1700 que rinde por igual que un i5 de hace 5 años.... Cuando presenten las vegas veréis que harán lo mismo, la gente dirá que chulada y demás y cuando se pongan a la venta y hagan benchmaks se llevaran una decepción. AMD antes hacia productos de calidad que superaban a intel, caso de gráficas era ATi que ganaba a Nvidia con algunas y yo compraba tanto AMD como ATi, al unirse estos 2 no se que paso que la calidad de los productos bajo... AMD, tu antes molabas.

Tú flipas. Ryzen tiene el mismo IPC que Skylake, lleva más núcleos y consume menos (el 1700 va a ir en un portátil).
Threadripper lleva 64 líneas PCIe y con Intel tienes que pagar 1000+ dólares para tener un chip con 44 líneas. El resto 28 o menos.
Intel, gracias a AMD, acaba de migrar su línea de venta principal al socket LGA 2011, donde ofrece toda la gama de núcleos. Desde 4 hasta 18: 4, 6, 8, 12, 14, 16, 18.
para el prey 2 a 4k ultra necesitaron de dos vega? y sin mostrar los fps? pues vaya mierda, no creo que fueran a coger el modelo más bajo... preveo que acabaré volviendo a nvidia cuando cambie la r9 290, que no tengo ninguna prisa.
mmiiqquueell escribió:No se porque algo me dice que lo del nombre es como si dijeran que costaran un pastizal y como si no hubieras comprado nada, osea un timo. Los de AMD últimamente van muy a lo alto haciendo demostraciones y demás y luego cuando se pone a la venta y los usuarios hacen pruebas se demuestra que todo lo mostrado por AMD era falso, como que las 2 RX480 eran como una 1080 cuando en realidad rinden como una 1070, los Ryzen eran superiores a los de i7 de intel y al final el mejor Ryzen se queda a la altura de un i5 de hace varios años, como es el R7 1700 que rinde por igual que un i5 de hace 5 años.... Cuando presenten las vegas veréis que harán lo mismo, la gente dirá que chulada y demás y cuando se pongan a la venta y hagan benchmaks se llevaran una decepción. AMD antes hacia productos de calidad que superaban a intel, caso de gráficas era ATi que ganaba a Nvidia con algunas y yo compraba tanto AMD como ATi, al unirse estos 2 no se que paso que la calidad de los productos bajo... AMD, tu antes molabas.


Tio tu de que carajos estas hablando?? todo lo que estas diciendo es FALSO, los rysen en gamming están a la altura de los i5 de ultima generación y en trabajo(render, programas científicos, simulaciones) se COMEN a intel. un 1800X si mal no recuerdo le pasa por encima a un I7 6900k solo costando 500 dolares, cuando el 6900 es PEOR y cuesta 1000 dolares.

Por favor... no digamos sandeces...
que chachi, mas tiempo de espera, Nvidia respira aliviada con todo esto y los consumidores y echar mas $ en una grafica potente que este ahora en el mercado [+furioso]
a este paso , para finales del 2018 las amd vegas empezaran a ir bien, el lema de amd, es que sus productos, cuando salen, van como el culo y van mejorando con el tiempo, vamos como los buenos vinos. si en el mejor de los casos la sacan para mediados de septiembre del 2017, quizas con suerte para sepriembre del 2018 ya cogeran su punto . dicho de otra forma, comprar algo de amd es como invertir en bolsa.
Tenía pensado esperar para pilla una Vega pero paso, me quedo con una rx580 que están bastante revisadas y hay casas como Asus con las Strix o Gigabyte con las Aorus con buena pinta y seguro que mejor de precio que las Vega de salida y en founder edition.
Algo pasa con las Vega, mucho retraso estoy viendo yo.
Sarggent escribió:
Tio tu de que carajos estas hablando?? todo lo que estas diciendo es FALSO, los rysen en gamming están a la altura de los i5 de ultima generación y en trabajo(render, programas científicos, simulaciones) se COMEN a intel. un 1800X si mal no recuerdo le pasa por encima a un I7 6900k solo costando 500 dolares, cuando el 6900 es PEOR y cuesta 1000 dolares.

Por favor... no digamos sandeces...


Hombre ... comer, comer ... lo que se dice comer ... [360º]

Comparando un 1800X con un 7700K:

Imagen
Imagen

Aunque es cierto que cuando el software hace uso intensivo de multithreading:

Imagen

Pero programas cientificos y software de simulacion, los que tu usas no se, los que yo uso tiran de GPU (CUDA -> Nvidia) para el procesado de los datos, no de CPU.

Y el precio (Amazon, visto ahora mismo):

1800X -> EUR 507,92
7700K -> EUR 362,00

Y ya si comparamos el 1800X con un 6900X en los mismos tests:

Multi-threaded performance
1577 Points (1800X)
973 Points (7700K)
1798 Points (6950X)

Pero es que un 6950X son casi 2000 lereles (No es peor, pero si unas 4 veces mas caro).

Vamos, que si tengo que montarme un equipo para simulacion te puedo decir que mi eleccion es un 7700K con una Tesla K80.
Esa es la configuracion de mi equipo en el curro ( Y este invierno me voy a ahorrar el calefactor de debajo de la mesa para calentarme.) ratataaaa
Dr. Lisa Su, cof cof
Si dices mal su nombre tres veces seguidas se te aparece y te enseña la verga
AMD sacando un producto tarde y mal planificado, os suena? a mi si, cuando lo lancen al mercado será a finales de septiembre como minimo y con poco stock, donde la competencia ya tiene sus graficas colocadas en el mercado desde hace meses y meses. Para lo unico que servirá es para bajar algo de precio las graficas de nvidia, pero ojo nvidia ya a sacado el rendimiento en € de la serie 10 y esta bajada solo servirá para ponerle las cosas dificiles a la propia AMD y ya veremos el rendimiento final que esta es otra. Para a finales de año o así Nvidia presentara su serie 11 con lo que tendrá de nuevo todo el mercado en sus manos.
Lo siento pero AMD va muy muy a remolque de la competencia, parece como si vailaran al son de los verdes.
leapfrog escribió:
Sarggent escribió:
Tio tu de que carajos estas hablando?? todo lo que estas diciendo es FALSO, los rysen en gamming están a la altura de los i5 de ultima generación y en trabajo(render, programas científicos, simulaciones) se COMEN a intel. un 1800X si mal no recuerdo le pasa por encima a un I7 6900k solo costando 500 dolares, cuando el 6900 es PEOR y cuesta 1000 dolares.

Por favor... no digamos sandeces...


Hombre ... comer, comer ... lo que se dice comer ... [360º]

Comparando un 1800X con un 7700K:

Imagen
Imagen

Aunque es cierto que cuando el software hace uso intensivo de multithreading:

Imagen

Pero programas cientificos y software de simulacion, los que tu usas no se, los que yo uso tiran de GPU (CUDA -> Nvidia) para el procesado de los datos, no de CPU.

Y el precio (Amazon, visto ahora mismo):

1800X -> EUR 507,92
7700K -> EUR 362,00

Y ya si comparamos el 1800X con un 6900X en los mismos tests:

Multi-threaded performance
1577 Points (1800X)
973 Points (7700K)
1798 Points (6950X)

Pero es que un 6950X son casi 2000 lereles (No es peor, pero si unas 4 veces mas caro).

Vamos, que si tengo que montarme un equipo para simulacion te puedo decir que mi eleccion es un 7700K con una Tesla K80.
Esa es la configuracion de mi equipo en el curro ( Y este invierno me voy a ahorrar el calefactor de debajo de la mesa para calentarme.) ratataaaa

No se que software de simulacion usaras, ni que tipo de simulacion, pero dudo mucho que sea eficiente si usa CUDA.
Menos del 10% de supercomputadores del Top 500 usa GPUs. El modelo más común es la K40, con 26 superordenadores. La tendencia es al alza, pero CUDA está muy verde para dar un rendimiento bueno sin un coste humano elevado, que es lo más caro de todo. Quizá con CUDA 9 cambien las cosas, pero teniendo en cuenta el enfoque a Machine Learning que está tomando, para cuestiones de bioinformática o física va a costar que tenga aceptación, con el obstáculo adicional de ser dependiente de software de código cerrado.
Esto es un poco como las suites de Adobe, que dicen soportar GPUs, multihilo y tal pero el hardware que hay que tirarles a la cara para que le saquen un mínimo de provecho da vergüenza ajena.
Filiprino escribió:No se que software de simulacion usaras, ni que tipo de simulacion, pero dudo mucho que sea eficiente si usa CUDA.
Menos del 10% de supercomputadores del Top 500 usa GPUs. El modelo más común es la K40, con 26 superordenadores. La tendencia es al alza, pero CUDA está muy verde para dar un rendimiento bueno sin un coste humano elevado, que es lo más caro de todo. Quizá con CUDA 9 cambien las cosas, pero teniendo en cuenta el enfoque a Machine Learning que está tomando, para cuestiones de bioinformática o física va a costar que tenga aceptación, con el obstáculo adicional de ser dependiente de software de código cerrado.
Esto es un poco como las suites de Adobe, que dicen soportar GPUs, multihilo y tal pero el hardware que hay que tirarles a la cara para que le saquen un mínimo de provecho da vergüenza ajena.


El tercer equipo de la lista Top 500 (La ultima, 2016 nov), Titan (Un Cray XK7) consta de:

18.688 nodos de proceso, cada uno conr un Opteron serie 6200 Interlagos (16 Cores) y una Nvidia Tesla K20.

Si no existiesen esas dos monstruosidades llamadas Sunway TaihuLight y su hermano "pobre" Tianhe-2, seria el Superordenador mas potente de la lista (Y viendo las monstruosidades de los chinos me da que los dos primeros puestos van a tardar en cambiar).

Si lo comparamos con el siguiente de la lista que es el Sequoia, que efectivamente no usa GPUs sino procesadores diseñados por IBM exclusivamente para el, Titan practicamente con un tercio de nodos y casi el mismo consumo, consigue casi la misma capacidad de proceso (Sobre 17.000 Tflops).

Por lo que no comparto la opinion de que usar GPUs en supercomputacion sea una mala idea (Aunque si comparto lo de que a CUDA le faltan 5 minutos en el microondas).

Quien quiera construir un pequeño cluster para machacar datos va a acabar tirando de Teslas ...

Pero mi comentario no iba de superordenadores, sino de una estacion de trabajo, y te aseguro que si a Matlab le quito la K80, me da algo (Y eso que el siguiente benchmark es "solo" con una K40)

Imagen

Aunque dado mi profundo amor por PyCUDA igual estoy cegado [inlove] [inlove]
El Tianhe lo utilizaron para ejecutar el Linpack. Apenas tiene uso real.
Mira los resultados con el HPCGen vez del Linpack y observa la fracción de rendimiento (Fraction of Peak). También tienes el pico en el Linpack (HPL) y con el HPCG. (Entrada en Wikipedia del HPCG).
Otra lista es la del Graph500 (Wikipedia) donde se requiere de una buena jerarquía de memoria.
No es lo mismo ejecutar multiplicaciones de matrices que resolver un sistema de ecuaciones con un método iterativo que requiere más comunicación además de aplicar operadores o multiplicar matrices. O hacer recorridos de estructuras de datos como con el Graph 500 para luego operar con dichos datos.

leapfrog escribió:
Filiprino escribió:No se que software de simulacion usaras, ni que tipo de simulacion, pero dudo mucho que sea eficiente si usa CUDA.
Menos del 10% de supercomputadores del Top 500 usa GPUs. El modelo más común es la K40, con 26 superordenadores. La tendencia es al alza, pero CUDA está muy verde para dar un rendimiento bueno sin un coste humano elevado, que es lo más caro de todo. Quizá con CUDA 9 cambien las cosas, pero teniendo en cuenta el enfoque a Machine Learning que está tomando, para cuestiones de bioinformática o física va a costar que tenga aceptación, con el obstáculo adicional de ser dependiente de software de código cerrado.
Esto es un poco como las suites de Adobe, que dicen soportar GPUs, multihilo y tal pero el hardware que hay que tirarles a la cara para que le saquen un mínimo de provecho da vergüenza ajena.


El tercer equipo de la lista Top 500 (La ultima, 2016 nov), Titan (Un Cray XK7) consta de:

18.688 nodos de proceso, cada uno conr un Opteron serie 6200 Interlagos (16 Cores) y una Nvidia Tesla K20.

Si no existiesen esas dos monstruosidades llamadas Sunway TaihuLight y su hermano "pobre" Tianhe-2, seria el Superordenador mas potente de la lista (Y viendo las monstruosidades de los chinos me da que los dos primeros puestos van a tardar en cambiar).

Si lo comparamos con el siguiente de la lista que es el Sequoia, que efectivamente no usa GPUs sino procesadores diseñados por IBM exclusivamente para el, Titan practicamente con un tercio de nodos y casi el mismo consumo, consigue casi la misma capacidad de proceso (Sobre 17.000 Tflops).

Por lo que no comparto la opinion de que usar GPUs en supercomputacion sea una mala idea (Aunque si comparto lo de que a CUDA le faltan 5 minutos en el microondas).

Quien quiera construir un pequeño cluster para machacar datos va a acabar tirando de Teslas ...

Pero mi comentario no iba de superordenadores, sino de una estacion de trabajo, y te aseguro que si a Matlab le quito la K80, me da algo (Y eso que el siguiente benchmark es "solo" con una K40)

Imagen

Aunque dado mi profundo amor por PyCUDA igual estoy cegado [inlove] [inlove]
AMD está muy verde en relación al hardware que saca. Tanto Intel como nVidia tienen sus productos dispuestos y van con mucha ventaja sobre los de Sunnyvale.

Vega saldrá tarde y mal. A la vuelta de la esquina espera Volta para volverse a poner a la cabeza. Polaris vendió muy poco por salir después, llegar con problemas de stock y no tener drivers pulidos. nVidia se ha hinchado a vender sus tarjetas durante el paréntesis regalado por AMD.

Yo espero que AMD no sea sólo un sujeto para aportar cierta competencia teórica con el fin de que los distintos gobiernos no se echen encima de Intel, sino una empresa que pueda volver a poner hardware por encima del resto, como bien hizo en el pasado.
Aguantaremos con la 280X.

A ver qué se muestra en la feria esta que comentan...
24 respuestas