[HILO OFICIAL] AMD Radeon RX Vega

@JagerCrow
La ganancia en Time Spy es una birria si comparamos en juegos. Mi aumento de rendimiento es de más del 20% en fps en los títulos que uso, pero no sólo un instante sino mantenido.

Lo que ganas en mejora con la vega es que puedas hacer que ese potencial, lo puedas conseguir desde el minuto 1 al último, teniendo mejores consumos y temperaturas muy frías.

Es que en los benchmarks que he hecho a 4k obtengo el mismo rendimiento que la vega VII y eso no es poco.

¿La clave? El control de la temperatura en las fases y en la GPU/HBM. Lo tengo más claro que nunca, ya que he hecho pruebas una tras de otra y las conclusiones que he sacado son distintas a las que veía con un peor control de esas temperaturas. Ahora es que todo cambia de forma de forma aparentemente ilógica.
Cuando antes al bajar el voltaje me bajaba los hz de una forma abrumadora, ahora me suben... sí, me suben. Y una diferencia de 2 o 3 grados son suficientes para aue me crashee o me sea completamente estable.

La otra clave son los voltajes... cuanto más bajos, mejor, sobre todo en la HBM para tener un uso de CPU más acorde. Puede que no tenga lógica, pero es lo que veo y si algo tengo es que soy meticuloso más no poder. Siempre lo he sido y la metodología la llevo a rajatabla escribiendo cada uno de los parámetros con diferentes combinaciones.

Tener uno o dos fps en time spy es poco útil, pero en juegos la cosa cambia de la noche al día, incluida la fluidez.
Battlefield V lo he llegado a correr a 60 fps con todo en ultra y efectos en ON a 4K. Si hablamos de resoluciones menores, a 1080p me va entre 130/140 fps con todo en ultra. Todo un logro con mi silicio que no fue precisamente bueno, pero que afinándolo, consigo puntuaciones de 1080 ti [beer]

Por cierto, tengo pedido un bloque de cobre pasado por agua para la vega 64 y la meteré en un circuito con radiador de 36cm también de cobre para evitar la corrosión galvánica avanzada. Cuando me llegue el kit de refrigeración líquida y el bloque, os pasaré fotillos con nuevos benchmark.
No pretendo tener el máximo de fps, sino mantenerlos a cero ruido, con bajo voltaje como tengo ahora y poco consumo.
Pacorrr escribió:Habéis probado la demo del RE 2? Tira muy bien en Vega. Pero va mejor en DX11, aquí han hecho una comparativa en DX12


dicen que usaran los shader asincronos y demas y estara mejor optimizado en vega, vamos que le vayan dando al ray tracing de engaña bobos
@apalizadorx @francisco231

Pues buena paliza le mete a la 2060 rtx a pesar de que se empeñen muchos, (incluidos medios como elchapuzasinformatico) en decir que la 2060 rtx gana a la vega 64. Lo que hacen es comparar resultados de la tarjeta que analizaron hace un año con los drivers de entonces y todo de stock con las de ahora. Así lo hacen con todas. Con esa metodología, es normal que saques conclusiones tan pintorescas.
@apalizadorx
¿Los primeros drivers que soportan la RTX 2060 no son los 417.71 WHQL? lo digo porque en el video dice que son los 417.58 ¿beta?

Saludos
Hay resultados raros no? en ese bench?

Entiendo que hay juegos muy optimizados para según que tarjetas, pero hay algunos resultados de la 2060 que me chirrían.

Dicho esto, de confirmarse esos números, esa vega 56 mantiene MUCHO el tipo y con las ofertas constantes que hay para estas dos últimamente.... porque tengo la 64, sino la tendría dos veces :D

saludos
Lo pongo por aquí tambien pero parece ser que vega VII no llevará 128 ROPS sino 64 como la VEGA 64. Además recordemos que tiene los mismos cores que la 56 y menos que la 64.

Si se confirma, al final va a ser lo que muchos dijimos el primer día, que era una instinct o vega 64 subida de frecuencias.

https://wccftech.com/amd-radeon-vega-vi ... 4-compute/
descoat escribió:Lo pongo por aquí tambien pero parece ser que vega VII no llevará 128 ROPS sino 64 como la VEGA 64. Además recordemos que tiene los mismos cores que la 56 y menos que la 64.

Si se confirma, al final va a ser lo que muchos dijimos el primer día, que era una instinct o vega 64 subida de frecuencias.

https://wccftech.com/amd-radeon-vega-vi ... 4-compute/

te refieres a que sera un refrito?
Parece que es una Vega 60 con 16gb HBM2.
@francisco231
Es una instinct; osea una tarjeta de uso profesional que se basa en una vega 64 recortada pero subida de frecuencias y vram.

El rendimiento es bueno porque esos 7nm permiten subir los mhz a esa vega 64, además de hacer decente el ancho de banda de la HBM pero no es un chip completo al ser una tarjeta que no se pensó para jugar.

La conclusión es que no estaba previsto lanzar nada hasta el último trimestre que es cuando llegará la gama interesante desde el punto de vista de las ventas. Este es un movimiento de distracción de cara al accionista.
Lo malo es que Navi (la sucesora de vega) seguirá estando basada en GCN, pero creo que dominará el sector de gama media que ha despreciado nvidia.
He adquirido una Vega56 y por YouTube encontré la posibilidad de hacer undervolt a la gráfica.

Resulta que el wattman que incluye mi versión actual no corresponde con la de los vídeos y en el apartado temperaturas y ventilador aparece de otra forma, (con otras gráficas) y no me queda claro como variarlas. Las pestañas de frecuencias, voltaje y memoria aparecen igual. Si alguien pudiera guiarme sería de agradecer. Tengo el driver 19.1.1 creo instalado y probé el 18.12.2 y en los dos aparece igual, saludos.
Brjlux escribió:He adquirido una Vega56 y chafardeando por YouTube me encontré con la posibilidad de hacerle undervolt a la gráfica.

Resulta que el watchman que me incluye mi versión actual del Adrenaline no se corresponde a la de los vídeos y en el apartado temperaturas y ventilador aparece de otra forma y no me atrevo a tocar nada antes de tener claro este punto. Las pestañas de frecuencias y memoria aparecen igual. Si alguien pudiera guiarme sería de agradecer. Tengo el driver 1.9.1 creo instalado y probé el 1.8 y los dos aparece igual, saludos.


Apenas hay cambios, donde tienes la duda. te echamos una mano.

De hecho en el Undervolt de hecho es donde no ha cambiado nada, solo que ahora puedes modificar todos los states, del p1 al p7, pero los que te importan son p6 y p7, es decir los 2 últimos.

En ellos es donde debes bajar el voltaje manteniendo la frecuencia al principio y ver si es estable.

saludos
Perfect Ardamax escribió:@apalizadorx
¿Los primeros drivers que soportan la RTX 2060 no son los 417.71 WHQL? lo digo porque en el video dice que son los 417.58 ¿beta?

Saludos


De los drivers de nvidia de la serie 20XX estoy bastante desconectado, pero los benchmark que estoy viendo por youtube en principio parecen coherentes, la 2060 rinde mas o menos como la 1070ti, y a dia de hoy ya sabemos que hay juegos donde vega 56 apalea a la 1070/ti y la 64 a la 1080 ( y viceversa también) por poner unos ejemplos gta 5, fortine, pubg las nvidias dan mas fps.

Parece que los ultimos movimientos de Nvidia se están enfocando en no relajarse y dejar que amd le coma terreno, los ultimos drivers de liberar el adaptative sync y poner en la gama entrada la 2060 con una buena relación precio/ rendimiento ( 365€ aproximadamente) para competir con la suculenta oferta de la vega 56 + juegos, en cambio la 2070/80 en mi opinión no tienen tan buena relación precio/rendimiento.


@descoat
Claramente la vega 64 es superior a la 2060, que hayan algunos juegos donde en d11 pueda salir mejor parada la 2060 no la convierte en una grafica superior, además vuelvo a recalcar que la mayoría de benchmark que hay en youtube la 64 suele ir a 1520/945 y aún así en muchos juegos sale ganando, a 1600/1050 la diferencia aún debería ser mucho mas abultada.



Imagen
@apalizadorx

Obviamente, de hecho se pone a la par con la 1080 ti en varios juegos.
Es lo que te dije. Hay webs que tienen la metodología del niño de 3 años... ven un elefante grande y cuando tienen 18 años vuelven a ver el elefante más pequeño comparativamente con ellos y te dicen que los elefantes ya no son lo que eran.

Pues en informática pasa igual, hay gente que te hace un benchmark con una tarjeta y luego años después sigue comparando esos benchmak con el nuevo hardware sin actualizar el primero con los nuevos drivers, sabiendo que las diferencias pueden ser grandes.
Lo peor es que engañan a la gente que no entiende y te sueltan la mentira en portada sobre que la 2060 rtx es más rápida que la vega 64 porque han comparado los drivers recién sacados de la vega hace un año con la nueva de nvidia, amén de hacerlo con voltajes por defecto que te baja un 15% el rendimiento y aumenta el consumo una barbaridad.

No creo que lo hagan porque les pague nvidia, sino porque no conservan las tarjetas y las venden rápido, siendo la única forma de comparar tirando de archivo.

Hablo de elchapuzasinformático que es donde lo afirman.
No se si sabíais esto... si desactiváis el inicio rápido de windows ganas rendimiento en la gráfica, una media de 5 fps, yo me acabo de enterar
https://www.youtube.com/watch?time_cont ... 0YywksRWaM
Pues no lo sabía @the_aeon , lo miraré hoy al llegar a casa.

La madre que los trajo :D
Lo acabo de probar en casa y yo por lo menos no gano nada de fps en battlefield v, ni en assassins creep origins...
Alguien ha probado el emulador rpcs3 que tal tira en vulkan con la vega + freesync? esta tarde si tengo tiempo me pondré con ello y me quitaré el gusanillo...
Estoy a un click de pillarme un monitor 3440x1440, alguien tiene experiencia moviendo está resolución con una 64?

No me importa.jugar sobre los 50 fps en alto con alguna chuminadas en medio en juegos exigentes, pero ahora que estoy a punto de pillarlo me han entrado las dudas... Alguien me da un empujón?
Mendrolo escribió:Estoy a un click de pillarme un monitor 3440x1440, alguien tiene experiencia moviendo está resolución con una 64?

No me importa.jugar sobre los 50 fps en alto con alguna chuminadas en medio en juegos exigentes, pero ahora que estoy a punto de pillarlo me han entrado las dudas... Alguien me da un empujón?


A esa resolución en BFV en alto, sobre los 80 fps. Por si te sirve de referencia.
@Mendrolo
como te dice @pupegbl , puede de sobra.
A mí en 4k, la mayoría de los juegos que he probado, llega a los 50-60fps en ultra bajando alguno de los parámetros hasta dar con ese framerate.

Es tontería pillarse otra tarjeta que vale 3 veces más para que te tire con absolutamente todo en ultra, ya que hay cosas que bajando a medio, ni te enteras y mejora mucho el rendimiento final, teniendo una experiencia igual a la de otros con tarjetas un 40% más rápidas.
Es más, me doy cuenta que la fluidez que da a altas resoluciones es perfecta siempre que tengas bien ajustados los voltajes y los hz de la HBM.

Y digo esto último porque puede darse el caso de pequeños tirones y no sabes por qué y ocurre precisamente por un mal ajuste de voltaje amperaje cuando te pasas de underclock.

Por cierto, me dí cuenta que al pedir el bloque de agua de la vega 64, cometí el error de no ver que era para el modelo de referencia... ups. Ya veré si le hago modificaciones porque las VRM están algo más alejadas en el pcb de la asus ( acertadamente ). Sé que EK hizo un bloque para la strix pero no hay unidades disponibles por ningún lado. Ya veremos cuando llegue todo y los apaños que le meta [carcajad]


@the_aeon
Fíjate de cuando es ese vídeo... marzo de año pasado. Está ya parcheado [beer]
Pues gracias a los dos por el empujón, pedido ;p
Una rtx 2060!!! 400 pavos estamos tontos u que. Vaya telita como esta el mercado de graficas...ojala que navi vuelque la situacion y mejore precios y que le de un batacaso a nvidia. No soy pro ni de amd ni nvidia mi anterior grafica fue la 970.
francisco231 escribió:Una rtx 2060!!! 400 pavos estamos tontos u que. Vaya telita como esta el mercado de graficas...ojala que navi vuelque la situacion y mejore precios y que le de un batacaso a nvidia. No soy pro ni de amd ni nvidia mi anterior grafica fue la 970.


Encima con 6gb, Nvidia sigue en su misma línea de ratear con la cantidad de vram, desde luego por ése precio la vega 56/64 de cabeza.
Holas a todos chicos

leyendo sobre la información que ha salido alrededor de la RADEON VII, y viendo que evidentemente es un refrito de las vega solo que en litografía mas pequeña y con mas VRAM me quedan algunas dudas en el aire... que hasta que no se liberen estas tecnologías tanto por AMD como de Microsoft no vamos a ver que tal rinden y si valen la pena.

básicamente son 2, basados en la información sobre las 2 tecnologías que se destacan en la nuevas Gráficas de NVIDIA (evitemos el tema de que solo las trae un juego y un demo, de que si vale la pena o no, que si rinde de forma que valga la pena y ese largo etc etc)

-DXR (RTX en NVIDIA)
-Direct ML (DLSS en NVIDIA)

de lo que he leído de ambas en la documentación oficial de microsoft son características que expanden las capacidades de DirectX 12 y ninguna de las 2 para su ejecución exije un Hardware "especial" y habla solo de que deben ser 100% compatibles con DirectX 12, ambas deben implementarse por drivers para poder usarse, y por lo que se ha visto (gráficas NVIDIA) consumen bastantes recursos al estar activas y yo me planteo 2 preguntas

1. la Nueva RADEON VII no es una cambio en la arquitectura solo es una VEGA mejorada y de hay para bajo prácticamente todas las gráficas de AMD comparten la misma arquitectura, es de decir si se habilitan están 2 tecnologías en un futuro, EN TEORÍA deberían funcionar también con las demás GPU no??

2. he visto vídeos donde se describen el funcionamiento de las VEGA y en si de la gráficas de AMD y también de las de NVIDIA donde se ve claramente que NVIDIA hace un uso mas optimo de los recursos de la GPU mientras que AMD realmente no se aprovecha totalmente sus recursos, la cosa es que DirectX 12 por la misma forma que esta concebida y se ha visto en demos cuando se hace algo realmente para DirectX 12 vemos que realmente esas "impresionantes" especificaciones de las gráficas de AMD tienen sentido.... cosas ya aparte que le estoy dando muchas vueltas es que al hacerse una implementacion real de Directx 12 despegaran estas tecnologías en gráficas AMD ... por que sabemos que lo que falta es que lo metan por drivers no???

Cosas aparte que funcionen o no sin tener hardware especializado para esas tareas.... la cosa es que mucho del poder de las tarjetas de AMD no se usa... entonces empieza uno a leer la información y queda uno con que en el papel se puede...falta ver como funcione en el mundo real

gracias a todo perdón por el discurso
@JagerCrow

Parte de la culpa de que muchos juegos aprovechan más la arquitectura de nvidia es debido al I+D (Nvidia dedica precisamente ese presupuesto a adaptarse al mercado creando nuevas arquitecturas cada poco tiempo)

AMD creó Mantle para dar soporte a GCN y a su vez, cedió este desarrollo a Microsoft para dar vida a directx 12. El error de AMD fue hacer una arquitectura basada en una programación close to the metal que costaba implementarse y que tardaría tanto en estandarizarse hasta el punto de que ni si quiera hoy tenemos muchos juegos nativos en directx 12. No veo en el futuro cercano que vaya a cambiar radicalmente.

Nvidia por su parte, sabía que si destinaba ese I+D en actualizar las arquitecturas aprovechando el momento, le daría más beneficios y así ha sido, pues esas Radeon, han estado desaprovechadas hasta el día de hoy y tienen un potencial extra bajo que no puedes usar hasta que no saquen más títulos bajo la API vulkan o directx 12. Eso no significa que bajo dx11 no usen todo, sino que es más ineficiente.

Lo mismo ha pasado con la inversión en HBM en detrimento de versiones gddr que son más baratas y ofrecen una eficacia similar hasta el día de hoy.


El inmovilismo en los negocios es siempre sinónimo de fracaso y si creas arquitecturas que no van a sacarle provecho hasta dentro de mucho tiempo, realmente es poco inteligente.


Sobre dlss y ray tracing, por supuesto que por software puedes implementarlo usando hardware no específico, pero la eficacia es mucho menor. Sin embargo, Radeon podría darle uso a ese potencial extra sin usar para implementar alguna de esas tecnologías, siendo el reescalado una opción más lógica.

Lisa Su dijo que este mismo año va a desvelar los planes de AMD en el ray tracing y comenta que se guarda información que sorprenderá. Veremos.
Lo que sí sospecho es que ese camino va a ser marcado al mismo tiempo con intel y quizás nvidia vea con preocupación lo que está por venir ya que tras el fracaso de gsync, puede venir otro al puro estilo F35 ( avión de combate estadounidense ) ... o no.
Juegos como doom sacan partido a las vegas, esto es lo de siempre publicidad en juegos y habra juegos que amd saque partido en sus graficas y otros nvidia. Por cierto con las nuevas consolas de nueva generacion me imagino que dorectx 12 empezara a estandarisarse
@francisco231
Doom usa vulkan, así que no tiene relación con sponsorización y rendimiento extra. Bf V está patrocinado por nvidia y Radeon rinde mejor bajo ese motor gráfico.

Las nuevas consolas imagino que te refieres a la generación que está por venir, ¿no?
Sony hace programación a bajo nivel con su propia api y microsoft comparte ecosistema con windows 10. Si sony hubiese usado vulkan, estaríamos viendo un panorama distinto en Pc.

Sólo ver God of War en un TV 4k/HDR, te das cuenta de la importancia de este tipo de programación y lo que es capaz de hacerse en un sistema cerrado con un hardware mediocre. Con Vega 64/ Ryzen, podrían hacer auténticas obras de arte. Haber dejado Mantle abandonado, les supuso un palo brutal en su lucha por igualar a nvidia. Directx12 es como el cuento de la lechera.
descoat escribió:@JagerCrow

Parte de la culpa de que muchos juegos aprovechan más la arquitectura de nvidia es debido al I+D (Nvidia dedica precisamente ese presupuesto a adaptarse al mercado creando nuevas arquitecturas cada poco tiempo)

AMD creó Mantle para dar soporte a GCN y a su vez, cedió este desarrollo a Microsoft para dar vida a directx 12. El error de AMD fue hacer una arquitectura basada en una programación close to the metal que costaba implementarse y que tardaría tanto en estandarizarse hasta el punto de que ni si quiera hoy tenemos muchos juegos nativos en directx 12. No veo en el futuro cercano que vaya a cambiar radicalmente.

Nvidia por su parte, sabía que si destinaba ese I+D en actualizar las arquitecturas aprovechando el momento, le daría más beneficios y así ha sido, pues esas Radeon, han estado desaprovechadas hasta el día de hoy y tienen un potencial extra bajo que no puedes usar hasta que no saquen más títulos bajo la API vulkan o directx 12. Eso no significa que bajo dx11 no usen todo, sino que es más ineficiente.

Lo mismo ha pasado con la inversión en HBM en detrimento de versiones gddr que son más baratas y ofrecen una eficacia similar hasta el día de hoy.


El inmovilismo en los negocios es siempre sinónimo de fracaso y si creas arquitecturas que no van a sacarle provecho hasta dentro de mucho tiempo, realmente es poco inteligente.


Sobre dlss y ray tracing, por supuesto que por software puedes implementarlo usando hardware no específico, pero la eficacia es mucho menor. Sin embargo, Radeon podría darle uso a ese potencial extra sin usar para implementar alguna de esas tecnologías, siendo el reescalado una opción más lógica.

Lisa Su dijo que este mismo año va a desvelar los planes de AMD en el ray tracing y comenta que se guarda información que sorprenderá. Veremos.
Lo que sí sospecho es que ese camino va a ser marcado al mismo tiempo con intel y quizás nvidia vea con preocupación lo que está por venir ya que tras el fracaso de gsync, puede venir otro al puro estilo F35 ( avión de combate estadounidense ) ... o no.


la cosa es y veo yo remitiendo a los hechos del mercado y lo disponible comercialmente es que estas 2 nuevas tecnologías necesitan si o si DirectX 12 y pues optimizar o funcionar bajo ella requiere que los desarrolladores trabajen bajo ella lo cual asi lleva aun mas tiempo va a impulsar el uso de DirectX 12 como es, y por lo que entiendo sobre como trabaja DirectX 12 por el lado de AMD despegaría ese potencial (cosa que es un hecho cuando revisas las implementaciones de DirectX 12 actuales)

con respeto a sobre usarlo en tarjetas de vídeo sin hardware que acelere esos cálculos.. yo creo que hay que tomarlo o verlo de manera objetiva y realista, si bn es cierto que contar con hardware especializo y dedicado para ello debe dar una ventaja y mejora desde el punto de vista técnico, pero yo miro que el limite gráfico en la actual generación de videojuegos la ponen las consolas, el punto es que estas tecnologías si lo vemos desde el punto de vista técnico y de la documentación presentada por parte de microsoft no veo ningún impedimento para que estas lleguen a las consolas lo cual le permite a los desarrolladores de juegos implementarlas.. y evidentemente llevarlas a PC... lo otro es que no saben como funcionen sin hardware especializado... pero si sabemos que NVIDIA con una optimizacion mejoro mucho su rendimiento... ahora si hablamos de la vega y de las amd radeon en general es hecho que mucho de su poder de computo no se usa en juegos y que DirectX 12 permite paralelizar muchos tareas/procesos aprovechando el potencial del hardware y visto lo visto y que como dices aun no se ha implementado a gran escala/difusión pero la ganancia es real en lo que se ha visto

para concluir antes creo yo no existía una motivación real para implementar DirectX 12 como es.. pero a dia hoy si lo hay, la cosa es y el Gsync lo ha demostrado es que una tecnología cerrada y exclusiva a la larga no queda si el costo no la acompaña y mas si la competencia ofrece algo igual o así sea inferior siempre que no lleve un coste adicional.... y otro hecho es que tanto DRX y Direct ML no empezaron a desarrollar hoy ni hace unos meses ya llevan añitos encima mucho antes que hubiera hardware especializado como ahora... si bn es cierto que a AMD no le ha ido también comercialmente la cosa es que no le han dado el impulso necesario a sus desarrollos (no entrare aca debatir sobre los gameworks y demás cosas que nvidia a ido dando a los desarrolladores sobre si es mejor o no que lo disponible y que es abierto.. ya que la cosa es que que se adopto)... la cosa es que la escena esta cambiando y no voy a irme con teorías y supuesto pero de momento es lo que pinta todo.. el tiempo dirá que es verdad pero por ahora la cosa pinta que tiene muchas razones para ir por ese camino
descoat escribió:@francisco231
Doom usa vulkan, así que no tiene relación con sponsorización y rendimiento extra. Bf V está patrocinado por nvidia y Radeon rinde mejor bajo ese motor gráfico.

Las nuevas consolas imagino que te refieres a la generación que está por venir, ¿no?
Sony hace programación a bajo nivel con su propia api y microsoft comparte ecosistema con windows 10. Si sony hubiese usado vulkan, estaríamos viendo un panorama distinto en Pc.

Sólo ver God of War en un TV 4k/HDR, te das cuenta de la importancia de este tipo de programación y lo que es capaz de hacerse en un sistema cerrado con un hardware mediocre. Con Vega 64/ Ryzen, podrían hacer auténticas obras de arte. Haber dejado Mantle abandonado, les supuso un palo brutal en su lucha por igualar a nvidia. Directx12 es como el cuento de la lechera.

Xbox esta generacion usa directx 11, en la siguien segun rumores usaran una grafica amd y ryzen vamos que hay usaran directx 12 seguro, asi que no estaria lejos el empezar a tener juegos nativos de directx 12 y ver el potencial oculto de las vegas, no es lo mismo juego nativo ejemplo forza 4 gears of war 4 con parcheados, tipo battlefield, the division
cuando se esperan las nuevas graficas de amd?
@JagerCrow
Pero implementar un parche para que haga correr el juego bajo directx12 no hace que el juego sea nativo directx12. Ahí tienes battlefield V.
Es la ley del mínimo esfuerzo. Luego sacas juegos como forza horizon 4 y las Radeon vuelan bajo directx 12 nativo.

@francisco231
Hay juegos dx12 nativos corriendo en Xbox One. Tengo el forza horizon 4 en la One X a 4k, 60 fps y HDR con la APU Amd. Ahi ves el potencial del hardware Bajo arquitectura GCN. La gráfica que lleva la One X es una polaris modificada mejor que la 480 y un ancho de banda de la memoria más cercano a las vega que a polaris.

@chrispro
Se anuncian en el E3. Saldrán en el tercer trimestre ( probablemente ) o final del segundo. Son las Navi y se sigue con arquitectura GCN pero a 7nm. Gama medio/baja.
@descoat Hombre pero quien esta hablando de implementar parches para "hacer un juego DirectX 12 Nativo", el punto es que de lo que se ha visto hasta ahora se nota el DirectX 12, así como también es evidente que migrar A DirectX 12 no es barato, ni fácil, el punto es que ahora hay el incentivo para hacerlo tanto por consolas como por hardware de pc con características exclusivas de DirectX 12 y hay en donde se va a ver realmente que tienen AMD para Ofrecer con respecto a NVIDIA
@JagerCrow
Lo que pasa es que llega tarde... Radeon va a jubilar GCN. Lo bueno es que nuestras tarjetas van a ser más longevas y eso es un cierto premio que recogeremos pronto.

Por cierto, hablando de VEGA.
Os comento a todos los poseedores de tarjetas Asus Strix vega 64.:

He bajado las roms de todas las vega 64 en su versión refrigeración líquida y he tratado de flashear una de las dos Bios haciendo copia de seguridad de la actual y.... no acepta ninguna por incompatibilidad de versión.

El tema de las Bios LC es que no implementan ese thermal throttling a temperaturas tan bajas y por eso se meten en frecuencias hasta los 1750mhz. Habrá que comprobar si pasándola por agua, evitamos ese capado del TT.

Y es una pena porque Asus ha hecho el mejor PCB de todas las Vega 64, con unas fases cojonudas al igual que el mayor número de fases, superando las del modelo de referencia y alejándolas de la GPU para que los MOSFET no calentasen la zona.
Al tener muchas más fases, también trabajan menos y no se calientan tanto.
El controlador PWM también es de mayor calidad.
Está claro que los que hemos optado por la Asus, tenemos a priori un PCB cojonudo, pero con capado de serie en la BIOS.

Los que teneis la Asus strix vega 56, tampoco podeis flashear con la bios de la 64 porque lleva memoria hynix y la 64 monta la samsung. Igual con otras roms podreis.
Ah entonces las de VII estas de febrero cual es
@chrispro
Creía que te referías a las siguientes en anunciarse.
Primera semana de febrero llegan las vega VII.
@descoat o digo por ver si bajara de precio las nvidia.. o si planta cara a la 2080... estoy para pillar una grafica y lo mismo espero 2 semanas...
@chrispro
Acaban de salir varias 2080 rtx a 500 y pico euros. Por ese precio, no vale la pena ni de coña una vega VII; más cara y peor.
Las vega 56 de referencia y flasheándolas con bios de vega 64, es lo apetecible en Radeon hoy en día.
@descoat creo que ha sido un bulo lo de la.msi aero a 544.. 550.. segun lei en internet camcelaron los envios.. no hay stock en las webs.. y nada.. esperando una ofertilla ando
@descoat tienes una asus strix vega 64??
podrias pasarme tu perfil de undervolt para ver si consigo algo de rendimiento?? le hago undervolt, pero no veo que los juegos me den mas fps...
the_aeon escribió:@descoat tienes una asus strix vega 64??
podrias pasarme tu perfil de undervolt para ver si consigo algo de rendimiento?? le hago undervolt, pero no veo que los juegos me den mas fps...


Cada silicio es distinto en Vega. Para conseguir el mejor resultado has de probar por tí mismo distintas combinaciones, pero te dejo mi perfil definitivo por aire

1646 mhz aproximadamente le asigno 1.08 voltios en la GPU
El penúltimo escalón a la frecuencia por defecto y a 1.07 voltios
La HBM a 1100 mhz y 1.05 voltios.

No me pasa de 55 grados con los ventiladores de 12cm a mitad de revoluciones y muy silencioso.

Date cuenta que he cambiado pasta térmica y he puesto un nuevo thermal pad ( grizzly ) a los mosfets, asegurándome que tocaba bien el disipador.

Con ese perfil, me va a 1615 mhz ( gpu ) sin bajar casi nunca en Assassins Creed Origins a 80-100 fps con todo en ultra. La memoria también a 1100mhz constantes. Si subo el voltaje a partir de ahí, me capa los mhz y los fps. A 1.2 voltios va como el culo y de 1400mhz no sube.

Con los ventiladores de serie y el thermal pad original, no podía hacer eso.
Ya me ha llegado el radiador de cobre y el líquido de la refrigeración líquida, pero me falta el bloque para la vega y el resto de componentes. Igual me toca devolver el bloque porque no de adapte bien a la asus y le meto uno que tengo por agua a los mosfets y otro bloque de cpu a la gpu-hbm.
Cuando lo tenga, veremos si me permite subir algo más, pero tal cual, me vuela y va todo como un tiro.
descoat escribió:
the_aeon escribió:@descoat tienes una asus strix vega 64??
podrias pasarme tu perfil de undervolt para ver si consigo algo de rendimiento?? le hago undervolt, pero no veo que los juegos me den mas fps...


Cada silicio es distinto en Vega. Para conseguir el mejor resultado has de probar por tí mismo distintas combinaciones, pero te dejo mi perfil definitivo por aire

1646 mhz aproximadamente le asigno 1.08 voltios en la GPU
El penúltimo escalón a la frecuencia por defecto y a 1.07 voltios
La HBM a 1100 mhz y 1.05 voltios.

No me pasa de 55 grados con los ventiladores de 12cm a mitad de revoluciones y muy silencioso.

Date cuenta que he cambiado pasta térmica y he puesto un nuevo thermal pad ( grizzly ) a los mosfets, asegurándome que tocaba bien el disipador.

Con ese perfil, me va a 1615 mhz ( gpu ) sin bajar casi nunca en Assassins Creed Origins a 80-100 fps con todo en ultra. La memoria también a 1100mhz constantes. Si subo el voltaje a partir de ahí, me capa los mhz y los fps. A 1.2 voltios va como el culo y de 1400mhz no sube.

Con los ventiladores de serie y el thermal pad original, no podía hacer eso.
Ya me ha llegado el radiador de cobre y el líquido de la refrigeración líquida, pero me falta el bloque para la vega y el resto de componentes. Igual me toca devolver el bloque porque no de adapte bien a la asus y le meto uno que tengo por agua a los mosfets y otro bloque de cpu a la gpu-hbm.
Cuando lo tenga, veremos si me permite subir algo más, pero tal cual, me vuela y va todo como un tiro.

Te ve a 80-100 fps en el assassins a que resolución? a mi a 3440x1440 me va a unos 50-60 fps
no me quiero liar a desmontar la gráfica y perder la garantía, no tienes el perfil que usabas cuando la tenias de serie??
Edito:Y el power limit??
gracias
Creo que eres al unico que bajando voltaje le va peor que de stock.

[+risas] Algo raro debes estar haciendo al poner el UV
@the_aeon
1080p pero con absolutamente todo en ultra. Mi monitor 4k lo tengo para las consolas.
Haz Alt + cntrl+ O y mira los hz de la GPU en ese juego.
¿Qué parámetros de hz y voltios tienes en GPU y CPU?

Para mantener la garantía puedes quitar los ventiladores y sustituirlos por los de 12cm de alta presión como @MicroViVi que te mejora mucho las temperaturas.
@the_aeon el power limit a tope. +50%

Yo dejo mi periplo con la Vega. La he devuelto, me he liado una manta a la cabeza y me he pillado una 2080. A ver si me estoy quieto ya. Saludos.
Con la gráfica de serie en el assassins me va a unos 1520 mhz, la cpu sobre el 75% con la resolución que he comentado, luego probaré a 1080p a ver cuantos fps me da.
No es que haciendo undervolt me vaya peor como han dicho, es que no gano fps, tampoco pierdo.

Si pongo el power limit a +50 sin hacerle undervolt se me pone la pantalla en negro con los juegos, supongo que la fuente no aguanta.

He pensado hacer lo mismo que el compañero y comprarme una Radeon VII, vender mi vega 64, las lenovo explorer que me compre hace poco y los juegos que te regalan con la gráfica y creo que me gastaría unos 150 euros y tendría gráfica nueva
the_aeon escribió:Con la gráfica de serie en el assassins me va a unos 1520 mhz, la cpu sobre el 75% con la resolución que he comentado, luego probaré a 1080p a ver cuantos fps me da.
No es que haciendo undervolt me vaya peor como han dicho, es que no gano fps, tampoco pierdo.

Si pongo el power limit a +50 sin hacerle undervolt se me pone la pantalla en negro con los juegos, supongo que la fuente no aguanta.

He pensado hacer lo mismo que el compañero y comprarme una Radeon VII, vender mi vega 64, las lenovo explorer que me compre hace poco y los juegos que te regalan con la gráfica y creo que me gastaría unos 150 euros y tendría gráfica nueva


Para hacer toda esa movida, te quedas como estás, o si necesitas un plus de potencia, te pasas a los verdes como ha hecho el compañero.

Edito: Aprovecho para preguntar, merece la pena registrar la strix? Amplían la garantía de dos años o algo?
Mendrolo escribió:
the_aeon escribió:Con la gráfica de serie en el assassins me va a unos 1520 mhz, la cpu sobre el 75% con la resolución que he comentado, luego probaré a 1080p a ver cuantos fps me da.
No es que haciendo undervolt me vaya peor como han dicho, es que no gano fps, tampoco pierdo.

Si pongo el power limit a +50 sin hacerle undervolt se me pone la pantalla en negro con los juegos, supongo que la fuente no aguanta.

He pensado hacer lo mismo que el compañero y comprarme una Radeon VII, vender mi vega 64, las lenovo explorer que me compre hace poco y los juegos que te regalan con la gráfica y creo que me gastaría unos 150 euros y tendría gráfica nueva


Para hacer toda esa movida, te quedas como estás, o si necesitas un plus de potencia, te pasas a los verdes como ha hecho el compañero.

Edito: Aprovecho para preguntar, merece la pena registrar la strix? Amplían la garantía de dos años o algo?

En teoría la Radeon VII es similar a la 2080, quiero esperar a los análisis.
Además la Radeon es 100 euros más barata y si vendo los 3 juegos que regalan, me sale más económico todo.
También mi monitor es freesync y de momento no es compatible con Nvidia, no quiero perder el freesync, va de lujo eso
the_aeon escribió:
Mendrolo escribió:
the_aeon escribió:Con la gráfica de serie en el assassins me va a unos 1520 mhz, la cpu sobre el 75% con la resolución que he comentado, luego probaré a 1080p a ver cuantos fps me da.
No es que haciendo undervolt me vaya peor como han dicho, es que no gano fps, tampoco pierdo.

Si pongo el power limit a +50 sin hacerle undervolt se me pone la pantalla en negro con los juegos, supongo que la fuente no aguanta.

He pensado hacer lo mismo que el compañero y comprarme una Radeon VII, vender mi vega 64, las lenovo explorer que me compre hace poco y los juegos que te regalan con la gráfica y creo que me gastaría unos 150 euros y tendría gráfica nueva


Para hacer toda esa movida, te quedas como estás, o si necesitas un plus de potencia, te pasas a los verdes como ha hecho el compañero.

Edito: Aprovecho para preguntar, merece la pena registrar la strix? Amplían la garantía de dos años o algo?

En teoría la Radeon VII es similar a la 2080, quiero esperar a los análisis.
Además la Radeon es 100 euros más barata y si vendo los 3 juegos que regalan, me sale más económico todo.
También mi monitor es freesync y de momento no es compatible con Nvidia, no quiero perder el freesync, va de lujo eso


Yo vuelvo a repetir lo que ya he dicho varias veces, no se donde veis que teóricamente vaya a ser más barata que la 2080. 700 dolares + iva da unos 730 euros. Tienes la 2080 ventus por ese mismo precio en pccomponentes.

En lo del freesync ya no me meto, es una de las razones por las que yo compré la 64, y si tu monitor no es compatible con las nvidia y no piensas cambiarlo en breve, ya si me parece un argumento de más peso.

En todo caso, lo sensato como dices es esperar.
@the_aeon
Sigues sin decirme a qué voltaje lo tienes, tanto GPU como HBM. Es fundamental para que te ayudemos.
Imagino que la palanca de selección de la BIOS está en modo Performance (P), ¿no?. Como lo tengas en Q, ya sabes..
¿Qué fuente tienes?

La 2080 GTX es mejor tarjeta que la Vega VII lo mires por donde lo mires. Te regalan igualmente 2 juegos, supuestamente valdrá lo mismo o menos si la rebajan eventualmente y que quereis que os diga... ray tracing en muchos juegos viejos que irán apareciendo como Quake, o Doom, o los nuevos... unido a otras tecnologías, consumiendo menos, además de un extra en VR por renderizar por zonas y poder adaptar el máximo rendimiento donde estás mirando.

La Vega VII era un movimiento cojonudo sin esos 16GB de Vram y a 500 dolares sin necesidad de regalar juegos. Ahí compensaría frente a la 2070 rtx con mejor rendimiento a igual precio pero sin rtx ni tensor cores. De la forma que sale, no es atractiva.

A mi porque la vega asus strix 64 con el bloque de agua, me salió por lo mismo que una 2070 rtx y rinde más que la nvidia, porque de otro modo, no la compro.
1704 respuestas