[HO] Radeon RX 6000 Family

sento01 escribió:
Caniyan escribió:Pues al final he decidido comprar una gráfica de mierda por lo menos para montar el PC que tengo todos los componentes parados desde diciembre. No estoy dispuesto a pagar 300€ de sobre coste por que si. Cuando encuentre algo a su precio ya comprare gráfica, de momento los juegos en la consola.
Así que este finde voy a montar un flamante 5800x con una pedazo de GT 710 2GB [qmparto] [qmparto] [qmparto]
Voy a fundir el misterio!! No se si el PCIe 4 aguantara tanta potencia, lo mismo me hace cuello de botella el procesador [qmparto] [qmparto] [qmparto]

Menudo año..... Y yo todo contento cuando vendí el año pasado mi 1080Ti por 450€ [+risas]

Y por qué no pillaste otra gráfica? Porque el año pasado había poco stock pero algo había..


Porque vendí en marzo del año pasado el pc completo para montar uno nuevo con la salida de los nuevos Ryzen y gráficas.... Total que tengo todo desde diciembre salvo la puta gráfica. Que iba a saber yo que pasaría esto :(
Ahora a cruzar los dedos y que no falle nada que ya no se puede devolver [+risas]
Imagen
loco_desk escribió:
Caniyan escribió:Pues al final he decidido comprar una gráfica de mierda por lo menos para montar el PC que tengo todos los componentes parados desde diciembre. No estoy dispuesto a pagar 300€ de sobre coste por que si. Cuando encuentre algo a su precio ya comprare gráfica, de momento los juegos en la consola.
Así que este finde voy a montar un flamante 5800x con una pedazo de GT 710 2GB [qmparto] [qmparto] [qmparto]
Voy a fundir el misterio!! No se si el PCIe 4 aguantara tanta potencia, lo mismo me hace cuello de botella el procesador [qmparto] [qmparto] [qmparto]

Menudo año..... Y yo todo contento cuando vendí el año pasado mi 1080Ti por 450€ [+risas]


Cuidado compañero..... Intenta puentear los otros PCI EXPRESS de la placa con el principal para que fluya la potencia y se reparta por todos a la vez, si no corre el riesgo de EXPLOTAR de tanto gibaflow junto.

Un saludo y siganme para más cyberconsejos



P.D : Me he agenciado un Ryzen 7 3700x para sustituir a mi Ryzen 5 3600. Ahora mismo lo tenía a 4,25ghz con 1.2v si no me equivoco. A ver si me sale mínimo como este, se que con el tiempo, acabaré con un Ryzen 9 5900x, pues igual que noto ahora que el Ryzen 3600 me hace cuello de botella a la RX 6900 XT, veo que aunque sea por TOC acabaré con esa misma sensación con el 3700x.

¿Notais cuello de botella en la 6900 XT con los 3700x?¿Qué frecuencias gastáis?

Un saludo y gracias


Yo tuve un tiempo la 6800XT con un 3900X con memos a 3800MHz, y a 1440p todo al máximo el Shadow of the Tomb Raider me rendía como un 30% menos que el 5800X en algunos puntos del mapa de la ciudad perdida, casi nada.
Pacorrr escribió:
loco_desk escribió:
Caniyan escribió:Pues al final he decidido comprar una gráfica de mierda por lo menos para montar el PC que tengo todos los componentes parados desde diciembre. No estoy dispuesto a pagar 300€ de sobre coste por que si. Cuando encuentre algo a su precio ya comprare gráfica, de momento los juegos en la consola.
Así que este finde voy a montar un flamante 5800x con una pedazo de GT 710 2GB [qmparto] [qmparto] [qmparto]
Voy a fundir el misterio!! No se si el PCIe 4 aguantara tanta potencia, lo mismo me hace cuello de botella el procesador [qmparto] [qmparto] [qmparto]

Menudo año..... Y yo todo contento cuando vendí el año pasado mi 1080Ti por 450€ [+risas]


Cuidado compañero..... Intenta puentear los otros PCI EXPRESS de la placa con el principal para que fluya la potencia y se reparta por todos a la vez, si no corre el riesgo de EXPLOTAR de tanto gibaflow junto.

Un saludo y siganme para más cyberconsejos



P.D : Me he agenciado un Ryzen 7 3700x para sustituir a mi Ryzen 5 3600. Ahora mismo lo tenía a 4,25ghz con 1.2v si no me equivoco. A ver si me sale mínimo como este, se que con el tiempo, acabaré con un Ryzen 9 5900x, pues igual que noto ahora que el Ryzen 3600 me hace cuello de botella a la RX 6900 XT, veo que aunque sea por TOC acabaré con esa misma sensación con el 3700x.

¿Notais cuello de botella en la 6900 XT con los 3700x?¿Qué frecuencias gastáis?

Un saludo y gracias


Yo tuve un tiempo la 6800XT con un 3900X con memos a 3800MHz, y a 1440p todo al máximo el Shadow of the Tomb Raider me rendía como un 30% menos que el 5800X en algunos puntos del mapa de la ciudad perdida, casi nada.



Gracias hombre.....

Has conseguido que el 3700x sea un hijo no deseado antes siquiera de haber nacido jajaja.

Un saludo compañero y gracias
joni89 escribió:@Gwyn, @eric_14 y a los que os interese os pongo un pequeño tutorial de lo que hice.

El addon es distill para chorme, está también para firefox, de puede instalar desde aquí:

https://chrome.google.com/webstore/detail/distill-web-monitor/inlikjemeeknofckkjolnjbpehgadgge?hl=es

Pasos que seguí:

1. Instalar desde el enlace (igual os pide reiniciar el navegador)
2. Comprobar que os aparece el icono de distill en la parte superior derecha del navegador (es como una gotita)
3. Crear cuenta para habilitar la opción de notificación por correo
4. Crear Alertas, creé dos alertas.
5. Alerta 1: cada 5 segundos con cualquier cambio en la página https://www.amd.com/en/direct-buy/es, pasos:
[spoiler]- Lo primero abrir la web que queremos monitorizar, hacemos click en el icono de distill (la gota) y le damos a la opción de "monitor full page"
Imagen
- Segundo, marcar el intervalo y correo electrónico, una vez hecho dar a guardar.
Imagen

6. Alerta 2: cada 7 segundos con cualquier cambio en el elemento que conforma la etiqueta "Out of stock", pasos:
- Igual que la alerta anterior, click en el icono y esta vez en lugar de hacer click en "monitor full page", seleccionamos "select parts of page"
Imagen
- Tendremos que elegir que monitorizar, selecciono el elemento que contiene la etiqueta "Out of stock" para la 6800 y 6800 xt en el ejemplo de la imagen (la verdad que el xpath montado es una hez, tampoco perdí tiempo en mejorarlo, esto podría dar problemas), una vez hecho esto le damos a "guardar selección"
Imagen
- Por último igual que en la anterior, seleccionamos intervalo y correo, le damos a guardar.
Imagen

7. Listo, una vez hecho esto ponemos a "on" el addon, haciendo click en el icono y dando al botón on
Imagen


La pega de esto, hay que dejar el navegador abierto. Lo que hice fue encender el ordenador a las 17:00 (algún compi dijo que solian reponer entre las 17:00 y las 19:00 de los jueves) y habilitar con todo lo anterior. En el caso del jueves, me empezaron a llegar correos sobre las 17:26 cambiando partes de la página, lo que recomendaría sería una vez os empiecen a llegar estos correos meteros de forma manual e ir dándole a refrescar con sesión y datos de tarjeta metidos en la cuenta para en cuanto esté disponible lo que queráis, intentarlo.

Para que os hagáis una idea, me llegó la primera notificación a las 17:26 y la última a las 17:40, sin poder haber revisado el stock "real" haciendo track de cambios entre correos aparentemente la 6800 xt estuvo en stock menos de 5 minutos.

Espero que os sirva y a ver si hay suerte! [oki]

En mi caso, era por mera curiosidad por ver como funcionaba esto, ya que conseguí una 6800 xt en pccomponentes el día de salida sin ningún tipo de bot o monitorización de este tipo, debí tener bastante suerte viendo como esta el tema ahora mismo [beer]

Entiendo que esto es bastante común y no hay problema, no obstante si desde administración creéis que esto es negativo o incumple alguna norma del foro borro el post y pido disculpas.[/spoiler]

Excelente tuto compañero, muchas gracias!!
¿Y cómo se dejan datos de sesión y tarjeta metidos?
M1n3r078 está baneado por "clon de usuario baneado"
wwwendigo escribió:La gama media a precio de gama top, ver para creer.

6700XT (Navi 22, la mitad del chip Navi 21 en lo más relevante, exprimido a tope, hasta 2/3 en caché, bus). 479$.
6800 (Navi 21, chip capado ad nausea y relajado de frecuencias, 20 CUs extra, and morrr). 579$.
6800XT (Navi 21, chip algo capado, frecuencias moderadas, casi igual que lo máximo de AMD/Nvidia). 649$.
....

:-| :-| :-| :-| :-| :-|

O sea, AMD, gracias por mejorar la carambola de nvidia con las gamas medias. Si ya es ridículo vender la 3060 por 329$ que no los encuentras en ningún lado (para empezar son las ensambladoras las primeras que han hinchado los precios, aún recuerdo el anuncio de Gigabyte con su modelo Aorus "tentándome" por 480 eurazos, y la mala respuesta que les di en RRSS por ello), poner a precio de consola "Top" de nueva (de)generación, por casi 500$$$$ una gama media que, aunque sea de un nivel prestacional mayor, con una subida al podio del medio centenar de pavos/oigos/cardos borriqueros, que no los gano todos los días es.... espectacular.

La 6700XT sería una gráfica BUENA si asumiera lo que es y saliera al precio que tendría que salir.

Es simplemente ridículo que la ya de por sí mal posicionada 6800 sólo valga 100 dólares más, con:

4 GB de VRAM extra. Más ancho de banda. Más "infinity" caché. Un 50% más de CUs, TMUs, motores de shaders. Pero sin apretarle el culo con frecuencias más moderadas, que ya subirás tú si quieres. Dudo que la 6700XT tenga mucho margen de OC, excepto que use voltajes que no vemos en las Navi 21.

Si vas a pagar casi 500 napos por una gráfica de gama media, media-alta, te dejas de tonterías y vas por la gama alta por otros 100, o directamente te dejas de ratear y te vas a la 6800XT que son 170$ extra, por una gráfica que está a otro nivel, se mire como se mire.

¿Cómo podemos mirar como "normal" algo como esto, cómo podemos aplaudir que AMD esté subiendo precios NO entre generaciones, NOOOO, sino DENTRO DE UNA MISMA GENERACIÓN y además con los productos más sensibles con el precio?

¿Cómo puede ser que el producto "para las masas" tenga peor relación rendimiento/precio que sus hermanas mayores, esto qué es?

Pero vamos a ver, que te compras la XBOX series X o la PS5 con disco por el precio de esta gráfica.
Que hasta la series X lleva una gpu aparentemente más compleja (más CUs, posiblemente más ROPs y demás, un ancho de banda más alto sí o sí a memoria, no sé si habrá o no misma infinity cache en las consolas, pero compensan de sobra con... todo lo demás), y la PS5 se parece un cojón a ésta pero en versión recortada (32 vs 40 CUs, frecuencias altas pero no tanto).

Pero es que en el lote te veden una cpu octocore Zen 2, 16 GB de VRAM GDDR6, un SSD ultrarrápido, y todo un sistema con controles, cooooooñooooo.

Que se está volviendo ridículo comprar en PC.

Y lo peor de todo es que no se va a vender a ese PVP, que en realidad es sólo el pistoletazo de salida para el sangrado de los incautos que caigan en la trampa, como ha pasado con los risibles precios de las RTX 3060.

Es para mandar a tomar por culo al gaming PC y a las empresas que ¿viven? de él.


Y para más inri "Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs"

M1n3r078 escribió:Y para más inri "Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs"


Como poseedor de una 3070 y un ryzen 1700 esto me parece una vergüenza y nvidia tiene que arreglarlo para antes de ayer.
M1n3r078 escribió:
wwwendigo escribió:La gama media a precio de gama top, ver para creer.

6700XT (Navi 22, la mitad del chip Navi 21 en lo más relevante, exprimido a tope, hasta 2/3 en caché, bus). 479$.
6800 (Navi 21, chip capado ad nausea y relajado de frecuencias, 20 CUs extra, and morrr). 579$.
6800XT (Navi 21, chip algo capado, frecuencias moderadas, casi igual que lo máximo de AMD/Nvidia). 649$.
....

:-| :-| :-| :-| :-| :-|

O sea, AMD, gracias por mejorar la carambola de nvidia con las gamas medias. Si ya es ridículo vender la 3060 por 329$ que no los encuentras en ningún lado (para empezar son las ensambladoras las primeras que han hinchado los precios, aún recuerdo el anuncio de Gigabyte con su modelo Aorus "tentándome" por 480 eurazos, y la mala respuesta que les di en RRSS por ello), poner a precio de consola "Top" de nueva (de)generación, por casi 500$$$$ una gama media que, aunque sea de un nivel prestacional mayor, con una subida al podio del medio centenar de pavos/oigos/cardos borriqueros, que no los gano todos los días es.... espectacular.

La 6700XT sería una gráfica BUENA si asumiera lo que es y saliera al precio que tendría que salir.

Es simplemente ridículo que la ya de por sí mal posicionada 6800 sólo valga 100 dólares más, con:

4 GB de VRAM extra. Más ancho de banda. Más "infinity" caché. Un 50% más de CUs, TMUs, motores de shaders. Pero sin apretarle el culo con frecuencias más moderadas, que ya subirás tú si quieres. Dudo que la 6700XT tenga mucho margen de OC, excepto que use voltajes que no vemos en las Navi 21.

Si vas a pagar casi 500 napos por una gráfica de gama media, media-alta, te dejas de tonterías y vas por la gama alta por otros 100, o directamente te dejas de ratear y te vas a la 6800XT que son 170$ extra, por una gráfica que está a otro nivel, se mire como se mire.

¿Cómo podemos mirar como "normal" algo como esto, cómo podemos aplaudir que AMD esté subiendo precios NO entre generaciones, NOOOO, sino DENTRO DE UNA MISMA GENERACIÓN y además con los productos más sensibles con el precio?

¿Cómo puede ser que el producto "para las masas" tenga peor relación rendimiento/precio que sus hermanas mayores, esto qué es?

Pero vamos a ver, que te compras la XBOX series X o la PS5 con disco por el precio de esta gráfica.
Que hasta la series X lleva una gpu aparentemente más compleja (más CUs, posiblemente más ROPs y demás, un ancho de banda más alto sí o sí a memoria, no sé si habrá o no misma infinity cache en las consolas, pero compensan de sobra con... todo lo demás), y la PS5 se parece un cojón a ésta pero en versión recortada (32 vs 40 CUs, frecuencias altas pero no tanto).

Pero es que en el lote te veden una cpu octocore Zen 2, 16 GB de VRAM GDDR6, un SSD ultrarrápido, y todo un sistema con controles, cooooooñooooo.

Que se está volviendo ridículo comprar en PC.

Y lo peor de todo es que no se va a vender a ese PVP, que en realidad es sólo el pistoletazo de salida para el sangrado de los incautos que caigan en la trampa, como ha pasado con los risibles precios de las RTX 3060.

Es para mandar a tomar por culo al gaming PC y a las empresas que ¿viven? de él.


Y para más inri "Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs"




¿Pero qué me estás "container"? Eso lo tengo que ver con detalle, no me fío mucho de hardwareunboxed por mucha razones (mala metodología, trolls del copón, odio contra nvidia, etc), pero habrá que ver de qué va el vídeo y ver si hay algo de mimbres detrás.

Sería raro, porque de forma tradicional es AMD la que tiene una sobrecarga en el driver contra las cpus, y de hecho yo aún la puedo percibir en muchos juegos DX11 o con APIs anteriores, OpenGL, etc (pasa con pocos juegos y en algunas situaciones muy concretas, pero lo tengo más o menos controlado cuándo sucede).

De hecho, ahora que ha salido el tema de conversación, el otro día me quedé con cara de mico viendo que la Radeon Rx 580 no pasaba de 35-40 fps en STALKER Clear Sky, un juego antiguo y DX10, en la zona de la base principal de Clear Sky en los pantanos, siendo una escena "compleja" pero ni de coña justificable y menos con una cpu actual esa tasa de fps. Pero lo que había era claramente una limitación por cpu, la gpu estaba cerca de máximos, es cierto, pero no llegaba, y había un hilo (el juego casi seguro es monohilo) que siempre estaba al 100% en la cpu. Así que blanco y en botella. También tengo controladas ciertas zonas de Fallout 4 donde el rendimiento es bajo y claramente por culpa de cpu, pero en ese caso también pasaba con las nvidia (y la única forma de sobrellevarlo es con mucha potencia por core, no hay más, un Zen 3 o así sería lo mínimo para eliminar ese problema, que ni siquiera es por un driver con sobrecarga en cpu).

A ver el vídeo de hardwareunboxed, entiendo que se refiere a la serie 3000, lo cierto es que AMD ha conseguido, por lo menos en juegos y APIs modernos, con la serie 6000 (y creo que mucho gracias a la infinity cache), unas tasas de fps altísimas en proporción a bajas resoluciones, y también picos máximos o mínimos notables, más conociendo la trayectoria de AMD con el tema de la cpudependencia.

Sería lo que faltaba para tener totalmente el mundo al revés. Ya le echaré un ojo a los trolacos de hardwareunboxed, a ver si tienen razón o están haciendo de las suyas, pero es lo que le faltaba a nvidia, ya. Perder el tema del driver-cpu.... [qmparto]
@wwwendigo yo lo que dudo es si han probado con distintas versiones del driver de nvidia, a ver si es una version puntual o que.

Porque no solo pasa con Ampere tambien pasa con la gama 2000, tanto con Amd como con intel en cpu.
Pues nada ya han puesto stock... no sé si de la 6800 o no porque ni me ha avisado pero sí que hay de las cpu cuando antes no habían... así que nada.
M1n3r078 está baneado por "clon de usuario baneado"
wwwendigo escribió:
M1n3r078 escribió:
wwwendigo escribió:La gama media a precio de gama top, ver para creer.

6700XT (Navi 22, la mitad del chip Navi 21 en lo más relevante, exprimido a tope, hasta 2/3 en caché, bus). 479$.
6800 (Navi 21, chip capado ad nausea y relajado de frecuencias, 20 CUs extra, and morrr). 579$.
6800XT (Navi 21, chip algo capado, frecuencias moderadas, casi igual que lo máximo de AMD/Nvidia). 649$.
....

:-| :-| :-| :-| :-| :-|

O sea, AMD, gracias por mejorar la carambola de nvidia con las gamas medias. Si ya es ridículo vender la 3060 por 329$ que no los encuentras en ningún lado (para empezar son las ensambladoras las primeras que han hinchado los precios, aún recuerdo el anuncio de Gigabyte con su modelo Aorus "tentándome" por 480 eurazos, y la mala respuesta que les di en RRSS por ello), poner a precio de consola "Top" de nueva (de)generación, por casi 500$$$$ una gama media que, aunque sea de un nivel prestacional mayor, con una subida al podio del medio centenar de pavos/oigos/cardos borriqueros, que no los gano todos los días es.... espectacular.

La 6700XT sería una gráfica BUENA si asumiera lo que es y saliera al precio que tendría que salir.

Es simplemente ridículo que la ya de por sí mal posicionada 6800 sólo valga 100 dólares más, con:

4 GB de VRAM extra. Más ancho de banda. Más "infinity" caché. Un 50% más de CUs, TMUs, motores de shaders. Pero sin apretarle el culo con frecuencias más moderadas, que ya subirás tú si quieres. Dudo que la 6700XT tenga mucho margen de OC, excepto que use voltajes que no vemos en las Navi 21.

Si vas a pagar casi 500 napos por una gráfica de gama media, media-alta, te dejas de tonterías y vas por la gama alta por otros 100, o directamente te dejas de ratear y te vas a la 6800XT que son 170$ extra, por una gráfica que está a otro nivel, se mire como se mire.

¿Cómo podemos mirar como "normal" algo como esto, cómo podemos aplaudir que AMD esté subiendo precios NO entre generaciones, NOOOO, sino DENTRO DE UNA MISMA GENERACIÓN y además con los productos más sensibles con el precio?

¿Cómo puede ser que el producto "para las masas" tenga peor relación rendimiento/precio que sus hermanas mayores, esto qué es?

Pero vamos a ver, que te compras la XBOX series X o la PS5 con disco por el precio de esta gráfica.
Que hasta la series X lleva una gpu aparentemente más compleja (más CUs, posiblemente más ROPs y demás, un ancho de banda más alto sí o sí a memoria, no sé si habrá o no misma infinity cache en las consolas, pero compensan de sobra con... todo lo demás), y la PS5 se parece un cojón a ésta pero en versión recortada (32 vs 40 CUs, frecuencias altas pero no tanto).

Pero es que en el lote te veden una cpu octocore Zen 2, 16 GB de VRAM GDDR6, un SSD ultrarrápido, y todo un sistema con controles, cooooooñooooo.

Que se está volviendo ridículo comprar en PC.

Y lo peor de todo es que no se va a vender a ese PVP, que en realidad es sólo el pistoletazo de salida para el sangrado de los incautos que caigan en la trampa, como ha pasado con los risibles precios de las RTX 3060.

Es para mandar a tomar por culo al gaming PC y a las empresas que ¿viven? de él.


Y para más inri "Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs"




¿Pero qué me estás "container"? Eso lo tengo que ver con detalle, no me fío mucho de hardwareunboxed por mucha razones (mala metodología, trolls del copón, odio contra nvidia, etc), pero habrá que ver de qué va el vídeo y ver si hay algo de mimbres detrás.

Sería raro, porque de forma tradicional es AMD la que tiene una sobrecarga en el driver contra las cpus, y de hecho yo aún la puedo percibir en muchos juegos DX11 o con APIs anteriores, OpenGL, etc (pasa con pocos juegos y en algunas situaciones muy concretas, pero lo tengo más o menos controlado cuándo sucede).

De hecho, ahora que ha salido el tema de conversación, el otro día me quedé con cara de mico viendo que la Radeon Rx 580 no pasaba de 35-40 fps en STALKER Clear Sky, un juego antiguo y DX10, en la zona de la base principal de Clear Sky en los pantanos, siendo una escena "compleja" pero ni de coña justificable y menos con una cpu actual esa tasa de fps. Pero lo que había era claramente una limitación por cpu, la gpu estaba cerca de máximos, es cierto, pero no llegaba, y había un hilo (el juego casi seguro es monohilo) que siempre estaba al 100% en la cpu. Así que blanco y en botella. También tengo controladas ciertas zonas de Fallout 4 donde el rendimiento es bajo y claramente por culpa de cpu, pero en ese caso también pasaba con las nvidia (y la única forma de sobrellevarlo es con mucha potencia por core, no hay más, un Zen 3 o así sería lo mínimo para eliminar ese problema, que ni siquiera es por un driver con sobrecarga en cpu).

A ver el vídeo de hardwareunboxed, entiendo que se refiere a la serie 3000, lo cierto es que AMD ha conseguido, por lo menos en juegos y APIs modernos, con la serie 6000 (y creo que mucho gracias a la infinity cache), unas tasas de fps altísimas en proporción a bajas resoluciones, y también picos máximos o mínimos notables, más conociendo la trayectoria de AMD con el tema de la cpudependencia.

Sería lo que faltaba para tener totalmente el mundo al revés. Ya le echaré un ojo a los trolacos de hardwareunboxed, a ver si tienen razón o están haciendo de las suyas, pero es lo que le faltaba a nvidia, ya. Perder el tema del driver-cpu.... [qmparto]


Me dejas de pasta de boniato y yo que pensé que era un site seria y hacia testeos objetivos... [360º]

Ergo por tu comentario debería presuponer que arriman la sardina al ascua que más calienta? Con el tema polémico del Ray Tracing al final nvidia les pidió disculpas públicamente con el pifostio que se montó en redes sociales.
El vídeo de hardwareunboxed no es troll, Nvidia tiene mucho más overhead en DX12 que AMD, justo al revés que en DX11. Todos los lanzamientos gordos vienen ya en DX12 de ahí que saquen ese vídeo.
M1n3r078 escribió:Me dejas de pasta de boniato y yo que pensé que era un site seria y hacia testeos objetivos... [360º]

Ergo por tu comentario debería presuponer que arriman la sardina al ascua que más calienta? Con el tema polémico del Ray Tracing al final nvidia les pidió disculpas públicamente con el pifostio que se montó en redes sociales.


A ver, el site nunca ha sido de los que tengo de referencia, y ahora que ya he visto el vídeo, hay algo que rechina en él a las claras:

- Demuestras que nvidia tiene un problema con juegos con ¿DX12? por ¿sobrecarga en la cpu?, y lo haces usando..... dos juegos. Eso sí, multitud de resoluciones y configuraciones de calidad. Pero dos juegos. Porque cuando quieres comprobar si algo es una anomalía dada en un título, y no una tendencia en toda una API, lo que haces es probar sólo en dos títulos. [oki]

Raro es decir poco, gasta el tiempo y prueba más juegos a resoluciones bajas, incluso a 720p si es menester, deja de desperdiciarlo a 1440p y 4K.

Hay razones para pensar que Hardwareunboxed no es neutral en sus reviews respecto a nvidia, ya sea por simple venganza, ya sea porque son unos especialistas en el salseo y generar polémica, muchas veces han creado mucho ruido paa auténticas chorradas.

Por ejemplo, las unidades para review no son una obligación para un fabricante para cada site o youtuber que decida analizar sus productos, de hecho hay muchos sites que se las tienen que arreglar consiguiendo unidades de las third parties (gigabyte, msi, etc) o de mano de tiendas o distribuidores.

Cuando ves que un site se dedica, una y otra vez a ignorar los "consejos" de un fabricante que le cede su hard, y decide no dar importancia a características que éste quiere que se analicen, pues no sé cómo se puede extrañar nadie de esto, que el fabricante al final acabe no enviando el hard para review porque está perdiendo el tiempo y recursos en un site que no le supone rédito alguno.

Porque no nos engañemos, ni nvidia ni AMD envían unidades de testado antes de un lanzamiento a X sites por amor al arte, lo hacen para que haya una fuente de publicidad de su nuevo producto en cuanto sale, y el site lo hace por la review y, muchas veces, por quedarse con unidades de review (y algunos sites españoles son conocidos por andar revendiendo ese material por foros muy conocidos, la pela es la pela.... [qmparto] ). Ni intel, que dentro de poco se unirá a la ecuación en el tema de gpus.

Todos estos fabricantes envían con estas unidades una "guía del reviewer" donde literalmente recomiendan qué juegos y pruebas son interesantes pasar, qué configuraciones, y mil "consejos" más que evidentemente son interesados. A AMD le cazaron varias veces donde básicamente forzaba ciertas pruebas o censuraba ciertos juegos, así que nada bajo el cielo. Si parece duro que nvidia promocione el uso del DLSS en sus unidades de tests y reviews relacionadas, apaga y vámonos. Desde luego eso es mejor que promocionar el que NO se prueben ciertas cosas que no convengan.

Bueno, al meollo, hardwareunboxed armó mucho ruido porque les retiraran el soporte con unidades de review después de VARIAS ocasiones donde se pasaron por el arco del triunfo las recomendaciones de nvidia, llamándole "censura" a algo que, repito, no es una obligación y lo que es más, lo que debería ser más normal es conseguir una unidad por tu cuenta y probarla fuera del círculo de las unidades cedidas por fabricante, sobre todo cuando te quieres poner en aras de la "neutralidad".

Nvidia se "disculpó" evidentemente del tema en RRSS porque ese movimiento crea mala prensa, pero un site que hace algo así está mostrando una faceta que no tiene nada de neutral. Y ya van muchos otros artículos fuera de lugar de su parte.

Así que teniendo en cuenta los precedentes del site, que sólo han probado dos juegos, aún sin cuestionar que sus datos puedan ser reales y reflejan algún problema serio, qué quieres que te diga, prefiero ver este tema tratado por algún site que se moleste en comprobar hasta qué punto es real esto y qué no.

Sería extraño que nvidia tenga ahora un problema de "overhead" de driver con DX12 y, no lo tenga ni con Vulkan, ni con OpenGL ni DX11 (estos dos últimos, ¡al contrario!, arreglan en gran medida su naturaleza monohilo implícito vía driver), ni versiones de DX previas, y sí con DX12 cuando esta API está diseñada para ser explícitamente eficiente con sistemas multicore gracias a su naturaleza multihilo y de menor coste de proceso por llamada al API.

Que puede ser, ojo. Y más que nada, porque AMD en el caso de DX12 y Vulkan han hecho un esfuerzo grande aprovechando la naturaleza casi de "reseteo" de estas APIs respecto al uso de cpu, para proponerse eliminar su mal endémico en otras versiones/APIs más antiguas con el tema del procesador, y en estos dos casos el driver de AMD se ha mostrado sobradamente capaz. Que aquí no hay una situación como la previa que le ha dado tanta fama antiguamente a nvidia de requerir menos cpu en situaciones cpudependientes, aquí ambos han partido de cero y AMD poniéndose mucho las pilas.

Así que habrá que ver si se ve algo al respecto, si realmente en hardwareunboxed han levantado la liebre, en otros lares y con un análisis más amplios.

PepeC12 escribió:@wwwendigo yo lo que dudo es si han probado con distintas versiones del driver de nvidia, a ver si es una version puntual o que.

Porque no solo pasa con Ampere tambien pasa con la gama 2000, tanto con Amd como con intel en cpu.


Ésa es una de muchas cosas a cuestionar. El simple hecho de que sean sólo dos juegos los testados da margen de sobra a ser un problema de driver concreto o un problema en ciertas calidades aún arrastrado y por arreglar en futuros drivers (Legion no tiene mucho tiempo, pero Horizon sí tiene más, peroooo... tal y como va el tema de fixes/bugs en drivers gráficos, si el rendimiento anómalo es a calidades medias y 1080p en configuraciones gráficas que se orientan más a ultra y similares, bien puede haber un problema puntual que no se está atacando porque hay pocos reportes señalando esto como problema).
@wwwendigo pues a mi hwunboxed me parece bastante imparcial.

De hecho recomienda las nvidia 3000 sobre las amd 6000 por el dlss y el rt, quitandole importancia al escaso vram de la serie 3000.

Nvidia se columpio bastante cuando les baneo, además el mensaje enviado como que debían cambiar su direccion editorial me pareció de lo más sucio que he visto en los últimos años.

Yo lo que tengo claro es que ni amd ni nvidia me van a dar de comer y elegire el producto que más me convenza si me convence o no compraré ninguno si no me convencen.
A mí Hardware Unboxed también me parece de lo más limpio de la industria que analiza hardware.

Son críticos, tanto para bien como para mal. Y hacia todas las empresas.
Pues nada, son opiniones.

Pero eso no cambia que, de momento, los datos aún quedan por ser validados y, sobre todo, ver si es un patrón o no como dicen en los juegos DX12. Es que probarlos en dos, y basar todo en esa batería de pruebas taaan extensa pero dando vueltas con ese par de títulos, como que no.

Así que a la espera de ver más sobre el tema. Si es algo real saldrán más datos, y si es falso o hay otras razones en juego, ya se verán.
wwwendigo escribió:Pues nada, son opiniones.

Pero eso no cambia que, de momento, los datos aún quedan por ser validados y, sobre todo, ver si es un patrón o no como dicen en los juegos DX12. Es que probarlos en dos, y basar todo en esa batería de pruebas taaan extensa pero dando vueltas con ese par de títulos, como que no.

Así que a la espera de ver más sobre el tema. Si es algo real saldrán más datos, y si es falso o hay otras razones en juego, ya se verán.


Gwyn escribió:
wwwendigo escribió:Pues nada, son opiniones.

Pero eso no cambia que, de momento, los datos aún quedan por ser validados y, sobre todo, ver si es un patrón o no como dicen en los juegos DX12. Es que probarlos en dos, y basar todo en esa batería de pruebas taaan extensa pero dando vueltas con ese par de títulos, como que no.

Así que a la espera de ver más sobre el tema. Si es algo real saldrán más datos, y si es falso o hay otras razones en juego, ya se verán.





La gente no entiende, la gente es tonta... pero publico en una review dos juegos y paso la review a 1080p, 1440p y a 4K, con varios presets de calidad, siendo totalmente inútiles los 2 últimos, y dejo fuera de dicha review a todos esos juegos "que ya he analizado".

Porque me encanta perder el tiempo mío y de mis lectores, pasando y publicando datos en 4K.

Y de paso digo que la sobrecarga en cpu es por cosas del driver de nvidia, que es por no se qué tontería de que como con el driver DX12 nvidia la ha cagado por el multicore demasiado exigente y tal y cual (mal entendido de su inglés macarrónico de yanqui), cuando cualquiera que conozca algo sobre esto se callaría la boca y lo que haría es, aún publicando los resultados, decir que no entiende qué pasa ahí y de paso, preguntar a nvidia.

Pero no. Mejor se dice un disparate y después ya saldrán adoradores de un reviewer/youtuber que es claramente referencia. En fin... lo dicho, en unos días vemos cómo acaba esto y a ver si hay "watergate" o inventos, pero para mí, si quieres ir de serio, no dices la gilipollez que suelta ese tipo como excusa para no publicar datos relevantes pero sí muchos irrelevantes, fuera de la explicación extraña que se saca de la manga del driver DX12 y nvidia. [beer]

PD: Y yo sigo aquí, jugando por debajo de 40 fps en muchos puntos de Fallout 4 y una antigualla como Stalker Clear Sky, con una AMD "sobradísima" en potencia, justo por la cpudependencia, drivers, y APIs que éstas sí que sí se comían el rendimiento a base de tirar de monocore y ser ése el limitante. Y ojo, con Fallout 4 sí me pasaba esto con algunas de mis nvidia previas (quizás un poco menos intenso, teniendo en cuenta que tenía peor cpu en ese momento), pero desde luego NO con Stalker, que aún siendo un juego que rinde "extraño" en esas áreas, ni de coña me bajaba a esos 35-40 fps, y estoy hablando de cuando jugué a éste con las nvidia de gráficas de hace tres generaciones y cpus del tipo Sandy Bridge. Eso sí, juegos como The Shadow of Tomb Raider muy bien en cpu y tal, pero... ja. Cpudependencias ahora.

Que no me cuenten historias diciéndome que ahora es justo al revés con un API actual que justamente elimina la cpudependencia a base de ser explícitamente un API multihilo en gestión de llamadas. Si lo vas a publicar y demostrar, demuéstralo completo, no dos casos.

Y los que quieran creer, que crean. Que ya estaban de todas formas medio convencidos. Porque total, todos los demás reviewers son gilipollas y no han hecho ni nada testados con las nvidias últimas con 1080p y 720p buscando la cpudependencia, y no han llegado a esas conclusiones ni de coña.
wwwendigo escribió:
PD: Y yo sigo aquí, jugando por debajo de 40 fps en muchos puntos de Fallout 4 y una antigualla como Stalker Clear Sky, con una AMD "sobradísima" en potencia, justo por la cpudependencia, drivers, y APIs que éstas sí que sí se comían el rendimiento a base de tirar de monocore y ser ése el limitante. Y ojo, con Fallout 4 sí me pasaba esto con algunas de mis nvidia previas (quizás un poco menos intenso, teniendo en cuenta que tenía peor cpu en ese momento), pero desde luego NO con Stalker, que aún siendo un juego que rinde "extraño" en esas áreas, ni de coña me bajaba a esos 35-40 fps, y estoy hablando de cuando jugué a éste con las nvidia de gráficas de hace tres generaciones y cpus del tipo Sandy Bridge. Eso sí, juegos como The Shadow of Tomb Raider muy bien en cpu y tal, pero... ja. Cpudependencias ahora.

Que no me cuenten historias diciéndome que ahora es justo al revés con un API actual que justamente elimina la cpudependencia a base de ser explícitamente un API multihilo en gestión de llamadas. Si lo vas a publicar y demostrar, demuéstralo completo, no dos casos.

Y los que quieran creer, que crean. Que ya estaban de todas formas medio convencidos. Porque total, todos los demás reviewers son gilipollas y no han hecho ni nada testados con las nvidias últimas con 1080p y 720p buscando la cpudependencia, y no han llegado a esas conclusiones ni de coña.


Voy un poco perdido del tema, pero conoces Stalker Anomaly? Con todo el cambio a una versión modernizada del motor, se mejoro bastante el rendimiento. Pero no conozco todas las razones, ni estoy puesto al día con dx12 y como está afectado el overhead. De momento me quedo observando el tema.

Dejo un video sobre overhead y multihilo. A ver qué opináis. 10' 22'' punto donde comenta porque el scheduler de Nvidia puede tener una perdida de rendimiento en multihilo si el procesador está saturado. Creo que esto es a lo que HardwareUnboxed está refiriéndose?
No sé de qué se sorprenden algunos, si esto es sabido desde hace mucho tiempo, Nvidia va mejor en DX11 porque metió las command-list en sus drivers para mejorar el overhead, cosa que AMD nunca hizo, y en DX12 que es de bajo nivel y casi todo depende del programador siempre ha ido mejor en AMD, no estamos descubriendo el fuego ni nada parecido. Que no hayan artículos tratando el tema no significa que no sea cierto, y que Hardware Unboxed sólo haya puesto dos juegos de ejemplo, no significa que no hayan más. Probablemente acaben sacando otro vídeo con más juegos para los incrédulos. Siempre hay excepciones, tanto en DX11 en el lado de AMD, como en DX12 en el lado de Nvidia, pero en general es cierto que las AMD son más cpu dependientes en DX11 y las Nvidia en DX12.
Pacorrr escribió:No sé de qué se sorprenden algunos, si esto es sabido desde hace mucho tiempo, Nvidia va mejor en DX11 porque metió las command-list en sus drivers para mejorar el overhead, cosa que AMD nunca hizo, y en DX12 que es de bajo nivel y casi todo depende del programador siempre ha ido mejor en AMD, no estamos descubriendo el fuego ni nada parecido. Que no hayan artículos tratando el tema no significa que no sea cierto, y que Hardware Unboxed sólo haya puesto dos juegos de ejemplo, no significa que no hayan más. Probablemente acaben sacando otro vídeo con más juegos para los incrédulos. Siempre hay excepciones, tanto en DX11 en el lado de AMD, como en DX12 en el lado de Nvidia, pero en general es cierto que las AMD son más cpu dependientes en DX11 y las Nvidia en DX12.



Las command lists las tienen ambas compañias en sus driver porque es obligatorio su soporte para el API, otro asunto es que las command lists están bien ejecutadas en nvidia y mal en AMD (es lo que hay), porque el sentido de esta técnica es, básicamente, hacer una "lista de llamadas/comandos" conjuntas al API por el coste de "poco más de una", separando esa lista de comandos y procesándolos en hilos independientes. AMD implementó esto pero sin separar el listado de comandos en hilos independientes, dando como resultado que hay cero mejoras al usarla (tampoco era trivial del todo, y existen condiciones para crear una command list, como la independencia total entre comandos empaquetados, etc), posiblemente única característica del API DX11 que permite de forma nativa y más o menos explícita usar sistemas multicore para las llamadas del API.

Después nvidia ha metido a su vez otras mejoras tanto en DX11 como versiones anteriores, aligerando el tiempo por llamada (lo que está citando @Herionz), en OpenGL, etc. AMD simple y llanamente, no sé si es porque veía perdida la batalla en esas APIs, prefirió centrar todos los recursos en las nuevas APIs y empezar "de cero" e intentando implementar bien sus características multihilo.

Lo de que DX12 es de bajo nivel y tal, eso sólo importa al desarrollador del juego, y eso más bien lo que abre es una ventana a justificar mejores rendimientos por afinidades con ciertos hardware, no al driver en sí.

Se me hace harto difícil que nvidia lo esté "haciendo mal", quizás el problema es que las cosas se están viendo al revés, quizás no es que nvidia la haya cagado, quizás es que AMD ha hecho mejor los deberes con estas APIs.

Vulkan es un caso intermedio, y depende bastante del juego, a pesar de que AMD empezó más fuerte, la verdad es que nvidia parece haber recuperado mucho terreno y tiene sus puntos fuertes.

Y sí, hay artículos tratando esto, pero no hacen tanto teatro, de hecho en la propia Techspot (relacionada con HU) lo hay y no se ponían tan estupendos ni lanzaban acusaciones así de gravosas contra nvidia. Lo curioso es que para este vídeo el youtuber parece que ha elegidos los peores casos posibles. No, no son los únicos, y no, no siempre pasa, y hay otras anomalías en los resultados que parece que no se pueden explicar ni de coña por ni cpudependencia ni gpudependencia (valhalla).

Si se quiere analizar bien este tema, más que usar presets de calidad media (que se puede, para completar o reforzar datos), es más conveniente reducir la resolución a la mínima posible, no sólo a 1080p, y si se puede mantener calidades altas y forzando aún así cpudependencia, mejor. Porque normalmente en las calidades más altas suelen haber un número de llamadas al API mucho mayor que en calidades medias (distancia de visionado, LOD de objetos, etc), y es una forma más clara de testar la cpudependencia por el driver gráfico.

De todas formas el elenco de juegos que usan en Techspot es reducido, y hay bastantes juegos que van mejor en AMD en general, a toda calidad, por lo que haría falta usar muchos más.

Herionz escribió:
wwwendigo escribió:
PD: Y yo sigo aquí, jugando por debajo de 40 fps en muchos puntos de Fallout 4 y una antigualla como Stalker Clear Sky, con una AMD "sobradísima" en potencia, justo por la cpudependencia, drivers, y APIs que éstas sí que sí se comían el rendimiento a base de tirar de monocore y ser ése el limitante. Y ojo, con Fallout 4 sí me pasaba esto con algunas de mis nvidia previas (quizás un poco menos intenso, teniendo en cuenta que tenía peor cpu en ese momento), pero desde luego NO con Stalker, que aún siendo un juego que rinde "extraño" en esas áreas, ni de coña me bajaba a esos 35-40 fps, y estoy hablando de cuando jugué a éste con las nvidia de gráficas de hace tres generaciones y cpus del tipo Sandy Bridge. Eso sí, juegos como The Shadow of Tomb Raider muy bien en cpu y tal, pero... ja. Cpudependencias ahora.

Que no me cuenten historias diciéndome que ahora es justo al revés con un API actual que justamente elimina la cpudependencia a base de ser explícitamente un API multihilo en gestión de llamadas. Si lo vas a publicar y demostrar, demuéstralo completo, no dos casos.

Y los que quieran creer, que crean. Que ya estaban de todas formas medio convencidos. Porque total, todos los demás reviewers son gilipollas y no han hecho ni nada testados con las nvidias últimas con 1080p y 720p buscando la cpudependencia, y no han llegado a esas conclusiones ni de coña.


Voy un poco perdido del tema, pero conoces Stalker Anomaly? Con todo el cambio a una versión modernizada del motor, se mejoro bastante el rendimiento. Pero no conozco todas las razones, ni estoy puesto al día con dx12 y como está afectado el overhead. De momento me quedo observando el tema.

Dejo un video sobre overhead y multihilo. A ver qué opináis. 10' 22'' punto donde comenta porque el scheduler de Nvidia puede tener una perdida de rendimiento en multihilo si el procesador está saturado. Creo que esto es a lo que HardwareUnboxed está refiriéndose?


He visto esa parte del vídeo que citas, y mientras es interesante y alguna cosa se podria aplicar a lo que pasa hoy en día, por lo menos en cuanto a las nvidia se habla en el caso de DX12 del coste del software scheduling a través del driver vs por hard contra las AMD .... de la época. Esto está más centrado en la generación de Maxwell vs GCN varias, y no creo que afecte en absoluto a las dos últimas generaciones de nvidia (y juraría que tampoco, o por lo menos mucho menos, a las Pascal).

La parte que comentan que tiene más actualidad es el tema de DX11 y similares, y el tema de las command lists (aunque citar que pesa tanto o más el aligeramiento de timings que hicieron para las drawcall en esa API), porque se sigue aplicando más o menos así con las generaciones actuales de ambos fabricantes, AMD desde luego no se ha replanteado mejorar esos drivers en ese nivel, y nvidia hereda las mejoras entre generaciones. Como siguen habiendo juegos para DX11 y OpenGL, aunque ya no son mayoría, sigue siendo relevante. Y para los que jugamos a títulos no necesariamente actuales, pues mejor.

Pero sí, es interesante lo que dice cómo una situación de uso del API con multithreading implementado en driver (dx11) puede llegar a menoscabar el rendimiento, y sobre todo cómo se podría plantear el programador del juego la gestión de hilos de su juego teniendo en cuenta dos situaciones bien distintas (driver AMD o nvidia dx11 detrás del juego, conviene más evitar el "core" donde se aloje el hilo del driver en la medida de lo posible, y repartir al máximo el juego en el resto de hilos, y en nvidia esta política podría ser perjudicial, y viceversa).

Es posible que la naturaleza de DX12, más dada a ajustes a bajo nivel en temas gráficos, también sea más fácil cagarla o provocar efectos indeseados en según qué tarjetas. Ya el tema de la gestión de memoria se ha demostrado que es bastante menos amigable y para nada tendente a rebajar requisitos para una misma situación que con DX11 (mismos efectos y misma escena a renderizar, exactamente igual en código de shaders, pero parece que es básicamente imposible bajar el uso de VRAM de DX11 con DX12, y de hecho suele crecer).

En fin, ya veremos más sobre el tema, aunque no creo que pase de anecdótico, si es posible mejorar esto y ponerle a nvidia bajo advertencia para que espabile, entonces tampoco vendrá mal.


PD: Lo jodido es que, tal y como está el mercado, me olvido de andar probando en directo estas cosas con las nuevas gráficas. [qmparto]
Hasta donde yo sé, AMD nunca implementó en sus drivers las command-lists porque no lograron hacerlas funcionar. Lo que sí hizo AMD es trabajar bastante con apis de bajo nivel (mantle es el origen de vulkan) desde hace mucho tiempo y de ahí le puede venir la ventaja ahora en DX12, ni idea, pero los juegos cada vez más iran adoptando DX12 (o Vulkan en su defecto) y DX11 quedará como algo obsoleto o para juegos de segunda fila.
@wwwendigo por cierto, no son yankis son australianos.
PepeC12 escribió:@wwwendigo por cierto, no son yankis son australianos.



Peor me lo pintas, son de la Isla de los Cacos... [qmparto]

Pacorrr escribió:Hasta donde yo sé, AMD nunca implementó en sus drivers las command-lists porque no lograron hacerlas funcionar. Lo que sí hizo AMD es trabajar bastante con apis de bajo nivel (mantle es el origen de vulkan) desde hace mucho tiempo y de ahí le puede venir la ventaja ahora en DX12, ni idea, pero los juegos cada vez más iran adoptando DX12 (o Vulkan en su defecto) y DX11 quedará como algo obsoleto o para juegos de segunda fila.


Vamos a ver, que no es una cosa de implementar "a tu gusto", es que es parte del API en sí, no es algo que tú decidas usar o no en tu driver gráfico para "usarlo tú", es que es una función usada por los programadores (de juegos) en Direct3D11, si la usan no hay tu tía de "pues yo no la soporto y no la hago", si está en el código tiene que correr, sí o sí, para que por lo menos el dispositivo sea compatible con DX11.

Mira, echando un ojo rápido:

https://www.gamedev.net/forums/topic/61 ... -renderer/

Aquí hay varios usuarios de AMD diciendo que o lo soporta o les entra en duda si "lo emula DX11 (falso)".

Deferred: 150 fpsSo Deferred for single threaded application is slower (at least on my machine). Note that checking the threading support for command list for my graphics card (AMD 6970M) is returning false, so I assume that It is not supported natively by the driver but "emulated" by DX11...


La explicación está en el núcleo de lo que él mismo está diciendo, en ese caso AMD "no está soportando" el soporte multihilo de la función command list. Eso no quiere decir que no soporte command lists, las soporta porque es básicamente obligatorio, no la va a "emular" DX11 a nivel de driver, lo que quiere decir es que se ejecutará igualmente, pero no hará uso alguno del multihilo, funcionará como el resto de llamadas del API, en un mismo hilo de ejecución y de forma totalmente secuencial.

De ahí la confusión sobre "emulación" de la función y demás, porque no la usa como se supone que debería ser la forma útil. De todas formas las command lists no se usan demasiado en DX11 y sus juegos, precisamente por el soporte un tanto dudoso y porque parece que hay ciertas dificultades para usarlas bien y obteniendo el beneficio que necesita.
Gwyn escribió:


Bueno, pues más gente en la "pelea".... [+risas]

A ver si por tanto se aclara el tema algo, aunque yo no veo que tenga que haber relación de cómo funciona el driver para D3D11 con el funcionamiento del driver para D3D12. No sé, las mejoras metidas en el de D3D11 eran muy específicas a éste y sacar paralelismo a un modelo de funcionamiento del API "seriado" y monohilo. En D3D12 se rompió dicho modelo a uno con uso muy explícito del multihilo. Esas mejoras por tanto no deberían estar presentes, y el punto de partida es el mismo para ambos fabricantes (evidentemente la implementación es distinta y puede uno adelantar al otro en la calidad de la suya).

En principio no veo porqué tiene que influir una cosa con la otra, aunque haya componentes del driver que seguro que comparten (posiblemente mucha de la tecnología de compiladores JIT para shaders).
wwwendigo escribió:
PepeC12 escribió:@wwwendigo por cierto, no son yankis son australianos.



Peor me lo pintas, son de la Isla de los Cacos... [qmparto]

Pacorrr escribió:Hasta donde yo sé, AMD nunca implementó en sus drivers las command-lists porque no lograron hacerlas funcionar. Lo que sí hizo AMD es trabajar bastante con apis de bajo nivel (mantle es el origen de vulkan) desde hace mucho tiempo y de ahí le puede venir la ventaja ahora en DX12, ni idea, pero los juegos cada vez más iran adoptando DX12 (o Vulkan en su defecto) y DX11 quedará como algo obsoleto o para juegos de segunda fila.


Vamos a ver, que no es una cosa de implementar "a tu gusto", es que es parte del API en sí, no es algo que tú decidas usar o no en tu driver gráfico para "usarlo tú", es que es una función usada por los programadores (de juegos) en Direct3D11, si la usan no hay tu tía de "pues yo no la soporto y no la hago", si está en el código tiene que correr, sí o sí, para que por lo menos el dispositivo sea compatible con DX11.

Mira, echando un ojo rápido:

https://www.gamedev.net/forums/topic/61 ... -renderer/

Aquí hay varios usuarios de AMD diciendo que o lo soporta o les entra en duda si "lo emula DX11 (falso)".

Deferred: 150 fpsSo Deferred for single threaded application is slower (at least on my machine). Note that checking the threading support for command list for my graphics card (AMD 6970M) is returning false, so I assume that It is not supported natively by the driver but "emulated" by DX11...


La explicación está en el núcleo de lo que él mismo está diciendo, en ese caso AMD "no está soportando" el soporte multihilo de la función command list. Eso no quiere decir que no soporte command lists, las soporta porque es básicamente obligatorio, no la va a "emular" DX11 a nivel de driver, lo que quiere decir es que se ejecutará igualmente, pero no hará uso alguno del multihilo, funcionará como el resto de llamadas del API, en un mismo hilo de ejecución y de forma totalmente secuencial.

De ahí la confusión sobre "emulación" de la función y demás, porque no la usa como se supone que debería ser la forma útil. De todas formas las command lists no se usan demasiado en DX11 y sus juegos, precisamente por el soporte un tanto dudoso y porque parece que hay ciertas dificultades para usarlas bien y obteniendo el beneficio que necesita.

A ver yo te hablo de lo que sé por lo que se comentaba hace años, en foros de anandtech o en los de guru3d, no recuerdo exactamente, yo obviamente no soy ningún experto. Pero algunos usuarios aseguraban que en el driver de AMD no habían instrucciones para comand lists que lo habían comprobado, pero que sí usaban deferred rendering, pero que las command lists no las pudieron hacer funcionar y en los drivers no estaban presentes, de ahí que en DX11 no tuvieran gran rendimiento en cuello de cpu.

En este hilo un trabajador de AMD contesta que las CL son inútiles dando a entender que no las usan (el usuario pregunta cuándo las van a implementar)

https://www.reddit.com/r/Amd/comments/4 ... ?context=3

Pero es de hace 5 años, ni idea si luego las implementaron o no, yo no tengo constancia,
Pacorrr escribió:A ver yo te hablo de lo que sé por lo que se comentaba hace años, en foros de anandtech o en los de guru3d, no recuerdo exactamente, yo obviamente no soy ningún experto. Pero algunos usuarios aseguraban que en el driver de AMD no habían instrucciones para comand lists que lo habían comprobado, pero que sí usaban deferred rendering, pero que las command lists no las pudieron hacer funcionar y en los drivers no estaban presentes, de ahí que en DX11 no tuvieran gran rendimiento en cuello de cpu.

En este hilo un trabajador de AMD contesta que las CL son inútiles dando a entender que no las usan (el usuario pregunta cuándo las van a implementar)

https://www.reddit.com/r/Amd/comments/4 ... ?context=3

Pero es de hace 5 años, ni idea si luego las implementaron o no, yo no tengo constancia,


Ya, pero es que el soporte sí tiene que existir, porque por lo que entiendo de cómo funcionan las command lists, una aplicación que use Command Lists con DX11, las demanda a través directamente del propio programa a DX11 (y éste al driver). Una cosa es que AMD "la ignore" como técnica para enviar llamadas a distintos hilos y paralelizar éstas, y al final haga que la command list se ejecute como una secuencia temporal de comandos (o sea, cero beneficio o incluso un poco peor por el mayor consumo inicial de tiempo de reloj para realizar la command list de "arranque"). O eso o una aplicación que use Command Lists tiene que mantener un path alternativo sin ellas para funcionar con las AMD, y me da que eso no iba a ser. Más bien que lo que ejecuta la AMD es lo mismo que no hacer nada (provechoso) con la Command List (sí ejecutará los comandos, pero con cero beneficio). También puede ser que en ese nivel, simplemente el API al no haber soporte en driver (real) pueda llegar a secuenciar los comandos uno a uno en el mismo hilo desde donde se ejecuta todo el subsistema D3D, y pasando dichos comandos al driver.

Lo del hilo de Reddit tiene cojones el asunto, porque el empleado de AMD está negando la evidencia y hechos demostrados de que las command lists sí son útiles con DX11, que la ha entregado nvidia con sus drivers de la época. Otro asunto es que sí sea una técnica difícil y con potenciales problemas. He visto muchas historias o excusas para la técnica, pero lo cierto es que las Command lists, que en papel suenan mucho mejor que en la práctica, sólo representan una fracción de la mejora posible con DX11 a nivel de cpu. Nvidia a mayores bajó el total de tiempo de cpu necesario por drawcall, acercando los necesarios a APIs más ligeras para este mismo proceso (DX12, Vulkan), y creo que incluso puede llegar a paralelizar por su cuenta algunas llamadas sin soporte explícito de command lists para "señalar" el paquete de comandos que sí se puede enviar a distintos hilos.

Sea como sea, en realidad aunque a nivel publicitario se ha hablado mucho del soporte de command lists en DX11 para la mejora en cpudependencia vs AMD en drivers, tira más para conseguir esto temas como la bajada de la latencia necesaria para procesar llamadas.

Aún, menos mal que los deberes con DX12 y Vulkan sí parecen estar bien hechos por AMD, de algo sirvió centrarse sólo en esas nuevas APIs y dejar de lago mejoras "laterales" de las viejas. Aún así, no hay que olvidar algo:

Tanto DX11 como OpenGL tienen un uso aún muy extenso para quienes quieran un interfaz y acceso a alto nivel y más fácil/seguro para las funciones gráficas. De hecho me parece recordar que había una revisión de Direct3D para mantener las facilidades de programación con DX11 pero con algunas de las ventajas de DX12, ya que el último se hace un tanto bastante más infernal e impredecible (parece que Vulkan es un poco más "amigable", pero eso sólo lo digo por comentarios oídos a gente del ramo).

Ya te digo que no estoy ni la mitad de puesto en esos temas de lo que estaba, y antes ya era por pura afición, desde luego no a nivel pro.
A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.

Imagen
Hay más datos del rendimiento de la 6700xt

https://videocardz.com/newz/amd-radeon- ... een-leaked

Ojo que tiene sam activado.
Si por los datos no pinta mal, pero alguien tiene esperanza de poder comprarla? [facepalm]
jordanpucela escribió:A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.

Imagen

A ver si alguien me puede ayudar con ese error.

Tb ahora q recuerdo, con mi anterior i7 7700k y 16gb de Ram en algunos juegos de monitor como el COD World of War me va a los mismos fps q con el ryzen 5800x y 32gb de RAM. Ese es uno de los juegos q pega bajones en el uso de la GPU, pero por ej RD2 va siempre al 99% la GPU y si q tengo muchos más fps. Juego con un monitor Samsung de 49" 3840x1080 144hz por si sirve de algo.
jordanpucela escribió:
jordanpucela escribió:A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.

Imagen

A ver si alguien me puede ayudar con ese error.

Tb ahora q recuerdo, con mi anterior i7 7700k y 16gb de Ram en algunos juegos de monitor como el COD World of War me va a los mismos fps q con el ryzen 5800x y 32gb de RAM. Ese es uno de los juegos q pega bajones en el uso de la GPU, pero por ej RD2 va siempre al 99% la GPU y si q tengo muchos más fps. Juego con un monitor Samsung de 49" 3840x1080 144hz por si sirve de algo.

Eso significa que el perfil de oc que tengas no es estable, prueba a subir unos puntos el voltaje o a bajar unos puntos las frecuencias (core, memos o las dos).

Y respecto al uso de gpu en el CoD, no debería bajarte más del 90% de uso al menos cuando yo lo probé a 2560x1440 todo a tope vi eso y se quedaba entre 150-170 fps con una 6800XT, a qué frecuencia va la RAM? Te pasa en más juegos o sólo en ese?
Pacorrr escribió:
jordanpucela escribió:
jordanpucela escribió:A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.

Imagen

A ver si alguien me puede ayudar con ese error.

Tb ahora q recuerdo, con mi anterior i7 7700k y 16gb de Ram en algunos juegos de monitor como el COD World of War me va a los mismos fps q con el ryzen 5800x y 32gb de RAM. Ese es uno de los juegos q pega bajones en el uso de la GPU, pero por ej RD2 va siempre al 99% la GPU y si q tengo muchos más fps. Juego con un monitor Samsung de 49" 3840x1080 144hz por si sirve de algo.

Eso significa que el perfil de oc que tengas no es estable, prueba a subir unos puntos el voltaje o a bajar unos puntos las frecuencias (core, memos o las dos).

Y respecto al uso de gpu en el CoD, no debería bajarte más del 90% de uso al menos cuando yo lo probé a 2560x1440 todo a tope vi eso y se quedaba entre 150-170 fps con una 6800XT, a qué frecuencia va la RAM? Te pasa en más juegos o sólo en ese?

En el COD World of War con la resolución mia de 3840x1080 y todo en alto me va a casi fijos 133fps menos algún mapa q sube algo más, pero así iba con el i7 7700k tb. Mi RAM va a 3200. Me pasa en más juegos, el Horizon Zero no suele bajar del 90% pero fluctúa así.
Creo q aun podría aprovechar la grafica más y no se xq no sube más su uso.

En cuanto al error me imagine q es x eso pero solo me pasa en ese juego, en otros me puedo tirar más de 2h y nada y en ese más o menos es siempre a la hora cuando falla.
Tengo un perfil de 2560mhz, con las memorias a 2100 y el voltaje a 1020. En Benchmark como el Heaven o el 3d Mark no me da ningún fallo ni en ningún juego más, solo.en el FS2020.

Edito para añadir que he echo cálculos ahora y mi resolución tiene casi un 13% más de pixeles que la tuya, la 2560x1440, con lo cual si le sumará a mis fps en COD ese 13% extra de rendimiento estaría también en los 150/170fps igual q tu en ese juego. Lo q no se xq a veces baja la grafica x debajo del 90% de uso, son pocas veces xq casi siempre va x encima pero no es constante como debería ser creo yo, igual q en RD2 q no baja del 99% de uso nunca.
Pues prueba a subir a 1025 o 1030 el voltaje, a veces pasa eso, es estable en todo pero llega un juego y te tira el oc. Y sobre el uso de gpu, si te pasa en más juegos debe ser algo mal configurado, el sistema operativo es limpio o lo reciclaste de cuando tenías el 7700K?
Subire el voltaje en ese juego xq de temperaturas no pasó de 52° casi nunca.

El S.O es reciclado de cuando tenía el i7 7700k, no lo formatee pero es q no ha dado ni un solo error ni pantallazo azul ni nada, ahora ya no hace falta formatear x estas cosas, pero ya me hace dudar.
Entonces la grafica siempre debería ir al 99%??
Edite mi anterior post con un añadido q no se si has leído q es interesante.

Tu a cuanto llevas la frecuencia, memorias de la gpu y el voltaje x hacerme una idea?
jordanpucela escribió:Subire el voltaje en ese juego xq de temperaturas no pasó de 52° casi nunca.

El S.O es reciclado de cuando tenía el i7 7700k, no lo formatee pero es q no ha dado ni un solo error ni pantallazo azul ni nada, ahora ya no hace falta formatear x estas cosas, pero ya me hace dudar.
Entonces la grafica siempre debería ir al 99%??
Edite mi anterior post con un añadido q no se si has leído q es interesante.

Tu a cuanto llevas la frecuencia, memorias de la gpu y el voltaje x hacerme una idea?

Hombre no, habrá veces que el juego dé muchos fps la gpu la veas rascarse las bolas, pero en general, en juego modernos, a tu resolución con el equipo que tienes, sí debería irte al máximo la gpu, a menos que capes los fps o pongas vsync claro.

El CoD que dices es el warzone u otro? Yo me refería al warzone, si es otro entonces ni idea, igual es normal no lo sé https://www.youtube.com/watch?v=P64Dniy-qXw&t=37s
Pacorrr escribió:
jordanpucela escribió:Subire el voltaje en ese juego xq de temperaturas no pasó de 52° casi nunca.

El S.O es reciclado de cuando tenía el i7 7700k, no lo formatee pero es q no ha dado ni un solo error ni pantallazo azul ni nada, ahora ya no hace falta formatear x estas cosas, pero ya me hace dudar.
Entonces la grafica siempre debería ir al 99%??
Edite mi anterior post con un añadido q no se si has leído q es interesante.

Tu a cuanto llevas la frecuencia, memorias de la gpu y el voltaje x hacerme una idea?

Hombre no, habrá veces que el juego dé muchos fps la gpu la veas rascarse las bolas, pero en general, en juego modernos, a tu resolución con el equipo que tienes, sí debería irte al máximo la gpu, a menos que capes los fps o pongas vsync claro.

El CoD que dices es el warzone u otro? Yo me refería al warzone, si es otro entonces ni idea, igual es normal no lo sé https://www.youtube.com/watch?v=P64Dniy-qXw&t=37s

El COD ea el último, igual no lo leíste jejeje. Es el Black Ops Cold Of War
Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.

Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.
Pacorrr escribió:Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.

Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.


El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas. Ir va muy bien pero me parece raro q vaya casi siempre por encima del 90/95% pero a veces pegue bajadas al 80 o 70% aunque sean milésimas o 1s como mucho más o menos
jordanpucela escribió:
Pacorrr escribió:Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.

Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.


El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas


Lo raro es que te baje el uso de gpu más con una resolución mayor, pero igual es normal en ese juego, por eso te decía que buscases en youtube a ver cómo le va otros. El Horizon Zero Dawn no lo tengo, pero no me suena que tenga bajadas de uso de gpu, me suena que ese tira bien, aunque no lo sé ya te digo que no lo tengo, pero seguro que por youtube hay gente con un 5800X y una 6900XT para comprobarlo.

Pero vaya si es algo puntual y no te molesta a la hora de jugar, pues déjalo correr.
Pacorrr escribió:
jordanpucela escribió:
Pacorrr escribió:Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.

Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.


El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas


Lo raro es que te baje el uso de gpu más con una resolución mayor, pero igual es normal en ese juego, por eso te decía que buscases en youtube a ver cómo le va otros. El Horizon Zero Dawn no lo tengo, pero no me suena que tenga bajadas de uso de gpu, me suena que ese tira bien, aunque no lo sé ya te digo que no lo tengo, pero seguro que por youtube hay gente con un 5800X y una 6900XT para comprobarlo.

Pero vaya si es algo puntual y no te molesta a la hora de jugar, pues déjalo correr.

Yo tengo la 6800xt y con mi monitor no he visto pruebas😢
jordanpucela escribió:
Pacorrr escribió:
jordanpucela escribió:
El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas


Lo raro es que te baje el uso de gpu más con una resolución mayor, pero igual es normal en ese juego, por eso te decía que buscases en youtube a ver cómo le va otros. El Horizon Zero Dawn no lo tengo, pero no me suena que tenga bajadas de uso de gpu, me suena que ese tira bien, aunque no lo sé ya te digo que no lo tengo, pero seguro que por youtube hay gente con un 5800X y una 6900XT para comprobarlo.

Pero vaya si es algo puntual y no te molesta a la hora de jugar, pues déjalo correr.

Yo tengo la 6800xt y con mi monitor no he visto pruebas😢

Bueno pero a 2560x1440 también te sirve para hacerte una idea, si a esa resolución va bien sin bajones de uso de gpu, en la tuya debería ir bien también.
PepeC12 escribió:Hay más datos del rendimiento de la 6700xt

https://videocardz.com/newz/amd-radeon- ... een-leaked

Ojo que tiene sam activado.

Interesante. Por cierto...¿Cuando salen todas las reviews oficialmente?
sento01 escribió:
PepeC12 escribió:Hay más datos del rendimiento de la 6700xt

https://videocardz.com/newz/amd-radeon- ... een-leaked

Ojo que tiene sam activado.

Interesante. Por cierto...¿Cuando salen todas las reviews oficialmente?

Creo que el 18 o 19 dijeron
@jordanpucela el 18 salen las graficas.

Lo que no se si liberarán los reviews un día antes o harán como con la 6800 el mismo día de salida.
Si las 3060 que estaban capadas para minar fueron casi imposible pillarlas ya os podeis imaginar lo poco que va a salir de las 6700, que seguramente sean de las mejores para minar...

Esta si que va a ser la gpu fantasma xd
FranciscoVG escribió:Si las 3060 que estaban capadas para minar fueron casi imposible pillarlas ya os podeis imaginar lo poco que va a salir de las 6700, que seguramente sean de las mejores para minar...

Esta si que va a ser la gpu fantasma xd


Gwyn escribió:
FranciscoVG escribió:Si las 3060 que estaban capadas para minar fueron casi imposible pillarlas ya os podeis imaginar lo poco que va a salir de las 6700, que seguramente sean de las mejores para minar...

Esta si que va a ser la gpu fantasma xd




Pues es precisamente lo que digo, la 3060 minando 25mh/s y a sido prácticamente imposible de conseguir y encima a sobreprecio, ya te puedes imaginar la 6700 xt sin ninguna limitación y que mina 43mh/s
FranciscoVG escribió:
Gwyn escribió:
FranciscoVG escribió:Si las 3060 que estaban capadas para minar fueron casi imposible pillarlas ya os podeis imaginar lo poco que va a salir de las 6700, que seguramente sean de las mejores para minar...

Esta si que va a ser la gpu fantasma xd




Pues es precisamente lo que digo, la 3060 minando 25mh/s y a sido prácticamente imposible de conseguir y encima a sobreprecio, ya te puedes imaginar la 6700 xt sin ninguna limitación y que mina 43mh/s


Está lejos de ser "de las mejores para minar", que es lo que decías.
Gwyn escribió:
FranciscoVG escribió:
Gwyn escribió:


Pues es precisamente lo que digo, la 3060 minando 25mh/s y a sido prácticamente imposible de conseguir y encima a sobreprecio, ya te puedes imaginar la 6700 xt sin ninguna limitación y que mina 43mh/s


Está lejos de ser "de las mejores para minar", que es lo que decías.


Me esperaba mas es cierto, pero muchacho, cuando digo eso es evidente que me refiero a dentro de su rango de precios, que hay que explicar todas las cosas...., como carajos puedes pensar que yo pretendia ponerla por delante de las 6800, 6900, 3080 y demas...

Antes de atacar piensa un poquito las cosas figura....
8701 respuestas