[HO] Radeon RX 6000 Family

Tifon_humanoide escribió:Buenos días acabo de volver a amd despues de 10 años , tengo un 12700k con una 6900x y un monitor gsync de 144 hz, teniendo en cuenta que alcanzo mas de esos 144 hz, que es lo mejor que puedo poner para sincronización vertical? Por otro lado cual es para vosotros el mejor monitor 4k ips y que tenga fresync? Merece la pena buscar uno fresync pro o asi?


Si es freesync el monitor, activa el freesync y limita los fps a 142.

Ojo que yo tampoco veo tan mal según el juego activar el vsync y punto.
PepeC12 escribió:
Tifon_humanoide escribió:Buenos días acabo de volver a amd despues de 10 años , tengo un 12700k con una 6900x y un monitor gsync de 144 hz, teniendo en cuenta que alcanzo mas de esos 144 hz, que es lo mejor que puedo poner para sincronización vertical? Por otro lado cual es para vosotros el mejor monitor 4k ips y que tenga fresync? Merece la pena buscar uno fresync pro o asi?


Si es freesync el monitor, activa el freesync y limita los fps a 142.

Ojo que yo tampoco veo tan mal según el juego activar el vsync y punto.



Pues es que el monitor que tengo en gsync de 144 hz, V sync desde el panel? En los juegos? Aunque comprare uno con freesync en cuanto venda el que tengo jeje , muchas gracias
Pacorrr escribió:



También se rumorea que pudieran ir en el nodo de 6nm.
pues a ver si ayuda la revision a que haya graficas en la tienda, que es lo que hace falta.

El sistema que tienen montado en su web con las colas da un pena.

Tampoco entiendo mucho porque sacar una revision ahora a falta de 1 año para tener rdna3.
Hombre, nvidia está sacando ahora 2060...el tema es que se vende practicamente todo, por mierda que sea, y a precio desorbitado
PepeC12 escribió:Tampoco entiendo mucho porque sacar una revision ahora a falta de 1 año para tener rdna3.

En un año se pueden vender muchas gráficas y ganar dinerito, además que si las futuras gráficas son muy caras, mucha gente seguirá con generaciones anteriores, no todo el mundo necesita lo último de lo último.

Saludos.
zozito76 escribió:Hombre, nvidia está sacando ahora 2060...el tema es que se vende practicamente todo, por mierda que sea, y a precio desorbitado

justo acabo de leer una noticia en professional review que dice:
"
ASUS Alemania confirmó un precio de 300-400€, pero se han visto varias AMD Radeon RX 6500 XT en Francia a un precio que partía de los 351€. Estamos ante las tarjetas gráficas de gama de entrada más caras de la historia.

Nunca se había visto que un modelo de gama baja costase más de 350€, pero la escasez de tarjetas gráficas nos trae esta situación. Malas noticias para los gamers que buscaban una GPU a un precio módico y con la que disfrutar a 1080p durante varios años. La noticia se centra en las GIGABYTE RX 6500 XT que se venden en Francia con 4 GB GDDR6.
"
De risa, pero al menos acabará con el negociaco de los warrapoppers que venden rx480/rx580 a precios escandalosos, ojalá que sólo sea esto en la salida, y se estabilicen el precio en unos meses, 199€ por "algo" similar a una rx480 de 8gb se vendería como churros (aunque siga siendo un precio malo)
Las sacará hoy pccomp?
joanvicent escribió:
zozito76 escribió:Hombre, nvidia está sacando ahora 2060...el tema es que se vende practicamente todo, por mierda que sea, y a precio desorbitado

justo acabo de leer una noticia en professional review que dice:
"
ASUS Alemania confirmó un precio de 300-400€, pero se han visto varias AMD Radeon RX 6500 XT en Francia a un precio que partía de los 351€. Estamos ante las tarjetas gráficas de gama de entrada más caras de la historia.

Nunca se había visto que un modelo de gama baja costase más de 350€, pero la escasez de tarjetas gráficas nos trae esta situación. Malas noticias para los gamers que buscaban una GPU a un precio módico y con la que disfrutar a 1080p durante varios años. La noticia se centra en las GIGABYTE RX 6500 XT que se venden en Francia con 4 GB GDDR6.
"
De risa, pero al menos acabará con el negociaco de los warrapoppers que venden rx480/rx580 a precios escandalosos, ojalá que sólo sea esto en la salida, y se estabilicen el precio en unos meses, 199€ por "algo" similar a una rx480 de 8gb se vendería como churros (aunque siga siendo un precio malo)


Que se vendera como churros? Una grafica que rinde como una rx 480 que salio a msrp de 200€ hace 6 años. Es un desproposito la 6500xt a mas de 100€ y mas cuando no tiene ni decodificación AV1 y codificación 4K H.264/H.265. Yo pagaria antes dos años de gforce now y jugar en la nube que comprar una grafica de estas.
colado escribió:
Que se vendera como churros? Una grafica que rinde como una rx 480 que salio a msrp de 200€ hace 6 años. Es un desproposito la 6500xt a mas de 100€ y mas cuando no tiene ni decodificación AV1 y codificación 4K H.264/H.265. Yo pagaria antes dos años de gforce now y jugar en la nube que comprar una grafica de estas.


tú lo has dicho, es un despropósito, pero no es que vaya a costar 199dolares, esque va a costar más de 300€, lo que no sé es si se venderá, porque tontos no serán, vamos, si pasado un mes sigue a ese precio es porque alguien la estará comprando, yo ya te digo, los warrapopteros mira lo que están pidiendo por gpu´s rx480/rx580 [facepalm]
Mirando la review de la 6500XT en Techpowerup me he llevado una pequeña sorpresa, la 6800XT ha cerrado la brecha de rendimiento que había con la 3080 en resolución 4k.

Imagen
Ok, pues los cerdos de PCCOMPONENTES han puesto la Rx 6500 xt para compra de PC Completo .

Seguid cavando vuestra tumba, que yo no olvidó todas las putas perrerías que estáis haciendo.
joanvicent escribió:
colado escribió:
Que se vendera como churros? Una grafica que rinde como una rx 480 que salio a msrp de 200€ hace 6 años. Es un desproposito la 6500xt a mas de 100€ y mas cuando no tiene ni decodificación AV1 y codificación 4K H.264/H.265. Yo pagaria antes dos años de gforce now y jugar en la nube que comprar una grafica de estas.


tú lo has dicho, es un despropósito, pero no es que vaya a costar 199dolares, esque va a costar más de 300€, lo que no sé es si se venderá, porque tontos no serán, vamos, si pasado un mes sigue a ese precio es porque alguien la estará comprando, yo ya te digo, los warrapopteros mira lo que están pidiendo por gpu´s rx480/rx580 [facepalm]



Pero es por su rendimiento en mineria, y los que lo pagan son mineros. La 6500xt es mala para minar y a mi me interesa el rendimiento en gaming y es que encima si tienes pcie 3.0 rinde un 13% menos.

DaNi_0389 escribió:Mirando la review de la 6500XT en Techpowerup me he llevado una pequeña sorpresa, la 6800XT ha cerrado la brecha de rendimiento que había con la 3080 en resolución 4k.

Imagen


Segun que juegos y segun el motor grafico que tenga, aunque esos graficos de rendimiento relativo es eso, muy relativo.
Es una vergüenza como se aprovechan de la situación, la 6500 xt es cara incluso a su precio oficial, un rendimiento similar a una rx 580 la cual salio en 2017 a poco mas de 200 euros
En Coolmod tienen la Sapphire Pulse por poco menos de 300€ [qmparto]

https://www.coolmod.com/sapphire-pulse- ... 4gb-gddr6/

@DaNi_0389 sí ya hace tiempo que la 6800XT rinde un poco más a 4K en las reviews de Techpowerup que la 3080, cambiaron la batería de juegos, quitaron muchos juegos antiguos y pusieron más modernos, son 25 en total creo recordar. En DX12 las AMD se manejan mejor y en DX11 al revés, las Nvidia.
Pacorrr escribió:En Coolmod tienen la Sapphire Pulse por poco menos de 300€ [qmparto]

https://www.coolmod.com/sapphire-pulse- ... 4gb-gddr6/

@DaNi_0389 sí ya hace tiempo que la 6800XT rinde un poco más a 4K en las reviews de Techpowerup que la 3080, cambiaron la batería de juegos, quitaron muchos juegos antiguos y pusieron más modernos, son 25 en total creo recordar. En DX12 las AMD se manejan mejor y en DX11 al revés, las Nvidia.


Imagen
Madre mía pues juro que cuando la puse estaba para envío en un día @FranciscoVG :O
Creo que se habla poco de esto. El capado del pcie:

Imagen

Si no tienes pcie 4.0, la tarjeta no rinde como debe. Hay muchos procesadores y placas comprados no hace un lustro, que tiran de pcie 3.0 o 3.1 o así. Incluso algunos ryzen.
Duendeverde escribió:Creo que se habla poco de esto. El capado del pcie

Cierto, es curioso lo poco discutido. Pero es terrorifico.

Yo estaba especialmente mirando los resultados con el Far Cry 6 https://www.techpowerup.com/review/asus ... ng/19.html por que lo jugue con la GTX 1060 6GB/3GB y la RTX 3060 e incluso grabe algunos videos.

Grabe algunos videos en 1920x1080. Con las GTX 1060 lo probe mayormente en High sin filtros los 3 filtros DXR pero si con el FSR y tampoco las texturas HD. Con ambas graficas en ultra bajaba los fps a 45fps y con texturas HD sobre 30 pero doy que seguramente no las cargara la mayoria de las veces. Con el modelo de 3GB es con un monitor 60hz, con el de 6GB con el Acer Predator de 1080p 144hz usando tambien Gsync.


Y con la RTX 3060 es con todo, el monitor Gsync, graficos en ultra, el FSR, los filtros DXR y las texturas HD.


Segun techpowerup, hicieron los test en high quality pero no hay manera de saber si estaba activo el FSR, puede que si, ni tampoco sabemos si tenian los filtros DXR. Voy a suponer que es con texturas HD. Los filtros DXR añaden reflejos en el agua y bajan un monton los fps.

Los 58fps de la 6500 XT a 1080p me parecen muy pobres. El Far Cry 5 lo tengo jugado bastante con la GTX 1060 3GB y viene a rendir lo mismo con graficos a tope e incluso las texturas HD. Lo ironico es que luce bastante parecido que el 6.

En general para costar 250€ no esta mal del todo pero no es para aplaudir. Claramente la falta de memoria de video le pesa mucho y todos los juegos actuales piden mucho más. Un Far Cry 6 marca sobre 6.08GB de uso en 1080p usando las texturas HD como podeis apreciar.
Imagen
Es una cagada sí, pero vamos pocas placas quedarán ya que sean pcie 2.0, eso está bien como dato para saberlo, pero prácticamente nadie va a montar esa tarjeta en una placa pci-e 2.0, no es un escenario muy realista. Otra cosa es pci-e 3.0, ese si es un gran problema porque hay muchísimas placas y relativamente modernas, y ahí también se pierde rendimiento, aunque no sea tan bestia como con pci-e 2.0.
Duendeverde escribió:Creo que se habla poco de esto. El capado del pcie:



Si no tienes pcie 4.0, la tarjeta no rinde como debe. Hay muchos procesadores y placas comprados no hace un lustro, que tiran de pcie 3.0 o 3.1 o así. Incluso algunos ryzen.


No acabo de entender esto, ¿si tienes un equipete antiguo la gráfica en lugar de rendir al 100% lo hará a un 66% de lo que podría? eso es acojonante, porque sí tengo conocidos que ahora pensaban que podrían comprar una gpu pero muchos tienen equipos de la época del 6700k o cosas así, y ahora habrá que ir mirando si sus placas tienen pcie 4.0 ? puede que esas placas de sexta o séptima generación no tendrán una versión 4 de pcie? Oooh
joanvicent escribió:
Duendeverde escribió:Creo que se habla poco de esto. El capado del pcie:



Si no tienes pcie 4.0, la tarjeta no rinde como debe. Hay muchos procesadores y placas comprados no hace un lustro, que tiran de pcie 3.0 o 3.1 o así. Incluso algunos ryzen.


No acabo de entender esto, ¿si tienes un equipete antiguo la gráfica en lugar de rendir al 100% lo hará a un 66% de lo que podría? eso es acojonante, porque sí tengo conocidos que ahora pensaban que podrían comprar una gpu pero muchos tienen equipos de la época del 6700k o cosas así, y ahora habrá que ir mirando si sus placas tienen pcie 4.0 ? puede que esas placas de sexta o séptima generación no tendrán una versión 4 de pcie? Oooh

Eso es así como está 6500xt no con el resto de gráficas
joanvicent escribió:
Duendeverde escribió:Creo que se habla poco de esto. El capado del pcie:



Si no tienes pcie 4.0, la tarjeta no rinde como debe. Hay muchos procesadores y placas comprados no hace un lustro, que tiran de pcie 3.0 o 3.1 o así. Incluso algunos ryzen.


No acabo de entender esto, ¿si tienes un equipete antiguo la gráfica en lugar de rendir al 100% lo hará a un 66% de lo que podría? eso es acojonante, porque sí tengo conocidos que ahora pensaban que podrían comprar una gpu pero muchos tienen equipos de la época del 6700k o cosas así, y ahora habrá que ir mirando si sus placas tienen pcie 4.0 ? puede que esas placas de sexta o séptima generación no tendrán una versión 4 de pcie? Oooh

No, ese caso es con placas con pcie 2.0, que son super antiguas, en las pci-e 3.0 que son las que nombras es un 87%, que ya jode perder rendimiento claro, es una cagada muy grande lo que han hecho por abaratar costes, pero no es la burrada de pérdida que hay con pci-e 2.0
Os equivocáis con lo del pcie 2.0. Hay procesadores solventes que traen pcie 2.0. Por ejemplo los intel sandy bridge. El famoso i5 2500k, 2600k, etc... Aunque viejos, son micros aptos para el rendimiento de ésta tarjeta gráfica.

También toda la serie de AMD FX am3+. Son pcie 2.0. También los famosos xeon de 6 núcleos del socket 1366 y cosas del estilo.

La mayoría de placas intel 1155 le dieron compatibilidad con pcie 3.0, pero únicamente si usabas un procesadores de la serie 3. Si usabas un procesador de la serie 2, seguía yendo a 2.0.

Por lo tanto, si el procesador no soporta determinada versión del pcie, estás igual, por mucho que lo soporte la placa base.

Pero también puede pasar al revés. Tener por ejemplo un ryzen 3600, en una placa con chipset viejo que va a 3.0. En tal caso si quieres el máximo rendimiento, tienes que cambiar la placa base.

Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.
Duendeverde escribió:Os equivocáis con lo del pcie 2.0. Hay procesadores solventes que traen pcie 2.0. Por ejemplo los intel sandy bridge. El famoso i5 2500k, 2600k, etc... Aunque viejos, son micros aptos para el rendimiento de ésta tarjeta gráfica.

También toda la serie de AMD FX am3+. Son pcie 2.0. También los famosos xeon de 6 núcleos del socket 1366 y cosas del estilo.

La mayoría de placas intel 1155 le dieron compatibilidad con pcie 3.0, pero únicamente si usabas un procesadores de la serie 3. Si usabas un procesador de la serie 2, seguía yendo a 2.0.

Por lo tanto, si el procesador no soporta determinada versión del pcie, estás igual, por mucho que lo soporte la placa base.

Pero también puede pasar al revés. Tener por ejemplo un ryzen 3600, en una placa con chipset viejo que va a 3.0. En tal caso si quieres el máximo rendimiento, tienes que cambiar la placa base.

Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.

Está claro que es un sinsentido no sé en que estarán pensando, pero yo contestaba al compañero que hablaba de procesadores 6700K y de la época, esos van con placas pci-e 3.0. Los procesadores que dices ya están muy obsoletos para estas gráficas de todos modos y les harán cuello de botella, que son procesadores de hace más de 10 años... con una 1050Ti ya te sobra gráfica incluso.
Duendeverde escribió:
Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.


un despropósito es que quieras comprar una gráfica y los warrapopers me pidan 400€ por una rx580 de 8gb, eso sí es un despropósito... por lo que vistas las cosas como están si se vendiese la 6500xt rollo 200€ la compraríamos un montón de amigos, entre los que me incluyo, me quedé sin gráfica el verano pasado porque un minero me ofreció 300€ por mi gtx1060, me pareció un montón de pasta y no me negé XD y creo que hice mal porque a saber cuándo tendré algo similar por el mismo precio (era la de 6GB) al final me veo que usaré ese dinero, años después, para comprar una gráfica nueva que será igual o más lenta, jajajajaja el mundo al revés [beer]

@Pacorrr así es, tanto sandy bridge como ivy bridge ya están bastante obsoletos, pero aún tengo amigos con i7 4790k o 6700k, que son micros muy válidos aún hoy en día, esos por lo que dices al menos son pcie 3.0 , menos mal
joanvicent escribió:
Duendeverde escribió:
Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.


un despropósito es que quieras comprar una gráfica y los warrapopers me pidan 400€ por una rx580 de 8gb, eso sí es un despropósito... por lo que vistas las cosas como están si se vendiese la 6500xt rollo 200€ la compraríamos un montón de amigos, entre los que me incluyo, me quedé sin gráfica el verano pasado porque un minero me ofreció 300€ por mi gtx1060, me pareció un montón de pasta y no me negé XD y creo que hice mal porque a saber cuándo tendré algo similar por el mismo precio (era la de 6GB) al final me veo que usaré ese dinero, años después, para comprar una gráfica nueva que será igual o más lenta, jajajajaja el mundo al revés [beer]

@Pacorrr así es, tanto sandy bridge como ivy bridge ya están bastante obsoletos, pero aún tengo amigos con i7 4790k o 6700k, que son micros muy válidos aún hoy en día, esos por lo que dices al menos son pcie 3.0 , menos mal

Sí esos van en placas pci-e 3.0, se perdería sobre un 15% según la review de techpowerup respecto a pci-e 4.0.
joanvicent escribió:[ entre los que me incluyo, me quedé sin gráfica el verano pasado porque un minero me ofreció 300€ por mi gtx1060, me pareció un montón de pasta y no me negé XD y creo que hice mal porque a saber cuándo tendré algo similar por el mismo precio (era la de 6GB) al final me veo que usaré ese dinero, años después, para comprar una gráfica nueva que será igual o más lenta, jajajajaja el mundo al revés [beer]

Por eso yo no vendi las 2 GTX 1060 que tengo, para quedarme a dos velas.........el mercado actual es un desproposito. [facepalm]

Cuando lei de esta 6500XT que la sacaban con poca memoria porque seria más inutil para los mineros me quede asustado. Lo del PCIe ya es de lo más raro e inimaginable tambien.

La verdad, me parece una grafica como para cibercafes o para poder sacar montones de PCs baratos. Para eso esta bien, para otra cosa no.
Pacorrr escribió:
Duendeverde escribió:Os equivocáis con lo del pcie 2.0. Hay procesadores solventes que traen pcie 2.0. Por ejemplo los intel sandy bridge. El famoso i5 2500k, 2600k, etc... Aunque viejos, son micros aptos para el rendimiento de ésta tarjeta gráfica.

También toda la serie de AMD FX am3+. Son pcie 2.0. También los famosos xeon de 6 núcleos del socket 1366 y cosas del estilo.

La mayoría de placas intel 1155 le dieron compatibilidad con pcie 3.0, pero únicamente si usabas un procesadores de la serie 3. Si usabas un procesador de la serie 2, seguía yendo a 2.0.

Por lo tanto, si el procesador no soporta determinada versión del pcie, estás igual, por mucho que lo soporte la placa base.

Pero también puede pasar al revés. Tener por ejemplo un ryzen 3600, en una placa con chipset viejo que va a 3.0. En tal caso si quieres el máximo rendimiento, tienes que cambiar la placa base.

Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.

Está claro que es un sinsentido no sé en que estarán pensando, pero yo contestaba al compañero que hablaba de procesadores 6700K y de la época, esos van con placas pci-e 3.0. Los procesadores que dices ya están muy obsoletos para estas gráficas de todos modos y les harán cuello de botella, que son procesadores de hace más de 10 años... con una 1050Ti ya te sobra gráfica incluso.

Hola
Mi I5 2500k a 4,2ghz puede de sobras con la 1050TI y aun sobra procesador... la mejor targeta y la que mejor hace combo es la RX580 8GB (que es bastante mejor targeta que estas nuevas), en estos video estoy usando la que es una RX480 de 4GB...
Loa dos juegos en HIgh a 1080/60 fps , estas targetas de gama baja que han salido ahora como la 6500XT o la RTX 3050 las mueve de sobras el I5 2500k..... yo no soy mucho de grabar pruebas pero tengo juegos donde la RX480 va a 100% y la cpu no pasa de 60% de carga...

Pacorrr escribió:
Duendeverde escribió:Os equivocáis con lo del pcie 2.0. Hay procesadores solventes que traen pcie 2.0. Por ejemplo los intel sandy bridge. El famoso i5 2500k, 2600k, etc... Aunque viejos, son micros aptos para el rendimiento de ésta tarjeta gráfica.

También toda la serie de AMD FX am3+. Son pcie 2.0. También los famosos xeon de 6 núcleos del socket 1366 y cosas del estilo.

La mayoría de placas intel 1155 le dieron compatibilidad con pcie 3.0, pero únicamente si usabas un procesadores de la serie 3. Si usabas un procesador de la serie 2, seguía yendo a 2.0.

Por lo tanto, si el procesador no soporta determinada versión del pcie, estás igual, por mucho que lo soporte la placa base.

Pero también puede pasar al revés. Tener por ejemplo un ryzen 3600, en una placa con chipset viejo que va a 3.0. En tal caso si quieres el máximo rendimiento, tienes que cambiar la placa base.

Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.

Está claro que es un sinsentido no sé en que estarán pensando, pero yo contestaba al compañero que hablaba de procesadores 6700K y de la época, esos van con placas pci-e 3.0. Los procesadores que dices ya están muy obsoletos para estas gráficas de todos modos y les harán cuello de botella, que son procesadores de hace más de 10 años... con una 1050Ti ya te sobra gráfica incluso.


Si te metes en una web de estas de cuello de botella dicen lo mismo, pero la realidad es otra ;)

Habrá juegos que tiren mas de GPU y otros menos pero un i5 de segunda/tercera generación puede con una 970/1060, y si te metes en un i7 de las mismas generaciones le metes una 1660 súper/1070 y sin problemas

A partir de la tercera generación creo que fue cuando las CPU ya admitian pciexpress 3.0.....AMD ha metido la pata bien en esta decisión, y si se respetara los 200€ pues todavía....pero a 400€ creo que valdrá mas para contener el precio de la segunda mano
6500XT una gráfica tan recortada que rinde peor que una antigua 480 bluk de 70€ pero esta nueva exigiendo 500€ para una posible versión en 8gb vram [facepalm]

Ya para la Rx550 de 4GB piden 220€ en las tiendas, gpu que iguala igpu vaga11, cuando esta debería estar a 40€ pvp
thedoomcryer escribió:
Pacorrr escribió:
Duendeverde escribió:Os equivocáis con lo del pcie 2.0. Hay procesadores solventes que traen pcie 2.0. Por ejemplo los intel sandy bridge. El famoso i5 2500k, 2600k, etc... Aunque viejos, son micros aptos para el rendimiento de ésta tarjeta gráfica.

También toda la serie de AMD FX am3+. Son pcie 2.0. También los famosos xeon de 6 núcleos del socket 1366 y cosas del estilo.

La mayoría de placas intel 1155 le dieron compatibilidad con pcie 3.0, pero únicamente si usabas un procesadores de la serie 3. Si usabas un procesador de la serie 2, seguía yendo a 2.0.

Por lo tanto, si el procesador no soporta determinada versión del pcie, estás igual, por mucho que lo soporte la placa base.

Pero también puede pasar al revés. Tener por ejemplo un ryzen 3600, en una placa con chipset viejo que va a 3.0. En tal caso si quieres el máximo rendimiento, tienes que cambiar la placa base.

Un sin sentido, ya que te piden digamos, tener algo reciente, para aprovechar hardware de gama baja. Como la 3050 no sea mucho más cara que ésta, va arrasar en ventas. Y encima ésta de AMD rinde algo menos que la 5500xt. Vamos, que te sacan algo nuevo, que rinde menos que lo anterior. Un despropósito.

Está claro que es un sinsentido no sé en que estarán pensando, pero yo contestaba al compañero que hablaba de procesadores 6700K y de la época, esos van con placas pci-e 3.0. Los procesadores que dices ya están muy obsoletos para estas gráficas de todos modos y les harán cuello de botella, que son procesadores de hace más de 10 años... con una 1050Ti ya te sobra gráfica incluso.

Hola
Mi I5 2500k a 4,2ghz puede de sobras con la 1050TI y aun sobra procesador... la mejor targeta y la que mejor hace combo es la RX580 8GB (que es bastante mejor targeta que estas nuevas), en estos video estoy usando la que es una RX480 de 4GB...
Loa dos juegos en HIgh a 1080/60 fps , estas targetas de gama baja que han salido ahora como la 6500XT o la RTX 3050 las mueve de sobras el I5 2500k..... yo no soy mucho de grabar pruebas pero tengo juegos donde la RX480 va a 100% y la cpu no pasa de 60% de carga...



Pues el tuyo a 4,2Ghz igual se defiende, pero el mio (I5 2500 NO-K) se muere con una RX570 en cualquier juego medianamente actual.
Cyborg_Ninja escribió:
thedoomcryer escribió:
Pacorrr escribió:Está claro que es un sinsentido no sé en que estarán pensando, pero yo contestaba al compañero que hablaba de procesadores 6700K y de la época, esos van con placas pci-e 3.0. Los procesadores que dices ya están muy obsoletos para estas gráficas de todos modos y les harán cuello de botella, que son procesadores de hace más de 10 años... con una 1050Ti ya te sobra gráfica incluso.

Hola
Mi I5 2500k a 4,2ghz puede de sobras con la 1050TI y aun sobra procesador... la mejor targeta y la que mejor hace combo es la RX580 8GB (que es bastante mejor targeta que estas nuevas), en estos video estoy usando la que es una RX480 de 4GB...
Loa dos juegos en HIgh a 1080/60 fps , estas targetas de gama baja que han salido ahora como la 6500XT o la RTX 3050 las mueve de sobras el I5 2500k..... yo no soy mucho de grabar pruebas pero tengo juegos donde la RX480 va a 100% y la cpu no pasa de 60% de carga...



Pues el tuyo a 4,2Ghz igual se defiende, pero el mio (I5 2500 NO-K) se muere con una RX570 en cualquier juego medianamente actual.


Hola,
A mí me limita ahora mismo la gráfica que es la de 4gb... que se quedan cortos por ejemplo el Gow solo puedo poner en alto texturas y lo demás en original porque falta VRAM.

Y estaba pensando en ponerle una Rtx 3050 o si se cruzarán los astros una RX 580 8Gb pero es que piden un dineral por una y encima se han usado mucho para míneria y podría colarmela.
Pero por los benchmarcks la 580 es ideal y muy válida aún hasta que pase esta locura , aparte de que vamos a tener intergeneracionales 2/3 años más....
Cyborg_Ninja escribió:Pues el tuyo a 4,2Ghz igual se defiende, pero el mio (I5 2500 NO-K) se muere con una RX570 en cualquier juego medianamente actual.

Es que en esas los 600mhz obran milagros y los 3.7Ghz maximos en el no k se notan.

Yo tengo un i5-4690K subido a 4.4Ghz con una GTX 1060 3GB, y con eso me para jugar en nivel de detalle alto a 60 o más fps a juegos como el Far Cry 6.

@thedoomcryer yo por lo que he visto, la mayoria de juegos que tienen la opción de texturas HD, gastan sobre 6GB de memoria grafica. Y aún asi creo que hace falta tener más porque puedes sufrir situaciones donde el juego reduce el detalle en vez dejar caer los fps.

La RTX 3050 yo la veo muy bien para 1080p y juegos actuales pero tengo mis dudas de como sera en potencia bruta. Y es que hay bastantes juegos que no usan DLSS. El Raytracing por más que lo anuncien a mi me parece una cosa de mejor ignorar. Hay juegos que lucen mejor que otros pero es una comedera de fps.

@vergil no esta mal de precio para una grafica algo peor que una 3060.
La verdad que amd ha patinado pero bien con esta 6500.

Me parece peor que la anciana 480 pero costando más de lo que costo la 480 de salida.

Ojala no se venda nada de esta gráfica, a ver si así aprenden a no tomar el pelo a la gente.
Nomada_Firefox escribió:
Cyborg_Ninja escribió:Pues el tuyo a 4,2Ghz igual se defiende, pero el mio (I5 2500 NO-K) se muere con una RX570 en cualquier juego medianamente actual.


@vergil no esta mal de precio para una grafica algo peor que una 3060.


Emmm, no, la 6600 xt esta por encima de la 3060, en rendimiento es básicamente igual que una ps5
FranciscoVG escribió:
Nomada_Firefox escribió:
Cyborg_Ninja escribió:Pues el tuyo a 4,2Ghz igual se defiende, pero el mio (I5 2500 NO-K) se muere con una RX570 en cualquier juego medianamente actual.


@vergil no esta mal de precio para una grafica algo peor que una 3060.


Emmm, no, la 6600 xt esta por encima de la 3060, en rendimiento es básicamente igual que una ps5

Como ya se que eres muy pro AMD con graficas, no es que esto sea una respuesta rara. Pero no he visto una review donde la pongan por encima de la 3060.

Tu fan. Yo imparcial. [beer]
La RX 6600 XT es superior a la RTX 3060 en la mayoría de juegos, siempre que no entre en la ecuación el Ray Tracing, en ese caso la RTX 3060 es mejor por un margen mayor que el que hay entre ambas sin Ray Tracing.

Saludos.
Nomada_Firefox escribió:
FranciscoVG escribió:
Nomada_Firefox escribió:
@vergil no esta mal de precio para una grafica algo peor que una 3060.


Emmm, no, la 6600 xt esta por encima de la 3060, en rendimiento es básicamente igual que una ps5

Como ya se que eres muy pro AMD con graficas, no es que esto sea una respuesta rara. Pero no he visto una review donde la pongan por encima de la 3060.

Tu fan. Yo imparcial. [beer]


¿Que yo soy que? XDXDXDXD

Que el link que puso es la 6600 xt y esa tanto a 1080p como a 1440p es mejor que la 3060, y si te sobra tiempo revísate este hilo antes de llamar fan a nadie, si despues de leer las ultimas paginas me vuelves a venir diciéndome que yo soy fan entonces tienes un problema, y de imparcial tienes bien poco tambien
Vaya.......pues tenias razon. Yo soy imparcial totalmente, sino lo fuera no admitiria que me equivoque por mirar la review de profesionalreview en el unico juego que iba peor.
Nomada_Firefox escribió:Vaya.......pues tenias razon. Yo soy imparcial totalmente, sino lo fuera no admitiria que me equivoque por mirar la review de profesionalreview en el unico juego que iba peor.


Equivocarte te puedes equivocar y no pasa nada, pero llamarme a mi pro amd o fan desmonta totalmente tu imparcialidad, pero si desde que tengo la 6800 xt en este hilo no he hecho otra cosa que quejarme xd, ¿o que pasa que por decir que la 3080 es un horno y que consume mucho ya soy pro amd?, lo digo por que la he tenido y se lo que es, si eso te molesta igual es por que no eres tan imparcial como te piensas...
Nomada_Firefox escribió:
Cyborg_Ninja escribió:Pues el tuyo a 4,2Ghz igual se defiende, pero el mio (I5 2500 NO-K) se muere con una RX570 en cualquier juego medianamente actual.

Es que en esas los 600mhz obran milagros y los 3.7Ghz maximos en el no k se notan.

Yo tengo un i5-4690K subido a 4.4Ghz con una GTX 1060 3GB, y con eso me para jugar en nivel de detalle alto a 60 o más fps a juegos como el Far Cry 6.

@thedoomcryer yo por lo que he visto, la mayoria de juegos que tienen la opción de texturas HD, gastan sobre 6GB de memoria grafica. Y aún asi creo que hace falta tener más porque puedes sufrir situaciones donde el juego reduce el detalle en vez dejar caer los fps.

La RTX 3050 yo la veo muy bien para 1080p y juegos actuales pero tengo mis dudas de como sera en potencia bruta. Y es que hay bastantes juegos que no usan DLSS. El Raytracing por más que lo anuncien a mi me parece una cosa de mejor ignorar. Hay juegos que lucen mejor que otros pero es una comedera de fps.

@vergil no esta mal de precio para una grafica algo peor que una 3060.


Hola,
Me encontrado esto por youtube , curioso el video....
La verdad que viendo como mueve la RTX 2070 super el I5 2500k , la 3050 es aun mas tentadora para 1080/60 con configs en Alto en equipos antiguos sin gastarse un dineral y seguir una temporada con ellos.

@thedoomcryer Es una cuestión economica y como valores las perdidas de fps. A mi me parece bastante sustancial esa diferencia de ese video.

La 3050 apunta a que sera buena grafica con Raytracing y DLSS pero yo creo que no sera tan guai en potencia bruta. La gracia de todo esto, es que el DLSS dependiendo del motor del juego, llega a multiplicar por 2 los fps. El motor de unreal es el que yo creo que mejor lo aprovecha.
Si alguien quiere una que se dé prisa que la otra vez cuando puse la de coolmod duró minutos :O

https://www.pccomponentes.com/powercolor-fighter-amd-radeon-rx-6500xt-4gb-gddr6


Imagen
Tal como comentaba, que a algunos drivers opcionales les han metido la firma WHQL alguna vez, pues con los 22.1.2 han hecho eso mismo, eso sí, éstos no los han pasado a recomendados como solían hacer cuando les metían la firma de Microsoft.

Imagen
Un videito probando el God of War

Lo he resubido, ahora sin Vsync [+risas]
8701 respuestas