[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Pues la verdad que el que tenga una 2080ti no le merece la pena el cambio a una 3080, aunque la 2080ti debe competir con la 3090, que es su equivalente en precio.
neox3 escribió:Yo lo que saco en claro de tech power up:
que queda claro es q es calentita, demasiado.
Mi anterior fe jamas pasaba de 60 - 62.

Esta, todo el rato rozando el power limit (85 grados), me parece bastante... En verano verano, podemos reirnos. Se confirmo la imagen thermal... Sabe dios a que temp esta el pcb.

Luego no se puede hacer undervolt y no merece la pena el Oc al chip, no sube casi nada, en boost, 20mhz, pero si a la memoria, un burrada, con diferencias de hasta 10fps en algun test!

Creo q paso de la fe, y me iré cuando se pueda a una custom de 3 ventiladores, la evga me parece la que tiene el sistema de disipacion mejor pensado


Lo ponen en otra review

Also, we have to make note of the top side PCB temperatures reaching 90 degrees C

Me veo más de un incendio si algunos cables reposan en el la gráfica
sefirot996 escribió:
zeo360 escribió:
juanpedro79 escribió:
Joder ya te digo, como no me lo metan en el Game Pass de PC lo va comprar Rita la cantaora. Anda y que se vayan a la M



Estoy viendo varios videos y no hay nada claro con RDR2.

Imagen


Tendrá algo que ver con lo que decían que algunos se quejaban de que su rtx 3080 rendía hasta un 30% menos que la de otros por culpa de las memorias de Samsung ?


menudo cacao tienes :-? :-? :-? :-? :-? :-? :-?

no hay 30% menos de rendimiento por las memorias samsung... hay 30% de chips (fabricados por samsung... las memorias las fabrica micron) de bineado "0", que iran perfectamente a las frecuencias minimas que indica nvidia

los bineados mas altos (el 70% restante) overclockearan mas
en gamernexus se ve como la FE va entre 70-80 grados
suerte q el nuevo sistema de refrig era hasta 30 grados mas fresco
Imagen

Imagen

No sera otra cosa...pero no va hacer falta calefacción en invierno para los que se la compren XD
He llegado del curro y me he puesto a ver reviews de la nueva bestia.
Veo aquí que todo el mundo solo ve fps, fps, fps... ¿nadie se ha fijado en el consumo? 360W !!! y la temperatura superior a los 80º.

Yo es que me fijo mucho en esas dos cosas (que guardan bastante relación) y compré en su momento una 1660Ti por ello.
Según veo la 3080 triplica en fps a la mia pero es que también la triplica en consumo. Además aun con ese tochazo de sistema de refrigeración se calienta mucho más.

Yo no se que le parecerá a la gente pero a mi una torre de unos 500W me parece una barbaridad. Es que en una habitación normal de unos 15m2 no necesitas calefacción en invierno XD (qué será eso con 30º de ambiente en verano...).
Viendo esos datos de la prueba del chapuzas, pienso lo mismo que dire de muchas otras pruebas.

Punto 1. ¿Donde reduce el nuevo conector el cableado cuando necesitas conectar los cables de tu fuente al adaptador?

Punto 2. La prueba de temperatura como siempre no vale nada haciendola encima de la mesa.

El tema de la calefación invernal, sera si la torre es capaz de disipar todo ese calor o si por contra se queda dentro de la torre, en cuyo caso tendras una buena hoguera. XD XD XD
Será por el exceso de hype o quizá la falta de madurez en los drivers... Pero mirando estos datos, una 3070 no va a superar a una 2080Ti.
rblademix escribió:


A todos los pesados con las memorias, al principio del video lo teneis, que como ya dijeron aqui algunos foreros, es memoria alojada y no usada. Que ni de lejos 10gb es un problema.
Cuentaparacomentario escribió:
No sera otra cosa...pero no va hacer falta calefacción en invierno para los que se la compren XD


Y todo eso teniendo en cuento que de stock por lo que he visto en la review de youtube funcionan a 0.960v aproximadamente, es decir que ya vienen con voltajes bastante bajos en comparación a pascal/turing con lo cual es posible que el margen de undervolt sea bastante escaso, teniendo en cuenta el voltaje a la que funcionan ya vienen muy apuradas.
nate dice que por fin rdr2 en 4k60 (min 7:08)


y habla de que se pone a 81º pero con ventiladores muy poco ruido

lo que me parece injusto de la review de nate es que la compare con una gaming x trio la verdad...
en algunos escenarios solo le saca entre 10 o 15 fps a la 2080 Ti.... me parece muy poco pero en otros escenarios le llega a sacar hasta 30 fps.. un poco decepcionante que exista esa variación de frames dependiendo del juego , y se queda corta en varias ocasiones para jugar a 4k 60 fps con juegos actuales (Borderlands 3 por poner un ejemplo).... si ya lo tenia claro por el tema de la vram ahora lo tengo todavia mas , 3090 o esperar a una 3080 super /Ti , se calienta un poco demasiado para mi gusto la 3080 FE
tigretong escribió:en gamernexus se ve como la FE va entre 70-80 grados
suerte q el nuevo sistema de refrig era hasta 30 grados mas fresco

75º de temp en una grafica que solo ocupa dos slots, cuando todas las custom parten de los 2,2 y 2,5 hasta 2,7 slots creo que esta bastante bien.
Metalyard escribió:Imagen

Me parto la caja, el RDR 2 sigue sin ir a 60 FPS en 4K [qmparto] [qmparto] [qmparto] [qmparto]


RDR2 tiene alguna opción rota, como los reflejos en cristales. Si los bajas a medio notas 0 diferencia visual y multiplicas los fps x2.
wildchild_bcn escribió:nate dice que por fin rdr2 en 4k60 (min 7:08)


y habla de que se pone a 81º pero con ventiladores muy poco ruido

lo que me parece injusto de la review de nate es que la compare con una gaming x trio la verdad...

Lo mismo del resto. Pruebas de temperatura encima de la mesa=no valen nada.

Ese chisme seguramente suba por encima de 90º en una torre.
wildchild_bcn escribió:
sefirot996 escribió:
zeo360 escribió:

Estoy viendo varios videos y no hay nada claro con RDR2.

Imagen


Tendrá algo que ver con lo que decían que algunos se quejaban de que su rtx 3080 rendía hasta un 30% menos que la de otros por culpa de las memorias de Samsung ?


menudo cacao tienes :-? :-? :-? :-? :-? :-? :-?

no hay 30% menos de rendimiento por las memorias samsung... hay 30% de chips (fabricados por samsung... las memorias las fabrica micron) de bineado "0", que iran perfectamente a las frecuencias minimas que indica nvidia

los bineados mas altos (el 70% restante) overclockearan mas


No estoy tan puesto en eso perdón , pero es lo que leí que algunos le habían llegado gráficas inferiores hasta en un 30% debido a mala fabricación de Samsung, que sea verdad o nó , pues no lo sé.

Pero lo digo por que estos benchamarks en torno al Red dead redemption 2 tan diferentes me dá que pensar .
¿Las reviews de la 3090 cuando salen? Me está dejando un sabor algo agridulce la 3080....Aunque la empiezo a ver perfecta para exprimir 144 y 165 hz a 1440p
Espero que las customs sean algo mas fresquitas que las FE, aunque respecto a la 2080Ti ha mejorada bastante según dicen en cuanto a temperaturas
Setinem escribió:Pues la verdad que el que tenga una 2080ti no le merece la pena el cambio a una 3080, aunque la 2080ti debe competir con la 3090, que es su equivalente en precio.


Estoy de acuerdo con la primera afirmación pero no con la segunda.
La 3090 es 250-300 euros más cara (precio oficial) que la 2080Ti cuando salió.
Y tienes que tener en cuenta la amortización de quienes han tenido la 2080Ti desde hace tiempo, que eso no lo solemos tener en cuenta pero es relevante.


Pues bueno, por relación calidad/precio está bien la 3080 pero como habéis pasado atrás tampoco hay TANTA diferencia con una 2080ti. Vamos, que ahora los que han regalado la 2080ti después de anunciar la serie 3000 se pueden estar tirando de los pelos... o esperarán a la 3090 xD
Bastante contento con todo lo visto, salvo las temperaturas, de nada me vale que los ventiladores no sean ruidosos si igualmente la gráfica no baja de 80°C a plena carga. Creo que me voy a ir a la Gaming X Trio finalmente...
tigretong escribió:en gamernexus se ve como la FE va entre 70-80 grados
suerte q el nuevo sistema de refrig era hasta 30 grados mas fresco

Y puede que lo sea, solo que al ser mas eficiente, lo pueden subir un poco mas de tuercas las frecuencias.
sefirot996 escribió:
wildchild_bcn escribió:
sefirot996 escribió:
Tendrá algo que ver con lo que decían que algunos se quejaban de que su rtx 3080 rendía hasta un 30% menos que la de otros por culpa de las memorias de Samsung ?


menudo cacao tienes :-? :-? :-? :-? :-? :-? :-?

no hay 30% menos de rendimiento por las memorias samsung... hay 30% de chips (fabricados por samsung... las memorias las fabrica micron) de bineado "0", que iran perfectamente a las frecuencias minimas que indica nvidia

los bineados mas altos (el 70% restante) overclockearan mas


No estoy tan puesto en eso perdón , pero es lo que leí que algunos le habían llegado gráficas inferiores hasta en un 30% debido a mala fabricación de Samsung, que sea verdad o nó , pues no lo sé.

Pero lo digo por que estos benchamarks en torno al Red dead redemption 2 tan diferentes me dá que pensar .


A ver, si a ti te venden una grafica que va 1700mhz, vas a tener una grafica que va a minimo 1700mhz, ahora, que puedas subirla mas o menos? es otra historia, en las reviews se ven que lo han subido 700mhz, pero a lo mejor tu puedes subirla 50mhz solo, o 1200mhz

Eso son los "bins" que decian las noticias, solo que algunas paginas amarillistas han dicho "Que mala es samsung produciendo chips y a la gente le van a dar graficas defectuosas"

Bin 0, Cumplen el minimo - 30%
Bin 1, Por encimal del minimo - 70%
Bin 2, Graficas pata negra, tierna, al punto de sal, bien curada - 10%
apalizadorx escribió:
Cuentaparacomentario escribió:
No sera otra cosa...pero no va hacer falta calefacción en invierno para los que se la compren XD


Y todo eso teniendo en cuento que de stock por lo que he visto en la review de youtube funcionan a 0.960v aproximadamente, es decir que ya vienen con voltajes bastante bajos en comparación a pascal/turing con lo cual es posible que el margen de undervolt sea bastante escaso, teniendo en cuenta el voltaje a la que funcionan ya vienen muy apuradas.


No permiten undervolt
Bio81 escribió:en algunos escenarios solo le saca entre 10 o 15 fps a la 2080 Ti.... me parece muy poco pero en otros escenarios le llega a sacar hasta 30 fps.. un poco decepcionante que exista esa variación de frames dependiendo del juego , y se queda corta en varias ocasiones para jugar a 4k 60 fps con juegos actuales (Borderlands 3 por poner un ejemplo).... si ya lo tenia claro por el tema de la vram ahora lo tengo todavia mas , 3090 o esperar a una 3080 super /Ti , se calienta un poco demasiado para mi gusto la 3080 FE

Pero...15-30fps en qué resolución?
Eso en 1080p es irrisorio y en 4k 30fps son una barbaridad...
hh1 escribió:
Bio81 escribió:en algunos escenarios solo le saca entre 10 o 15 fps a la 2080 Ti.... me parece muy poco pero en otros escenarios le llega a sacar hasta 30 fps.. un poco decepcionante que exista esa variación de frames dependiendo del juego , y se queda corta en varias ocasiones para jugar a 4k 60 fps con juegos actuales (Borderlands 3 por poner un ejemplo).... si ya lo tenia claro por el tema de la vram ahora lo tengo todavia mas , 3090 o esperar a una 3080 super /Ti , se calienta un poco demasiado para mi gusto la 3080 FE

Pero...15-30fps en qué resolución?
Eso en 1080p es irrisorio y en 4k 30fps son una barbaridad...


en 4k en algunos juegos solo le saca 10 fps o 15 fps en otros hasta 30 fps
Nomada_Firefox escribió:
Punto 2. La prueba de temperatura como siempre no vale nada haciendola encima de la mesa.



Realmente es la única forma que vale, meterla en una caja random no tiene sentido ya que estarías condicionando las temperaturas a una caja concreta de todas las que hay. Mi gráfica en mi caja no pasa nunca de 68º con OC, en otra caja podría llegar a 80 o más y eso no significaría que la gráfica es calentorra. Poniéndola en una mesa puedes comparar si funciona mejor o peor que otro cooler de una manera más creíble.
garbagecrystal escribió:
Setinem escribió:Pues la verdad que el que tenga una 2080ti no le merece la pena el cambio a una 3080, aunque la 2080ti debe competir con la 3090, que es su equivalente en precio.


Estoy de acuerdo con la primera afirmación pero no con la segunda.
La 3090 es 250-300 euros más cara (precio oficial) que la 2080Ti cuando salió.
Y tienes que tener en cuenta la amortización de quienes han tenido la 2080Ti desde hace tiempo, que eso no lo solemos tener en cuenta pero es relevante.


Para amortizar una tarjeta tienes que saltarte una generación como mínimo, sino no sale a cuenta, yo pasaré de una 1070 a una 3070, y notaré el cambio, hace ya 4 o 5 años que la compré, pero si tuviera una 2070/80 no cambiaría a la 3070/80, ya saltaría a la 4070. Si quieres estar a la última siempre, pues cambias, pero necesario no parece, después de ver los benchmarks.
neox3 escribió:Yo lo que saco en claro de tech power up:
que queda claro es q es calentita, demasiado.
Mi anterior fe jamas pasaba de 60 - 62.

Esta, todo el rato rozando el power limit (85 grados), me parece bastante... En verano verano, podemos reirnos. Se confirmo la imagen thermal... Sabe dios a que temp esta el pcb.

Luego no se puede hacer undervolt y no merece la pena el Oc al chip, no sube casi nada, en boost, 20mhz, pero si a la memoria, un burrada, con diferencias de hasta 10fps en algun test!

Creo q paso de la fe, y me iré cuando se pueda a una custom de 3 ventiladores, la evga me parece la que tiene el sistema de disipacion mejor pensado


No parece funcionar muy bien el diseño de las fe no, está rozando como tú bien dices, el power limit de 85, o eso recuerdo yo,menuda chapuzada, no tiene otro nombre.

@Nomada_Firefox

Pues 81 grados encima de una mesa...me parecen una burrada, 85 es el power limit no?
Imagínate dentro de una torre, y ya no hablemos de una torre normal, que adiós.
Blackpo92 escribió:Habéis visto alguna review dónde más o menos viendo lo que consume te recomienden x watts de fuente? Mi target es la 3070 y tengo una fuente corsair gold de 650w igual me puedo hacer una idea aprox.


Ahi lo puedes ver yo con una 3080 y un i5 9660k le puedo meter una de 650w o de 700W no te tienes que ir a 750w a no ser que vayas a reventar el procesador y la grafica con un overclock exagerado

https://outervision.com/power-supply-calculator
@hh1

Sq es eso...veo que no hay nada tocho en el horizonte quitando el Cyberpunk...

Aunq ojo, q las primeras reviews q se están viendo la 3080 llega a ser un 50% más potente que la 2080ti según el juego...
La verdad es q nvidia se la ha sacado, por 720€ le pasa la polla x la cara a tarjetas q hasta hace nada valían hasta 1400€...
Nate Gentile dice algo bastante interesante en el vídeo: "una gráfica del futuro probada en juegos del pasado" Habrá que ver la next gen y los nuevos juegos que están desarrollándose para ellas.
Yo creo que el principal motivo de pasar de una 2080ti a esta radica en que la 3080 sobrepasa esa barrera de los +60 fps en 4k que le faltaba a las 2080ti. Quien quiera jugar a esta resolución sin toquetear ni bajar opciones gráficas es su tarjeta.
tigretong escribió:en gamernexus se ve como la FE va entre 70-80 grados
suerte q el nuevo sistema de refrig era hasta 30 grados mas fresco

Stock no suben del 45% los ventiladores, por lo que simplemente dice que está configurada para funcionar a esa temperatura. Si se los subes con cualquier programa bajará.
Ya se sabe cuanta diferencia hay con la 2080ti? (Si es que la hay).

Estoy en el curro y no puedo mirar nada.

Gracias.
Strait escribió:Nate Gentile dice algo bastante interesante en el vídeo: "una gráfica del futuro probada en juegos del pasado" Habrá que ver la next gen y los nuevos juegos que están desarrollándose para ellas.

Imposible. La vram ya se queda corta con juegos actuales.
En renderizado 3D rinde el doble que la 2080 Ti.

Imagen
DaNi_0389 escribió:La 3080 es minimo gpu para 1440p 144Hz, todo lo que sea bajar de eso ahora mismo es desaprovecharla.


La verdad que es una bestia en todos los sentidos, va sedienta de Vatios la jodida [+risas]


Bueno eso de 144 fps en 1440p estables, no todos los juegos o al menos no todos con valores en ultra y rtx on

Ya veremos a ver a cuanto va el cyberpunk
ayran escribió:
Strait escribió:Nate Gentile dice algo bastante interesante en el vídeo: "una gráfica del futuro probada en juegos del pasado" Habrá que ver la next gen y los nuevos juegos que están desarrollándose para ellas.

Imposible. La vram ya se queda corta con juegos actuales.


Dúdulo mucho. Esas afirmaciones sin profiling de juegos no se pueden hacer. Y sólo veo en los bench que ponen el número de la memoria asignada, que es casi como si no te digo nada.
ayran escribió:
Strait escribió:Nate Gentile dice algo bastante interesante en el vídeo: "una gráfica del futuro probada en juegos del pasado" Habrá que ver la next gen y los nuevos juegos que están desarrollándose para ellas.

Imposible. La vram ya se queda corta con juegos actuales.

mira las reviews que han salido hoy a ver en que juego se queda corta la vram...

volviendo al RDR2, segun LTT:
Imagen
demasiado calentorras las FE , claro si quieres que sean mas frescas o la pasas por agua o le subes los rpm subiendo tambien la sonoridad , eso ya depende de cada uno si le molesta el ruido o no
pues viendo como ha salido esta FE... me estoy planteando mirar la MSI gaming trio, el OC me parece que se va de las manos en cuanto a consumos asi que no creo ni que me moleste en hacerlo
wildchild_bcn escribió:
ayran escribió:
Strait escribió:Nate Gentile dice algo bastante interesante en el vídeo: "una gráfica del futuro probada en juegos del pasado" Habrá que ver la next gen y los nuevos juegos que están desarrollándose para ellas.

Imposible. La vram ya se queda corta con juegos actuales.

mira las reviews que han salido hoy a ver en que juego se queda corta la vram...

volviendo al RDR2, segun LTT:
Imagen

pero rdr2 va asó en una 2080?
gwallace escribió:
wildchild_bcn escribió:
ayran escribió:Imposible. La vram ya se queda corta con juegos actuales.

mira las reviews que han salido hoy a ver en que juego se queda corta la vram...

volviendo al RDR2, segun LTT:
Imagen

pero rdr2 va asó en una 2080?

Tengo un amigo con una 2080 TI, y el RDR2 le va a 70-80fps en 1440p en ultra, con un 9900K

Rakshasa escribió:@hh1

Sq es eso...veo que no hay nada tocho en el horizonte quitando el Cyberpunk...

Aunq ojo, q las primeras reviews q se están viendo la 3080 llega a ser un 50% más potente que la 2080ti según el juego...
La verdad es q nvidia se la ha sacado, por 720€ le pasa la polla x la cara a tarjetas q hasta hace nada valían hasta 1400€...

No te preocupes... Ya hay noticias de que Samsung tiene problemas de Stock, y que los mineros estan muy interesados en esas graficas... cuando samsung va bien de produccion y segun muchos, el mercado de criptodivisas esta a la baja...
Se viene subida artificial de precios.
Pues ahora estoy dudando en si animarme con la 3080 en lugar de la 3090, a saber que diferencia de rendimiento real se verá en los juegos. Desde luego no quiero comprarme algo y luego arrepentirme, eso tanto con una como con otra ya que siempre sacarán una más potente.

Nadie ha soltado prenda sobre cuando harán reviews de la 90, no?
elamos escribió:
DaNi_0389 escribió:La 3080 es minimo gpu para 1440p 144Hz, todo lo que sea bajar de eso ahora mismo es desaprovecharla.


La verdad que es una bestia en todos los sentidos, va sedienta de Vatios la jodida [+risas]


Bueno eso de 144 fps en 1440p estables, no todos los juegos o al menos no todos con valores en ultra y rtx on

Ya veremos a ver a cuanto va el cyberpunk



Bueno, alguna excepcion habra logicamente, pero en general a esa resolucion va sobradisima, en mi opinion esta grafica para 1440p 60hz es tirar el dinero.
pregunta bastante importante. Alguien ha visto alguna review que incluya algo de contenido VR? que a mi es lo que mas me interesa
Bueno pues lo esperado después de todas las filtraciones que a habido estos días, sobre un 30% mas potente que la 2080ti, dependiendo el juego.
DaNi_0389 escribió:
elamos escribió:
DaNi_0389 escribió:La 3080 es minimo gpu para 1440p 144Hz, todo lo que sea bajar de eso ahora mismo es desaprovecharla.


La verdad que es una bestia en todos los sentidos, va sedienta de Vatios la jodida [+risas]


Bueno eso de 144 fps en 1440p estables, no todos los juegos o al menos no todos con valores en ultra y rtx on

Ya veremos a ver a cuanto va el cyberpunk



Bueno, alguna excepcion habra logicamente, pero en general a esa resolucion va sobradisima, en mi opinion esta grafica para 1440p 60hz es tirar el dinero.



1440p a 240 hz que tengo yo. solo me queda la unica esperanza de la 3090. alla voy [boma]
31123 respuestas