[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

hh1 escribió:
Yuluga escribió:
hh1 escribió:850€ por una 3070TI que es solo un poco más potente que una 3070 ,6-13% dependiendo el juego,más tirando al 6% que al 13 % ,me parece una burrada igualmente.
El término TI ha pasado a ser puro marketing en casi todos los casos.

pero esa no es una ti, no? es una trio, que ya existia de antes

Claro.
Pero dice que si llega a ser TI,que la pillaba por ese precio.
La 3070Ti no vale ni los 100€ de más de precio base con respecto a la 3070 normal.

Un 18% de diferencia de precio para obtener una media de un 8-9% de mayor rendimiento.
Imagina por 850€ con 320€ de sobreprecio...

@DarkMessiah
Y Game no es precisamente barata

El precio que comentas es de la normal, no de la Ti. La Ti FE son 619 euros, pongamosle 100 euro mas de las ensambladoras, nos ponemos en 720 euros. 850e por una de ensambladora no me parece un gran sobreprecio, son unos 100-150 euros de sobreprecio, no me parece descabellado en mi opinion. Que mejor por 619e? pues claro...pero hasta que ese precio sea el comun sin que vuelen las tarjetas en segundos pues para eso si que queda bastante tiempo diria yo.
D3N184 escribió:
hh1 escribió:
Yuluga escribió:pero esa no es una ti, no? es una trio, que ya existia de antes

Claro.
Pero dice que si llega a ser TI,que la pillaba por ese precio.
La 3070Ti no vale ni los 100€ de más de precio base con respecto a la 3070 normal.

Un 18% de diferencia de precio para obtener una media de un 8-9% de mayor rendimiento.
Imagina por 850€ con 320€ de sobreprecio...

@DarkMessiah
Y Game no es precisamente barata

El precio que comentas es de la normal, no de la Ti. La Ti FE son 619 euros, pongamosle 100 euro mas de las ensambladoras, nos ponemos en 720 euros. 850e por una de ensambladora no me parece un gran sobreprecio, son unos 100-150 euros de sobreprecio, no me parece descabellado en mi opinion. Que mejor por 619e? pues claro...pero hasta que ese precio sea el comun sin que vuelen las tarjetas en segundos pues para eso si que queda bastante tiempo diria yo.

Seguís sin enteraros.
Yo he respondido a otro forero que ha dicho que por ese precios, SI LLEGA A SER TI,LA PILLABA.
Ya sé que es la normal. [beer]

@Jaskier
A ver si posteas benchmarks para compararla con la 3070 normal y la 3080. [beer]
Yuluga escribió:
hh1 escribió:
Yuluga escribió:joder macho, no he llegado a tiempo!! gracias por avisar! parece que van saliendo y bajando...

Yo sí pude comprarla, pero ya con una 3070, no vi buena la oferta.
Es la segunda vez que un aviso de bot me permite comprar alguna.

que bot sigues compi? no vi esta, yo si me dejara financiarla la hubiera pillado... aunque son 200€ más de su precio...

No sé si se pasa el enlace así:.
@GPUStockFinder
@hh1 gracias! a ver si hay suerte
hh1 escribió:
D3N184 escribió:
hh1 escribió:Claro.
Pero dice que si llega a ser TI,que la pillaba por ese precio.
La 3070Ti no vale ni los 100€ de más de precio base con respecto a la 3070 normal.

Un 18% de diferencia de precio para obtener una media de un 8-9% de mayor rendimiento.
Imagina por 850€ con 320€ de sobreprecio...

@DarkMessiah
Y Game no es precisamente barata

El precio que comentas es de la normal, no de la Ti. La Ti FE son 619 euros, pongamosle 100 euro mas de las ensambladoras, nos ponemos en 720 euros. 850e por una de ensambladora no me parece un gran sobreprecio, son unos 100-150 euros de sobreprecio, no me parece descabellado en mi opinion. Que mejor por 619e? pues claro...pero hasta que ese precio sea el comun sin que vuelen las tarjetas en segundos pues para eso si que queda bastante tiempo diria yo.

Seguís sin enteraros.
Yo he respondido a otro forero que ha dicho que por ese precios, SI LLEGA A SER TI,LA PILLABA.
Ya sé que es la normal. [beer]

@Jaskier
A ver si posteas benchmarks para compararla con la 3070 normal y la 3080. [beer]


Pero si he sido yo el que ha dicho que si fuera una Ti me la pillaria...o se han perdido mensajes entre medias o no entiendo nada [+risas]
Wookiee escribió:
eR_pOty escribió:@ViRuSz si la GPU le va al 60-80% hay un claro bottleneck, si no es subiendo la resolución ya me dirás cómo solucionarlo si no cambia la CPU [carcajad]

Ya es elegir entre las bandas negras o tener una GPU capada



Y si a su resolucion nativa juega a x fps, ¿que sentido tiene subir a una resolucion que no puede aprovechar y jugar a x-y fps? Porque subiendo la resolucion va a tener menos fps fijo (de ahi que la cpu no se ahogue)...

Yo no entiendo la obsesion que hay con los cuellos de botella la verdad. Siempre hay algo que te limita, ya sea la cpu, la gpu o el propio monitor.

Lo mejor es que el cuello de botella lo sea la GPU, no? Si es el procesador para qué te gastas tanto dinero en una gráfica si no la vas a aprovechar? Y si es el monitor puede ser por varias cosas. Si es por la resolución (2k por ejemplo y no 4k), la parte buena es que puedes meterle mas fps (+60fps). Claro que si tienes un monitor/TV 1080p a 60fps (y mira que yo tengo una TV así)... tira ese viejo monitor/TV y cómprate uno por 2 duros que cualquiera hoy en día te da un mínimo de resolución/hz sin gastarte un dineral.
Bueno, parece que ya se va liberando un poco la cosa, al final he podido conseguir una 3060 TUF. Llevaba tiempo detrás de una para el curro (los 8gb a veces se me quedan justos). Me ha salido por unos 350€, así que genial.
Mi andadura por la serie 3000 acaba aquí. Ha durado casi 5 meses, pero al fin. Mucho ánimo a los que andais detras una gráfica, parece que la cosa va aflojando poco a poco.
Un saludo compis.
Rvilla87 escribió:
Wookiee escribió:
eR_pOty escribió:@ViRuSz si la GPU le va al 60-80% hay un claro bottleneck, si no es subiendo la resolución ya me dirás cómo solucionarlo si no cambia la CPU [carcajad]

Ya es elegir entre las bandas negras o tener una GPU capada



Y si a su resolucion nativa juega a x fps, ¿que sentido tiene subir a una resolucion que no puede aprovechar y jugar a x-y fps? Porque subiendo la resolucion va a tener menos fps fijo (de ahi que la cpu no se ahogue)...

Yo no entiendo la obsesion que hay con los cuellos de botella la verdad. Siempre hay algo que te limita, ya sea la cpu, la gpu o el propio monitor.

Lo mejor es que el cuello de botella lo sea la GPU, no? Si es el procesador para qué te gastas tanto dinero en una gráfica si no la vas a aprovechar? Y si es el monitor puede ser por varias cosas. Si es por la resolución (2k por ejemplo y no 4k), la parte buena es que puedes meterle mas fps (+60fps). Claro que si tienes un monitor/TV 1080p a 60fps (y mira que yo tengo una TV así)... tira ese viejo monitor/TV y cómprate uno por 2 duros que cualquiera hoy en día te da un mínimo de resolución/hz sin gastarte un dineral.



El compi dijo que jugaba en un 3440x1440, asi que supongo que sera minimo 120hz, y no creo que tenga demasiados problemas para sacar 110fps con esa gpu y cpu en casi ningun juego. Que la gpu se rasque las bolas no es mayor problema siempre que aproveche el resto de hard.
He probado un poco más, he actualizado la bios de la placa por si mejoraba algo con la CPU pero va igual, un poco mejor que con la 1080 pero no veo mucha mejoría. No sé cómo lo véis pero por descartar que sea la GPU, pienso que el BFV en alto me debería ir sobre los 100fps (3440x1440), pero nunca llega y la carga de la GPU está a menos del 50% y la CPU al 60-70%.

En el warzone parece que se utiliza más la GPU y llega a los 70-90% y ya va mejor, se nota la 3080.

Si en la BIOS no configuro el DOCP con la ram a 3200 todo va bastante peor.

Asi que, descarto que pueda ser la GPU? A mí me da la impresión que es la CPU pero no sé si alguien ve indicio de que sea la GPU y luego cambie de CPU para nada.

@ViRuSz has podido probar algo?
eric_14 escribió:He probado un poco más, he actualizado la bios de la placa por si mejoraba algo con la CPU pero va igual, un poco mejor que con la 1080 pero no veo mucha mejoría. No sé cómo lo véis pero por descartar que sea la GPU, pienso que el BFV en alto me debería ir sobre los 100fps (3440x1440), pero nunca llega y la carga de la GPU está a menos del 50% y la CPU al 60-70%.

En el warzone parece que se utiliza más la GPU y llega a los 70-90% y ya va mejor, se nota la 3080.

Si en la BIOS no configuro el DOCP con la ram a 3200 todo va bastante peor.

Asi que, descarto que pueda ser la GPU? A mí me da la impresión que es la CPU pero no sé si alguien ve indicio de que sea la GPU y luego cambie de CPU para nada.

@ViRuSz has podido probar algo?



Olvidate del uso de gpu porque siempre va a ir mas sobrada que tu cpu. En youtube tienes videos de tu mismo hard y ese juego a diferentes resoluciones para que te hagas una idea.


¿Hiciste desinstalacion completa de los anteriores drivers e instalacion limpia de los nuevos o pinchaste la nueva y a tirar millas?

Revisa tambien las opciones graficas dentro del juego y en el panel de nvidia or si tuvieras limitados los fps.
eric_14 escribió:He probado un poco más, he actualizado la bios de la placa por si mejoraba algo con la CPU pero va igual, un poco mejor que con la 1080 pero no veo mucha mejoría. No sé cómo lo véis pero por descartar que sea la GPU, pienso que el BFV en alto me debería ir sobre los 100fps (3440x1440), pero nunca llega y la carga de la GPU está a menos del 50% y la CPU al 60-70%.

En el warzone parece que se utiliza más la GPU y llega a los 70-90% y ya va mejor, se nota la 3080.

Si en la BIOS no configuro el DOCP con la ram a 3200 todo va bastante peor.

Asi que, descarto que pueda ser la GPU? A mí me da la impresión que es la CPU pero no sé si alguien ve indicio de que sea la GPU y luego cambie de CPU para nada.

@ViRuSz has podido probar algo?


Si nada te va al 100% tiene pinta que tengas limitados los FPS en el juego, ya sea porque tienes algún tipo de sincronización activa con el monitor y el monitor no esté cobfigurado a altos Hz, si es que es de más de 60, que no he seguido todos tus mgs
Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas. [qmparto]
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas. [qmparto]


Para el rendimiento que tienen comparada con una 3070 y que la gente suele preferir NVidia no entiendo como pueden estar tan caras la verdad. No me importaria tener una 6800XT a precio de web AMD
Wookiee escribió:
Rvilla87 escribió:
Wookiee escribió:Y si a su resolucion nativa juega a x fps, ¿que sentido tiene subir a una resolucion que no puede aprovechar y jugar a x-y fps? Porque subiendo la resolucion va a tener menos fps fijo (de ahi que la cpu no se ahogue)...

Yo no entiendo la obsesion que hay con los cuellos de botella la verdad. Siempre hay algo que te limita, ya sea la cpu, la gpu o el propio monitor.

Lo mejor es que el cuello de botella lo sea la GPU, no? Si es el procesador para qué te gastas tanto dinero en una gráfica si no la vas a aprovechar? Y si es el monitor puede ser por varias cosas. Si es por la resolución (2k por ejemplo y no 4k), la parte buena es que puedes meterle mas fps (+60fps). Claro que si tienes un monitor/TV 1080p a 60fps (y mira que yo tengo una TV así)... tira ese viejo monitor/TV y cómprate uno por 2 duros que cualquiera hoy en día te da un mínimo de resolución/hz sin gastarte un dineral.



El compi dijo que jugaba en un 3440x1440, asi que supongo que sera minimo 120hz, y no creo que tenga demasiados problemas para sacar 110fps con esa gpu y cpu en casi ningun juego. Que la gpu se rasque las bolas no es mayor problema siempre que aproveche el resto de hard.

La verdad que solo quería responder a tu última frase en la que restabas imporancia a qué componente fuera el cuello de botella (yo no opino así y lo expliqué), pero ya que me hablas del caso concreto vamos a ello.

La 3080 a 1440p va a unos 70fps con el RDR2 (pongo 1 ejemplo pero hay muchos mas). Hasta llegar a los supuestos 120fps de su monitor le queda un buen margen con lo cual ya tenemos que el monitor no es su cuello de botella. Si su GPU se ve limitada por la CPU u otro componente no va a ir a los 50-80fps sino que irá a menos, con lo cual para qué tiene una GPU tan potente como la 3080 si le va a rendir como una 3060 por poner un ejemplo? Que se mejore la CPU. Creo que la situación ideal es que el cuello de botella sea la GPU, para algo es lo que más se necesita en un videojuego y encima es lo mas caro. Aprovéchala.

Y a todo esto yo antes de ver si una cosa u otra está a un mayor o menor % de uso vería si le da los fps que dice la mayoría de tests, es la 1º prueba que haría para validar que mi componente no está roto/defectuoso o he montado mal el pc, seleccionado mal el conjunto de componentes, etc.
D3N184 escribió:
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas. [qmparto]


Para el rendimiento que tienen comparada con una 3070 y que la gente suele preferir NVidia no entiendo como pueden estar tan caras la verdad. No me importaria tener una 6800XT a precio de web AMD

Cierto, una 6800 XT es algo decente (a precio oficial), pero poner las 6700 XT a esos precios y esperar que se vendan es una locura, es decir, claramente son un gancho para aquellos agónicos que quieran comprar ahora mismo una gráfica "actual" por menos de 800 pavos... pero por lo que veo no les está funcionando ya que cada vea se ven más y más (¡¡y yo que me alegro!!).
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas. [qmparto]


Que problema tienen? Rinden casi como una 3070 valen algo menos, tienen 4gb más de vram y consumen lo mismo.

Además el FSR de amd parece que está al nivel del DLSS así que ya no tienen ese handicap.

De hecho me juego mi testículo izquierdo a que envejece mejor que la 3070.

Lo que está claro es que ni la 6700xt ni la 3070 valen 800€, yo no pagaría más de 550€ por ninguna de las 2.

La 6800 xt a los 650€ que vale en la web de amd es un caramelito.

Poco a poco parece que van bajando de precio.
@eric_14 no te había leído, creo que lo mejor es que veas como rinden equipos como el tuyo. Este por ejemplo tiene el mismo CPU y GPU:
https://www.youtube.com/watch?v=irWhYN8yN54

Seguramente tú tendrás drivers mas nuevos pero al menos te debería ir igual o mejor que a él. Si en tests concretos de CPU y GPU te da un rendimiento normal para esos componentes diría que tu problema es mas bien algo a nivel de configuración del juego o windows o drivers.
pero que pasa con los mineros??? que ya no pillan las graficas o que?!!!!! JAJAJAJA
Yo estoy encaprichado totalmente de las Palit Gamerock (3090 y 3080ti) son las únicas que están a precios desorbitados (vamos que parece casi un error) a más de 3.000e cada una...
PepeC12 escribió:
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas. [qmparto]


Que problema tienen? Rinden casi como una 3070 valen algo menos, tienen 4gb más de vram y consumen lo mismo.

Además el FSR de amd parece que está al nivel del DLSS así que ya no tienen ese handicap.

De hecho me juego mi testículo izquierdo a que envejece mejor que la 3070.

Lo que está claro es que ni la 6700xt ni la 3070 valen 800€, yo no pagaría más de 550€ por ninguna de las 2.

La 6800 xt a los 650€ que vale en la web de amd es un caramelito.

Poco a poco parece que van bajando de precio.

Claro, el problema lo tiene su precio, hoy está grafica (con toda la competencia) rondaría entre los 400€ y 500€, las están intentando vender por 800€ y más..., se las están comiendo porque cada vez hay más y más, por algo será. [qmparto]
eR_pOty está baneado por "GAME OVER"
PepeC12 escribió:
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas. [qmparto]


Que problema tienen? Rinden casi como una 3070 valen algo menos, tienen 4gb más de vram y consumen lo mismo.

Además el FSR de amd parece que está al nivel del DLSS así que ya no tienen ese handicap.

De hecho me juego mi testículo izquierdo a que envejece mejor que la 3070.

Lo que está claro es que ni la 6700xt ni la 3070 valen 800€, yo no pagaría más de 550€ por ninguna de las 2.

La 6800 xt a los 650€ que vale en la web de amd es un caramelito.

Poco a poco parece que van bajando de precio.

Que no, por mas que os emperreis los AMDeros (que ningun milenial se ofenda por dios) El FSR de AMD jamas va a estar a la altura del DLSS por cuestiones meramente tecnicas, FSR el puro software open source mientras que DLSS hace uso de hardware (Tensor Cores) para potenciar la IA de la red neuronal deep learning

Es mas, fijate que yo con una nvidia podre usar FSR o DLSS, elegir al gusto y con una GPU AMD no podras usar jamas DLSS. Esto se traduce en que NVIDIA no solo tendra los 57 juegos actualmente compatibles con DLSS , Si no que tambien trendrá todos los juegos con FSR, te parece poco handicap? Aun sigues pensando que envejecera peor? Claramente espero que no.
Yo ya me estoy haciendo a la idea que una RTX 3000 va a caer cuando el mercado de segunda mano se sature de gpus mineras.

Una 3060 o una 3060Ti serán una sustituta perfecta de mi RX470.
Veo muchos cantos de victoria a mi juicio precipitados. Nada parece indicar que estemos cerca del fin de la crisis de los semiconductores pero la peña ya dice que como PCC tiene 29 gráficas está cerca su fin. Ojalá me lleve el zasca del siglo pero no creo que eso ocurra hasta, al menos, 2022.

Noticia relacionada: https://www.digitimes.com/news/a20210621PD212.html

EDITO: ya sé que los chips de las GPUs NVIDIA los fabrica Samsung.
eR_pOty está baneado por "GAME OVER"
eimia escribió:pero que pasa con los mineros??? que ya no pillan las graficas o que?!!!!! JAJAJAJA

Alguno se resiste a morir, todo sea por ganar dinero sin pegar un palo al agua [qmparto]


JAPR escribió:Veo muchos cantos de victoria a mi juicio precipitados. Nada parece indicar que estemos cerca del fin de la crisis de los semiconductores pero la peña ya dice que como PCC tiene 29 gráficas está cerca su fin. Ojalá me lleve el zasca del siglo pero no creo que eso ocurra hasta, al menos, 2022.

Noticia relacionada: https://www.digitimes.com/news/a20210621PD212.html

EDITO: ya sé que los chips de las GPUs NVIDIA los fabrica Samsung.



El hashrate de Ethereum ha bajado bastante, por eso estamos viendo la mejora de stock de gpu, ya no se las llevan tan alegremente.

De momento este es el panorama, si en unos meses el hashrate se vuelve a disparar pues otra vez pasará que ni llegan a las tiendas.
@eric_14 pasale test sintéticos que solo utilizan la gráfica, como un superposition.
@eR_pOty mirate los reviews del FSR.

Vaya que si compite con el DLSS.

Funciona sorprendentemente bien, sobretodo en ultra y quality.

Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.

Por ejemplo fsr no tiene problemas de ghosting y el dlss si.

Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)

Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.

Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.

Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.

Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.
Rvilla87 escribió:@eric_14 no te había leído, creo que lo mejor es que veas como rinden equipos como el tuyo. Este por ejemplo tiene el mismo CPU y GPU:
https://www.youtube.com/watch?v=irWhYN8yN54

Seguramente tú tendrás drivers mas nuevos pero al menos te debería ir igual o mejor que a él. Si en tests concretos de CPU y GPU te da un rendimiento normal para esos componentes diría que tu problema es mas bien algo a nivel de configuración del juego o windows o drivers.


No me va igual, sí que he puesto el DX12 y parece que hace un mejor uso, pero en el vídeo se ve que la GPU siempre está al 99% en mi configuración no, mi CPU tampoco llega a más de 4000mhz. Con linux también he probado que hay menos lío de drivers y también iba parecido. Igual tengo una CPU vaga.

Me lo pensaré a ver, o revisaré la BIOS porque hay juegos que son injugables así.

En tests sintéticos tampoco parece que vayan mal, el time spy da 16.600 que es lo normal para mi configuración.
eric_14 escribió:@ViRuSz has podido probar algo?

Al final he podido cambiar la 3090 por una 3080ti más pasta y ya la tengo instalada y montada. He hecho pruebas con 4 juegos con la gráfica antigua y la nueva. Battlefield V, Red Dead 2, No Mans Sky y Forza Horizon 4.

GTX 1080 Ti
Red Dead 2 : 30-45 fps
No Mans Sky: 40-60 fps
Forza Horizon 4: 70-80 fps
Battlefield V: 75-90 fps

RTX 3080 Ti
Read Dead 2: 65-90 fps
No Mans Sky: 90-110 fps
Forza Horizon 4: 115-140 fps
Battlefield V: 90-110 fps

En el Battlefield V con la 3080Ti he tenido el mismo problema que tú. El uso de la GPU al 50-60%. Si que es cierto que lo he probado solamente en DX11.
En el resto de juegos el uso de la GPU ha sido el normal y siempre estaba en 98-99%. Parece ser un problema del Battlefield V, pero bueno, poco me importa porque ya no lo voy a jugar más. Estoy jugando al BF4 para practicar un poco para el Battlefield nuevo.

Edit: Yo juego a 3440x1440, que se me había olvidado mencionarlo.
@ViRuSz Yo estoy probando ahora una MSI RTX 3080 Gaming X Trio, y al No Man's Sky (es el único que tengo de los que has puesto) me da esto:
No man's Sky 2160p ULTRA (todas las opciones activadas) 80fps
No man's Sky 1440p ULTRA (todas las opciones activadas) 110fps
No man's Sky 1080p ULTRA (todas las opciones activadas) 121fps

no tengo un gran equipo, 8600K 16Gb 3.200 y un WD Black SN750, está claro que con un buen 5800X o un 10700K sacaría más.
DaNi_0389 escribió:
JAPR escribió:Veo muchos cantos de victoria a mi juicio precipitados. Nada parece indicar que estemos cerca del fin de la crisis de los semiconductores pero la peña ya dice que como PCC tiene 29 gráficas está cerca su fin. Ojalá me lleve el zasca del siglo pero no creo que eso ocurra hasta, al menos, 2022.

Noticia relacionada: https://www.digitimes.com/news/a20210621PD212.html

EDITO: ya sé que los chips de las GPUs NVIDIA los fabrica Samsung.



El hashrate de Ethereum ha bajado bastante, por eso estamos viendo la mejora de stock de gpu, ya no se las llevan tan alegremente.

De momento este es el panorama, si en unos meses el hashrate se vuelve a disparar pues otra vez pasará que ni llegan a las tiendas.


Qué duda cabe que eso mejorará un poco el stock pero la crisis de los semiconductores sigue y seguirá.

Sé que no es lo mismo pero llevo meses esperando poder comprar un accesorio para simuladores de vuelo que está agotado. Y ahí no hay mineros que valgan.
Gman87 escribió:
jrdj escribió:
shelbyk escribió:siempre quedara la zotac rtx 3090 para comprar...

No hay quien la quiera


Motivo?


Que es Zotac. Y no quieres gastarte lo que vale una 3090 en una Zotac.
ViRuSz escribió:
eric_14 escribió:@ViRuSz has podido probar algo?

Al final he podido cambiar la 3090 por una 3080ti más pasta y ya la tengo instalada y montada. He hecho pruebas con 4 juegos con la gráfica antigua y la nueva. Battlefield V, Red Dead 2, No Mans Sky y Forza Horizon 4.

GTX 1080 Ti
Red Dead 2 : 30-45 fps
No Mans Sky: 40-60 fps
Forza Horizon 4: 70-80 fps
Battlefield V: 75-90 fps

RTX 3080 Ti
Read Dead 2: 65-90 fps
No Mans Sky: 90-110 fps
Forza Horizon 4: 115-140 fps
Battlefield V: 90-110 fps

En el Battlefield V con la 3080Ti he tenido el mismo problema que tú. El uso de la GPU al 50-60%. Si que es cierto que lo he probado solamente en DX11.
En el resto de juegos el uso de la GPU ha sido el normal y siempre estaba en 98-99%. Parece ser un problema del Battlefield V, pero bueno, poco me importa porque ya no lo voy a jugar más. Estoy jugando al BF4 para practicar un poco para el Battlefield nuevo.

Edit: Yo juego a 3440x1440, que se me había olvidado mencionarlo.


Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).

Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).
PepeC12 escribió:@eR_pOty mirate los reviews del FSR.

Vaya que si compite con el DLSS.

Funciona sorprendentemente bien, sobretodo en ultra y quality.

Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.

Por ejemplo fsr no tiene problemas de ghosting y el dlss si.

Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)

Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.

Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.

Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.

Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.

Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo

Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.

Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.
hh1 escribió:
PepeC12 escribió:@eR_pOty mirate los reviews del FSR.

Vaya que si compite con el DLSS.

Funciona sorprendentemente bien, sobretodo en ultra y quality.

Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.

Por ejemplo fsr no tiene problemas de ghosting y el dlss si.

Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)

Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.

Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.

Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.

Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.

Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo

Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.

Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.


Pues a igualdad de precio yo me tiraria a una 6800XT aunque sea por la cantidad de VRAM. Los 8GB de VRAM de las 3070 yo creo que a la larga les va a pasar factura y una 6800XT va a envejecer mejor.
D3N184 escribió:
hh1 escribió:
PepeC12 escribió:@eR_pOty mirate los reviews del FSR.

Vaya que si compite con el DLSS.

Funciona sorprendentemente bien, sobretodo en ultra y quality.

Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.

Por ejemplo fsr no tiene problemas de ghosting y el dlss si.

Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)

Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.

Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.

Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.

Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.

Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo

Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.

Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.


Pues a igualdad de precio yo me tiraria a una 6800XT aunque sea por la cantidad de VRAM. Los 8GB de VRAM de las 3070 yo creo que a la larga les va a pasar factura y una 6800XT va a envejecer mejor.

Lo de quedarse corto de VRAM con 8 GB no lo acabo de ver.
Ya mandé una captura de imagen hace un par de días jugando a 4K con todo al maximo y no llegaba a 7 GB de VRAM en uso.
Antoniopua está baneado por "saltarse el ban con un clon"
Yo en el ETS 2, y los Mod que me gustan + 3440x1440p supera 8 Gb de Vram... Casos "puntuales" pero que no sabemos a ciencia cierta si acabaran siendo más habituales de lo que creemos. De hecho... no es el único juego que supera los 8 Gb de Vram jugado en las mismas resoluciones e incluso sin mod. En mi caso una 3070 no creo que me fuese muy bien... prefiero las 16 Gb de Vram de mi actual 6800 XT. Me da más tranquilidad según voy viendo...



Un saludo!!!
D3N184 escribió:
hh1 escribió:
PepeC12 escribió:@eR_pOty mirate los reviews del FSR.

Vaya que si compite con el DLSS.

Funciona sorprendentemente bien, sobretodo en ultra y quality.

Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.

Por ejemplo fsr no tiene problemas de ghosting y el dlss si.

Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)

Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.

Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.

Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.

Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.

Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo

Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.

Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.


Pues a igualdad de precio yo me tiraria a una 6800XT aunque sea por la cantidad de VRAM. Los 8GB de VRAM de las 3070 yo creo que a la larga les va a pasar factura y una 6800XT va a envejecer mejor.

Yo solo me pensaría la 6800XT si se juega a 4K.
Si se juega a 1440p como yo,los 8Gb de Vram dan bien de sí.
Antes se me va a quedar corta de potencia.
Se lleva casi un año con el rollo de los 8GB y yo no veo dónde se queda corta.Es que ni a 4 k hoy por hoy.
Qué no defiendo esos 8Gb.Han sido curres y deberían haber metido 12 GB.

Mientras ,con una 6800XT te has comido meses de RT regulero y encima no poder jugar bien a varios títulos por ausencia de DLSS.Hablando de querer jugar con todo ,claro.
Sin embargo ,con la 3070,0 problema.

Y sí, ahora sacan en FSR pero que no llega ,ni de coña, al nivel del DLSS y en RT siguen por detrás.
Pues ya me dirás.
Salvo que se quiera 4K sí o sí y prescindir de tecnologías ,o sea,ir a potencia bruta a pelo ,sin nada,yo no elegiría una AMD hoy por hoy.

El FSR está genial y es un avance,pero si busco 4K es para tener la mayor nitidez y calidad posible.Si me lo emborronar,pues ha me dirás qué sentido tiene.

Vamos ,yo no cambio mi 3079 por una 6800XT por más potente que sea está.En cuando llega el DLSS y el RT...
Pero bueno, es solo mi opinión.
Antoniopua escribió:Yo en el ETS 2, y los Mod que me gustan + 3440x1440p supera 8 Gb de Vram... Casos "puntuales" pero que no sabemos a ciencia cierta si acabaran siendo más habituales de lo que creemos. De hecho... no es el único juego que supera los 8 Gb de Vram jugado en las mismas resoluciones e incluso sin mod. En mi caso una 3070 no creo que me fuese muy bien... prefiero las 16 Gb de Vram de mi actual 6800 XT. Me da más tranquilidad según voy viendo...



Un saludo!!!

Hay juegos que parece que adaptan la carga en memoria en función de la cantidad de VRAM que detecten.
Vi un vídeo jugando a FAR CRY 5 en el que con una 3060 se usaban casi 9GB de VRAM, pero con una 3080 a igualdad de calidad se conformaba con alrededor de 7.
Cuidado con la VRAM una cosa es la que realmente necesita el juego y otra cosa es la VRAM reservada que siempre es superior a la que realmente se consume.

Yo lo he vivido con el FS2020, con la 3080 me indicaba cerca de 8-9 GB y con la 3090 11-12 GB
@anderpr

Eso no es que se adapte, con la 3060 al tener más memoria pues le asigna más, por si acaso, pero a ninguna de las dos le va a faltar.


Ahora mismo el único juego así que yo conozca que con 8gb no es suficiente es Resident Evil Village a 4k.
Queria probar hacer el OC Automatico del panel de GeForce Experience en Rendimiento, pero cuando lleva unos 10s me sale esto: "Resultado del ultimo analisis: El ajuste automatico ha sido detenido. Reinicie el analisis"

Alguien sabe a que se debe? Con el afterburner cerrado, y sin OC.

Por otro lado, he vuelto a bajar BF4 y lo tengo limitado a 200 fps, alguien sabe como se quita esta limitacion?

Gracias!
eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).

Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).

He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.
ViRuSz escribió:
eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).

Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).

He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.


En el caso de los Battlefield´s , prueba en configuración una opción que es FUTURE FRAME REDERING , tiene que estar en ON.
Dibxer escribió:Queria probar hacer el OC Automatico del panel de GeForce Experience en Rendimiento, pero cuando lleva unos 10s me sale esto: "Resultado del ultimo analisis: El ajuste automatico ha sido detenido. Reinicie el analisis"

Alguien sabe a que se debe? Con el afterburner cerrado, y sin OC.

Por otro lado, he vuelto a bajar BF4 y lo tengo limitado a 200 fps, alguien sabe como se quita esta limitacion?

Gracias!

Eso me pasaba a mi la semana pasada (creo) pero ahora lo acabo de ejecutar:

Imagen

Esta semana se que se ha actualizado el GEFORCE EXPERIENCE y ayer salieron drivers. No se si tiene algo que ver.
Tycony escribió:En el caso de los Battlefield´s , prueba en configuración una opción que es FUTURE FRAME REDERING , tiene que estar en ON.

Lo está lo está. Con esa opción desactivada, la gráfica se pone al 50% y si lo activo sube al 70-80%, pero nunca llega al 99% como si lo hacia la 1080ti.
Camoranesi está baneado por "clon de usuario baneado"
Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...

Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.
Camoranesi escribió:Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...

Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.

Yo es que no me creo que haya tanto stock.
De hecho, entro al mlemjtoe N absolutamente todas las ofertas del bots,y todas las gráficas "vendidas".
Muy raro..
Por ejemplo,una 3080 a 1800€... [qmparto]

O no es real lo del stock,o algunas personas aún las compran para minar o ambas cosas.
Camoranesi escribió:Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...

Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.

Yo te invito a que veas a RAFAEL CHIA en este video y sabrás por que este verano estará congelada la cosa.
31123 respuestas