[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

suemrri escribió:
hh1 escribió:
suemrri escribió:

Yo es que estoy un poco perdido, cuando hablas de 1200 pavos la 3080TI, estamos hablando donde? Yo miro en PC componentes y veo que ronda los 1800.

Ayer fue la primera vez que visite este hilo y vi que habia un grupo de telegram y en una de las respuestasme pasaron un enlace para ejecutar un bot que parece que busca existencias lo cual estaria bien para una PS% pero no entiendo como funcionaria para buscar una grafica a un precio menor del que se vende

En los dos post de las RTX 3000 tienes toda la info.
Son las FE.Son gráficas que vienen directamente de Nvidia sin sobrecoste.
Ahora ,para acertée con ciertos modelos es casi imposible, porque se agotan en el acto según salen.Pero la 3080Ti y la 3090 son muy conseguibles al ser bastante más caras.

PCcomponebtes no vende gráficas directamente de Nvidia,lo hace LDLC.Pero noad busques porque no están.
Solo están cuando salen y se van casi en el acto,excepto las dos que te dije.



Ya lo entiendo perfectamente, lo que pillais son son las Founder Editions, Seguramente seran versiones que no les interesan a los mineros y la rotura de stock se produce entre los propios usuarios de ahi el precio mas bajo.

Asi que utilizais el BOT para ver cuando llegan a esa tienda las FE y pillarlas al vuelo.

Es una opcion bastante guay, lo unico que me genera alguna duda os sistemas de ventilacion de esas tarjetas o pillarme una custom 3070TI y aguantar hasta septiembre

Sí y no.
El precio de las FE no es porque no las quieran los mineros,sino porque es el precio fijado por Nvidia.No se puede tocar.
Ahora se le añade que ya vienen con LHR ,o sea,capeas para minería,lo que hace que ya no les interese.
Pero antes no llevaban LHR y el precio seguía siendo bajo.

La ventilación no es la mejor ,pero he visto revews de algunas ,y sinceramente,no me parece tan mala.
Con undervolt van bien.
Prefiero una más justita en ventilación pero ahorrarme un pastizal.

Una custom 3070ti dudo que baje de 1100€.
Es un robo.
Para eso ,mejor una 3080Ti por 100€ más aunque sea la FE.
@suemrri si le interesan a los mineros, por mantener el precio oficial de Nvidia son las que más les interesan a los mineros para no pagar sobreprecio y rentabilizar más rápido la compra.
A los mineros les interesa cualquier gráfica que tenga más de 4GB de VRAM.
No se si poner esta carita [facepalm] o poner esta otra [fiu] viendo en esta noticia lo que cuesta la 3080 12GB https://elchapuzasinformatico.com/2022/ ... 699-euros/
Pero el caso es que siento como que el rumor de que las cosas ya no serian tan baratas se cumple.

¿Cuanto costaba una 3080 cuando fue lanzada? ¿que eran 619 o 719? ya se, esta más cara ahora por otros motivos pero es menuda caida de precio tendria que tener para volver a precio "normal". 1000€ facilmente.
Esa es la 3080 que debería haber sido desde el día 1.
Nomada_Firefox escribió:No se si poner esta carita [facepalm] o poner esta otra [fiu] viendo en esta noticia lo que cuesta la 3080 12GB https://elchapuzasinformatico.com/2022/ ... 699-euros/
Pero el caso es que siento como que el rumor de que las cosas ya no serian tan baratas se cumple.

¿Cuanto costaba una 3080 cuando fue lanzada? ¿que eran 619 o 719? ya se, esta más cara ahora por otros motivos pero es menuda caida de precio tendria que tener para volver a precio "normal". 1000€ facilmente.


El chapuzas informatico es la pagina web de informatica mas amarillista del panorama, solo buscan clickbait. La fuente es una tienda alemana, es como si cogen en españa a pccomponentes o similares y dicen el precio de venta de salida de su producto, el oficial es el del fabricante. Teniendo en cuenta que las 3080ti salieron a 1200€, las 3090 a 1500€ y que se espera que la 3090ti este sobre los 1750 (estos precios para las fe, las custom andan a precios iguales o hasta 200€ mas el modelo mas premium) es imposible que el msrp sea de 1700€, el cual estima en los 850-900€. Otra cosa es lo que quieran ganar los distribuidores/minoristas.
nuevos drivers 511.17 para w11 .
colado escribió:
Nomada_Firefox escribió:No se si poner esta carita [facepalm] o poner esta otra [fiu] viendo en esta noticia lo que cuesta la 3080 12GB https://elchapuzasinformatico.com/2022/ ... 699-euros/
Pero el caso es que siento como que el rumor de que las cosas ya no serian tan baratas se cumple.

¿Cuanto costaba una 3080 cuando fue lanzada? ¿que eran 619 o 719? ya se, esta más cara ahora por otros motivos pero es menuda caida de precio tendria que tener para volver a precio "normal". 1000€ facilmente.


El chapuzas informatico es la pagina web de informatica mas amarillista del panorama, solo buscan clickbait. La fuente es una tienda alemana, es como si cogen en españa a pccomponentes o similares y dicen el precio de venta de salida de su producto, el oficial es el del fabricante. Teniendo en cuenta que las 3080ti salieron a 1200€, las 3090 a 1500€ y que se espera que la 3090ti este sobre los 1750 (estos precios para las fe, las custom andan a precios iguales o hasta 200€ mas el modelo mas premium) es imposible que el msrp sea de 1700€, el cual estima en los 850-900€. Otra cosa es lo que quieran ganar los distribuidores/minoristas.

Lo que no entiendo es como siguen usándola como referencia en el foro en vez de buscar fuentes reales y que no sean estercoleros como esos, porque madre mía, es el Sálvame de las webs, de ahí las visitas que tiene :-| :p :p :p
Mira que hay webs que claramente por su forma de redactar y de poner títulos son sonyers, otras de Xbox, pero lo de esos ya roza no lo amarillista si no lo absurdo.
Lo bueno de Disqus es que es muy famoso y muchos lo utilizan pero debes tener control sobre el , y ahí hace años que perdieron el control y solo hay fauna en los comentarios, vamos un lugar sin normas
Nomada_Firefox escribió:No se si poner esta carita [facepalm] o poner esta otra [fiu] viendo en esta noticia lo que cuesta la 3080 12GB https://elchapuzasinformatico.com/2022/ ... 699-euros/
Pero el caso es que siento como que el rumor de que las cosas ya no serian tan baratas se cumple.

¿Cuanto costaba una 3080 cuando fue lanzada? ¿que eran 619 o 719? ya se, esta más cara ahora por otros motivos pero es menuda caida de precio tendria que tener para volver a precio "normal". 1000€ facilmente.

Eso no se lo cree nadie.
Una cosa es listada ,que siempre antes de la salida tiene más precio para no pillarse las manos h luego ya ajustan,h otra es que ese vaya a ser el precio.
No tiene se todo alguno.Para eso te compras una 3080Ti.

La lógica dice que si hubiese una FE de ese modelo, partiría de los 899€ máximo.
Las custom de ahí les arriba.Pero de ahí a precio oficial 1600€,va un trecho.

Otra cosa es que vaya ya de inicio infladas de cojones ,que todo puede ser.
vtec16 escribió:nuevos drivers 511.17 para w11 .


solo funcionan con la RTX 3080


Vaya ida de olla https://www.pccomponentes.com/msi-gefor ... 2gb-gddr6x , no se sabe el precio de la FE si es que existe , en la web de nvidia no veo nada
@Bio81
Si es verdad, parece que solo han añadido soporte para la version de 12gb .
iGenVvo escribió:NVIDIA AI Powered DLDSR Unveiled (DSR replacement/upgrade)

https://wccftech.com/nvidia-ai-powered- ... ng-to-gfe/




Imagen



Imagen



Mola no?
El caso es...
esto se pisa un poco con le DLSS no?

Es decir, funciona a la inversa.... no? pero al final es practicamente lo mismo... o q?
iGenVvo escribió:NVIDIA AI Powered DLDSR Unveiled (DSR replacement/upgrade)

https://wccftech.com/nvidia-ai-powered- ... ng-to-gfe/

Lo encuentro bastante interesante. Ademas se habla de que habra nuevos filtros como los de reshade para todos los juegos. Espero que sea para todos y no para una lista.

¿Pero esto del DLDSR tiene algun interes para alguien que juegue en un monitor 4k? ¿acaso puedes seleccionar una resolución de monitor inferior y luego usar esto para mejorar el rendimiento?
Nomada_Firefox escribió:¿Pero esto del DLDSR tiene algun interes para alguien que juegue en un monitor 4k? ¿acaso puedes seleccionar una resolución de monitor inferior y luego usar esto para mejorar el rendimiento?


Es una evolucion del dsr disponible desde maxwell, si antes de usaba los tensor cores para aumentar la calidad renderizando a una resolucion superior perdiendo algo de rendimiento, por ejemplo usando un monitor 1080p y renderizando a 4k. El dldsr permite usar la ia para reescalar a la resolucion original del monitor ganando rendimiento sin perder casi calidad, por ejemplo usando un monitor 4k y renderianzo a 1080p.
He activado el DSR y me pasa lo mismo que con NIS, la frecuencia del monitor se queda fija y tengo un stuttering de narices, menuda mierda
@Daicon El DLSS carga una imagen más pequeña y la muestra más grande con el rendimiento de la pequeña. El DSR muestra una resolución ampliada en una pantalla más pequeña. En una pantalla de 1080p puedes poner una imagen como una 4K.

Lo que yo preguntaba era si podias en una pantalla 4K seleccionar una resolución inferior no nativa, ampliarla con esto y obtener un 4K con menos consumo de recursos. Lo cual ciertamente seria como el DLSS.

@the_aeon Que raro. Podria ser que el monitor este mal y no soporte bien la frecuencia.
@Nomada_Firefox Es muy raro, en el Kena va perfecto, pero en el Horizon 5 va mal, da igual como lo pongas.

En cambio en el cyberpunk con gsync pantalla completa y ventana va bien.

En cambio el Tomb raider va bien si lo pones en gsync solo con pantalla completa.

Creo que con esas pruebas es mas tema de software, no se, si fuera el monitor siempre iría mal y en todos los juegos
the_aeon escribió:@Nomada_Firefox Es muy raro, en el Kena va perfecto, pero en el Horizon 5 va mal, da igual como lo pongas.

En cambio en el cyberpunk con gsync pantalla completa y ventana va bien.

En cambio el Tomb raider va bien si lo pones en gsync solo con pantalla completa.

Creo que con esas pruebas es mas tema de software, no se, si fuera el monitor siempre iría mal y en todos los juegos

¿Podria ser que hayas hecho un undervolt a la grafica y que realmente no sea estable? me parece que el monitor sobretodo tendras sacarlo de la ecuación probando con otro.
colado escribió:
Nomada_Firefox escribió:¿Pero esto del DLDSR tiene algun interes para alguien que juegue en un monitor 4k? ¿acaso puedes seleccionar una resolución de monitor inferior y luego usar esto para mejorar el rendimiento?


Es una evolucion del dsr disponible desde maxwell, si antes de usaba los tensor cores para aumentar la calidad renderizando a una resolucion superior perdiendo algo de rendimiento, por ejemplo usando un monitor 1080p y renderizando a 4k. El dldsr permite usar la ia para reescalar a la resolucion original del monitor ganando rendimiento sin perder casi calidad, por ejemplo usando un monitor 4k y renderianzo a 1080p.

Me hago la misma pregunta que Nomada_Firefox de la utilidad del DSR si tienes pantalla 4k (o en general pantallas con mucha resolución).

Si el DSR renderiza a una resolución superior a la de tu pantalla para luego reducirla y mostrarla a la resolución de tu pantalla no acabo de ver que sea útil si tenemos una pantalla 4k, teniendo en cuenta cómo está la situación gráfica actual. Con ejemplos:

- Tenemos una pantalla 1k: Renderiza el juego a 4k (eso es más resolución del 1k de la pantalla), reduce resolución a 1k para mostrarlo en tu pantalla 1k.
- Tenemos una pantalla 4k: Renderiza el juego a ¿5k-8k? (eso es más resolución de los 4k de la pantalla), reduce resolución a 4k para mostrarlo en tu pantalla 4k.

Es decir, si para 4k nos estamos enfocando a escalar hacia arriba (de 2k a 4k por ejemplo) con DLSS o técnicas similares porque no podemos conseguir 4k nativo y muchos FPS, cómo se pretende renderizar a más de 4k? No veo sentido al DSR en estos casos.

@Nomada_Firefox tú lo has dicho, lo que explicas sería como el DLSS, y por lo que entiendo deberías hacer uso del DLSS y no del DSR porque son cosas opuestas.

@the_aeon con tu monitor, renderizas a una resolución superior a 4k? Es el caso que no acabo de entender el uso del DSR.
No tengo otro monitor, si no lo probaría, tema undervolt lo veo muy raro.

El tema de usar DSR en mi resolución 3840x1600p es muy simple, se ve mejor.

Estoy pensando que puede ser por ser ultrawide el monitor, no es una resolución tan estandarizada, alguien con monitor ultrawide que lo pueda probar??
the_aeon escribió:El tema de usar DSR en mi resolución 3840x1600p es muy simple, se ve mejor.

@Rvilla87 La cuestión es que con un monitor 4K a parte de verse mejor o peor, no creo que haga lo que aqui indica.
Imagen
Porque yo viendo esta imagen, interpreto que la resolución nativa del monitor, es de 1080p. Entonces poniendo el DSR puedes escoger una resolución en un juego de 4K donde aunque bajen los fps, ganas en nitidez y tampoco bajan tanto como si con tu equipo pusieras un monitor de 4K. Por eso la tercera imagen viendo de izquierda a derecha indica que puedes tener los mismos fps que en 1080p con una resolución de DSR 1620p que es mayor que 1080p.

Asi que la gracia del DSR y del futuro DLDSR, es usar un monitor 1080p con la nitidez de una resolución mucho mayor manteniendo los fps que tenias en 1080p.

El DLSS es otra historia. Carga las texturas a una resolución menor ganando rendimiento y las muestra a una mayor ganando rendimiento. El NIS bueno....quizas en un monitor mayor puedas escoger una resolución menor no tan inferior como las que puedes en 1080p con lo que la mayoria de juegos se vean bien y ganes rendimiento. Pero dado que va por porcentajes, en 1080p no lo veo tan util ni con la calidad del DLSS. Simplemente el DLSS se ajusta mejor y es más facil de usar.

Y por ultimo, el FSR de AMD esta bien porque funciona con una Nvidia pero la ganancia no me parecio tan grande como el DLSS, ni la calidad.

Si en algo me he equivocado, lo siento mucho, no volvera a pasar. [sonrisa]
Rvilla87 escribió:
colado escribió:
Nomada_Firefox escribió:¿Pero esto del DLDSR tiene algun interes para alguien que juegue en un monitor 4k? ¿acaso puedes seleccionar una resolución de monitor inferior y luego usar esto para mejorar el rendimiento?


Es una evolucion del dsr disponible desde maxwell, si antes de usaba los tensor cores para aumentar la calidad renderizando a una resolucion superior perdiendo algo de rendimiento, por ejemplo usando un monitor 1080p y renderizando a 4k. El dldsr permite usar la ia para reescalar a la resolucion original del monitor ganando rendimiento sin perder casi calidad, por ejemplo usando un monitor 4k y renderianzo a 1080p.

Me hago la misma pregunta que Nomada_Firefox de la utilidad del DSR si tienes pantalla 4k (o en general pantallas con mucha resolución).

Si el DSR renderiza a una resolución superior a la de tu pantalla para luego reducirla y mostrarla a la resolución de tu pantalla no acabo de ver que sea útil si tenemos una pantalla 4k, teniendo en cuenta cómo está la situación gráfica actual. Con ejemplos:

- Tenemos una pantalla 1k: Renderiza el juego a 4k (eso es más resolución del 1k de la pantalla), reduce resolución a 1k para mostrarlo en tu pantalla 1k.
- Tenemos una pantalla 4k: Renderiza el juego a ¿5k-8k? (eso es más resolución de los 4k de la pantalla), reduce resolución a 4k para mostrarlo en tu pantalla 4k.

Es decir, si para 4k nos estamos enfocando a escalar hacia arriba (de 2k a 4k por ejemplo) con DLSS o técnicas similares porque no podemos conseguir 4k nativo y muchos FPS, cómo se pretende renderizar a más de 4k? No veo sentido al DSR en estos casos.

@Nomada_Firefox tú lo has dicho, lo que explicas sería como el DLSS, y por lo que entiendo deberías hacer uso del DLSS y no del DSR porque son cosas opuestas.

@the_aeon con tu monitor, renderizas a una resolución superior a 4k? Es el caso que no acabo de entender el uso del DSR.


Informandome mas sobre el dldsr es una evolucion del dsr, gracias a la mejora, como se ve en la imagen, puedes obtener resultados parecidos reescalando en por ejemplo 1620 en vez de 4k. Es decir, si antes usando el dsr en un monitor 1080p reescalaba a 4k (aumentando 4 veces la resolucion) ahora puedes obtener resultados casi iguales reescalando a 1620p (aumentando 2,25 veces) con lo cual ganas rendimiendo sin perder calidad
colado escribió:
Rvilla87 escribió:
colado escribió:
Es una evolucion del dsr disponible desde maxwell, si antes de usaba los tensor cores para aumentar la calidad renderizando a una resolucion superior perdiendo algo de rendimiento, por ejemplo usando un monitor 1080p y renderizando a 4k. El dldsr permite usar la ia para reescalar a la resolucion original del monitor ganando rendimiento sin perder casi calidad, por ejemplo usando un monitor 4k y renderianzo a 1080p.

Me hago la misma pregunta que Nomada_Firefox de la utilidad del DSR si tienes pantalla 4k (o en general pantallas con mucha resolución).

Si el DSR renderiza a una resolución superior a la de tu pantalla para luego reducirla y mostrarla a la resolución de tu pantalla no acabo de ver que sea útil si tenemos una pantalla 4k, teniendo en cuenta cómo está la situación gráfica actual. Con ejemplos:

- Tenemos una pantalla 1k: Renderiza el juego a 4k (eso es más resolución del 1k de la pantalla), reduce resolución a 1k para mostrarlo en tu pantalla 1k.
- Tenemos una pantalla 4k: Renderiza el juego a ¿5k-8k? (eso es más resolución de los 4k de la pantalla), reduce resolución a 4k para mostrarlo en tu pantalla 4k.

Es decir, si para 4k nos estamos enfocando a escalar hacia arriba (de 2k a 4k por ejemplo) con DLSS o técnicas similares porque no podemos conseguir 4k nativo y muchos FPS, cómo se pretende renderizar a más de 4k? No veo sentido al DSR en estos casos.

@Nomada_Firefox tú lo has dicho, lo que explicas sería como el DLSS, y por lo que entiendo deberías hacer uso del DLSS y no del DSR porque son cosas opuestas.

@the_aeon con tu monitor, renderizas a una resolución superior a 4k? Es el caso que no acabo de entender el uso del DSR.


Informandome mas sobre el dldsr es una evolucion del dsr, gracias a la mejora, como se ve en la imagen, puedes obtener resultados parecidos reescalando en por ejemplo 1620 en vez de 4k. Es decir, si antes usando el dsr en un monitor 1080p reescalaba a 4k (aumentando 4 veces la resolucion) ahora puedes obtener resultados casi iguales reescalando a 1620p (aumentando 2,25 veces) con lo cual ganas rendimiendo sin perder calidad

Entiendo,que si se juega a 1440p ,lo suyo es reescalar a 4k con el DSR,no?
Se perdería poco rendimiento y se ganaría nitidez,verdad?
hh1 escribió:Entiendo,que si se juega a 1440p ,lo suyo es reescalar a 4k con el DSR,no?
Se perdería poco rendimiento y se ganaría nitidez,verdad?

Tendrias que buscar el termino medio entre rendimiento y mejora de imagen.

Lo que yo he notado con el monitor que tengo ahora es que cuando activo el DSR los colores se ven peor, quizas sea por que igual no carga bien el perfil de color en esa situación. Tambien creo que quizas en no todas o todas funciona a 144hz y el simple hecho de ir a 60hz ya es perdida total de calidad por mucha nitidez que ganes.
iGenVvo escribió:NVIDIA AI Powered DLDSR Unveiled (DSR replacement/upgrade)

https://wccftech.com/nvidia-ai-powered- ... ng-to-gfe/




Imagen



Imagen


Esto puede ser brutal para juegos antiguos.
Nomada_Firefox escribió:
hh1 escribió:Entiendo,que si se juega a 1440p ,lo suyo es reescalar a 4k con el DSR,no?
Se perdería poco rendimiento y se ganaría nitidez,verdad?

Tendrias que buscar el termino medio entre rendimiento y mejora de imagen.

Lo que yo he notado con el monitor que tengo ahora es que cuando activo el DSR los colores se ven peor, quizas sea por que igual no carga bien el perfil de color en esa situación. Tambien creo que quizas en no todas o todas funciona a 144hz y el simple hecho de ir a 60hz ya es perdida total de calidad por mucha nitidez que ganes.

Ya ,ya entiendo... [beer]
the_aeon escribió:El tema de usar DSR en mi resolución 3840x1600p es muy simple, se ve mejor.

Para verse mejor gracias al DSR/DLDSR deberías renderizar a una resolución superior a la de tu monitor (3840x1600p), y precisamente por eso te hice la pregunta. En tu caso teniendo casi una pantalla 4k (es QHD+) no cuadra que hagas uso de DSR/DLDSR a menos que sean juegos viejos.

Tu resolución final es 3840x1600p, pero insisto con mi pregunta, renderizas a una resolución superior a la de tu monitor para aplicar el DSR/DLDSR? Porque no me cuadra que con juegos actuales estés tirando a mas de 4k de resolución renderizada para poder aplicar DSR/DLDSR y tengas unos buenos fps.

Por lo que leo en reddit ya me responden a mi pregunta de usar DSR/DSDSR en una pantalla 4k y era obvio, si quieres escalar olvídate de DSR/DLDSR y aplica lo conocido: DLSS o similares. Si tienes un monitor con poca resolución (1k o así) y te sobre gráfica aplica DSR/DLDSR ya que conseguirás, sobretodo en juegos mas antiguos, un buen antialiasing pero quizás no mejor que si el juego tuviera un buen antialiasing.

Vamos que por mi parte, con la mente puesta en una pantalla 4k dudo que alguna vez me interese el DSR/DLDSR, en cambio el DLSS seguramente lo use mucho.

@colado sí, simplificando creo que podemos decir que DLDSR es mas óptimo a DSR, pero no es eso lo que estamos hablando cuando preguntamos si es útil o no el DSR/DLDSR en una pantalla de 4k (y juegos actuales con alta carga gráfica). Es lo que he intentado explicar en mi anterior mensaje y ahora de nuevo en este. Me parece que hay mucha confusión con el tema.
Pienso que este nuevo DLDSR solo es interesante para aquellos juegos que no tienen un antialias decente y obviamente no para monitores 4K o superiores, ya que el problema de calidad de imagen no está.

A bote pronto se me ocurre FFXV a menos de 4K, dejar de usar DLSS 1.0 que es basura, ni el TAA, para usar DLDSR.
¿ Alguien tiene una 3080Ti y está intentando usarla en 4K@120 ?

Me he regalado una Sony XR-55A80J y al principio no lo logré porque no tenía un cable HDMI 2.1.
Compré el sábado uno en una tienda Game pensando que sería enchufar y ya está pero no fué así. Finalmente descubrí como activar esa funcionalidad en la tele, pero me creaba cortes de imagen aleatoriamente, hasta que ya hoy han sido continuos y finalmente la pantalla se quedaba en negro.

He tenido que bajar casi a ciegas entre corte y corte de imagen la frecuencia a 60Hz y desactivar el HDR para poder usar el ordenador.

¿ Puede ser que el cable es una castaña ?
@anderpr Pues hoy mismo he recibido un cable HDMI 2.1 para usarlo en una Sony X90J que compré hace dos días y estoy empaquetandolo ahora mismo porque la TV no recibe señal (de hecho estoy hasta empaquetando hasta la tele para devolverla tambien).

Lo que me descoloca es que lo pongo en otras TVs (que no son 4K ni tienen conector 2.1) y funcionan perfectamente.
Pensaba que era el cable, pero leyendote...

Si te enteras de algo, dame un toque, por favor. XD
Valhan escribió:@anderpr Pues hoy mismo he recibido un cable HDMI 2.1 para usarlo en una Sony X90J que compré hace dos días y estoy empaquetandolo ahora mismo porque la TV no recibe señal (de hecho estoy hasta empaquetando hasta la tele para devolverla tambien).

Lo que me descoloca es que lo pongo en otras TVs (que no son 4K ni tienen conector 2.1) y funcionan perfectamente.
Pensaba que era el cable, pero leyendote...

Si te enteras de algo, dame un toque, por favor. XD


Acabo de descubrir que es algo relacionado con el HDR.
En 4K@60 he activado el HDR y se ha quedado la pantalla asi; pantalla negra con una franja blanca arriba.
Imagen
@anderpr Te lo dejo en spoiler para no ensuciar...

Puede ser el HDR. Con el cable 2.0 (el que funciona) no puedo activar el HDR en Windows. Si lo hago mediante juego, me tira del mismo dandome error.
Por desgracia no puedo probar con el 2.1 porque directamente no recibe ningún tipo de señal.

Por cierto, por si no lo sabias, acuerdate de canjear el cheque de 100€ de regalo para PSN antes de que acabe el mes. [rtfm]
Quizás, al haber comprado la OLED sean 150 o 200 euros en lugar de 100.

Me voy a ver una peli antes de devolverla, con lo que dejo de probar.

Ya te aviso si llego a alguna conclusión.

Gracias. [oki]
Hay muchos cables hdmi 2.1 que no estan certificados y no dan el ancho de banda suficiente. Mi lg oled daba problemas con segun que cables.
El cable barato de Game me ha sorprendido porque pone detrás que está certificado para HDMI 2.1, aunque creo que lo devolveré y cogeré otro en otro sitio para probar a ver.
Bueno a parte de saberse la fecha de lanzamiento, 27 de enero 2022, anuncian que las 3050 llegaran con un gran stock pero lo más relevante es que todo parece indicar que ni nvidia, ni los ensambladores, ni las tiendas, ni nadie esta por venderlas a lo que deberian costar sino fueran unos ladrones y ciertamente el usuario gaming les plantara cara, cosa que no ocurre realmente, no veo ninguna adquisición de firmas para protestar por esto, tipico. [sonrisa]
https://videocardz.com/newz/nvidia-repo ... hics-cards

Asi que se anuncia que costaran más de 300€ y viendo como esta el resto, las venderan a 500€. [fiu]
anderpr escribió:¿ Alguien tiene una 3080Ti y está intentando usarla en 4K@120 ?

Me he regalado una Sony XR-55A80J y al principio no lo logré porque no tenía un cable HDMI 2.1.
Compré el sábado uno en una tienda Game pensando que sería enchufar y ya está pero no fué así. Finalmente descubrí como activar esa funcionalidad en la tele, pero me creaba cortes de imagen aleatoriamente, hasta que ya hoy han sido continuos y finalmente la pantalla se quedaba en negro.

He tenido que bajar casi a ciegas entre corte y corte de imagen la frecuencia a 60Hz y desactivar el HDR para poder usar el ordenador.

¿ Puede ser que el cable es una castaña ?


Sony prometió a final de año que lanzaria una actualizacion para la A80J y A90J con soporte de VRR ALLM y 4K 120Hz Dolby Vision y de momento no ha salido. Yo tengo el mismo modelo en 65 asi que toca esperar. Si tienes un buen cable 2.1 y conectado a los puertos 3 o 4 (hdmi 2.1) no queda otra que esperar y mientras quedarse en los 60Hz ¬_¬

(El VRR -Variable Refresh Rate- viene a ser el G-sync o Freesync de la especificacion HDMI)

Edito: yo pille este. Es caro pero 0 problemas (a falta del VRR) en cine 4k Dolby Vision, HDR etc.

https://www.amazon.es/gp/product/B07GVV ... UTF8&psc=1

(El que no es trenzado es mas barato y servirá igual)
colado escribió:
Rvilla87 escribió:
colado escribió:
Es una evolucion del dsr disponible desde maxwell, si antes de usaba los tensor cores para aumentar la calidad renderizando a una resolucion superior perdiendo algo de rendimiento, por ejemplo usando un monitor 1080p y renderizando a 4k. El dldsr permite usar la ia para reescalar a la resolucion original del monitor ganando rendimiento sin perder casi calidad, por ejemplo usando un monitor 4k y renderianzo a 1080p.

Me hago la misma pregunta que Nomada_Firefox de la utilidad del DSR si tienes pantalla 4k (o en general pantallas con mucha resolución).

Si el DSR renderiza a una resolución superior a la de tu pantalla para luego reducirla y mostrarla a la resolución de tu pantalla no acabo de ver que sea útil si tenemos una pantalla 4k, teniendo en cuenta cómo está la situación gráfica actual. Con ejemplos:

- Tenemos una pantalla 1k: Renderiza el juego a 4k (eso es más resolución del 1k de la pantalla), reduce resolución a 1k para mostrarlo en tu pantalla 1k.
- Tenemos una pantalla 4k: Renderiza el juego a ¿5k-8k? (eso es más resolución de los 4k de la pantalla), reduce resolución a 4k para mostrarlo en tu pantalla 4k.

Es decir, si para 4k nos estamos enfocando a escalar hacia arriba (de 2k a 4k por ejemplo) con DLSS o técnicas similares porque no podemos conseguir 4k nativo y muchos FPS, cómo se pretende renderizar a más de 4k? No veo sentido al DSR en estos casos.

@Nomada_Firefox tú lo has dicho, lo que explicas sería como el DLSS, y por lo que entiendo deberías hacer uso del DLSS y no del DSR porque son cosas opuestas.

@the_aeon con tu monitor, renderizas a una resolución superior a 4k? Es el caso que no acabo de entender el uso del DSR.


Informandome mas sobre el dldsr es una evolucion del dsr, gracias a la mejora, como se ve en la imagen, puedes obtener resultados parecidos reescalando en por ejemplo 1620 en vez de 4k. Es decir, si antes usando el dsr en un monitor 1080p reescalaba a 4k (aumentando 4 veces la resolucion) ahora puedes obtener resultados casi iguales reescalando a 1620p (aumentando 2,25 veces) con lo cual ganas rendimiendo sin perder calidad


Exactamente eso.

Gracias a los Tensor cores y a la IA se podrá reconstruir la imagen de más alta resolución con menos píxeles es decir, con menos resolución y por tanto con mucho mejor rendimiento. Mi esperanza es que se pueda activar en simuladores como IL-2 y DCS que aún usan MSAA que es una técnica vieja, que consume muchos recursos, y que además no soluciona los dientes de sierra en toda la imagen.

Con esto espero tener un AA de mejor calidad y además ahorrar rendimiento respecto al MSAA.
@Rvilla87 Jugando a mi resolución, 3840x1600p, al Forza 5 en ultra tiene dientes de sierra, si activo DSR los dientes de sierra desaparecen.

Esa es una de las utilidades del DSR o DLDSR, también ganas en nitidez.

Y el DLDSR al usar los tensor cores no vas a perder FPS si lo pones a un máximo de x2.25
Pregunta tontísiima:

He puesto mi nueva 3080Ti FE según estaba la 3070 que tenía.El conector de 8 pines x 2 pero del mismo cable.
No da imagen.Da imagen de la BIOS pero no cuando va a arrancar.
La gráfica enciende ,se mueven los ventis.
Necesita que esos dos conectores de 8 pines sean de dos cabes distintos?

La fuente no creo que sea ha que es una Evga G3 plus gold 750w.
the_aeon escribió:@Rvilla87 Jugando a mi resolución, 3840x1600p, al Forza 5 en ultra tiene dientes de sierra, si activo DSR los dientes de sierra desaparecen.

Esa es una de las utilidades del DSR o DLDSR, también ganas en nitidez.

Y el DLDSR al usar los tensor cores no vas a perder FPS si lo pones a un máximo de x2.25

Activar DSR no es activar una función y ya está, le tienes que decir la resolución objetivo que debería ser mayor a la nativa de tu pantalla. ¿Le estás pidiendo a la gráfica que Forza 5 vaya a resolución de 5k o más?

Y si dices que es la misma que la de tu monitor el DSR no debería tener efecto más allá de suavizar, cosa que hace peor que un AA decente (cualquier juego moderno debería tenerlo).

Una opción que se me ocurre es que tengas una resolución en el juego inferior a la de tu monitor (1080p, 1440p), el monitor te esté escalando con mala calidad a pantalla completa y DSR (a resolución de tu monitor) te lo disimule un poco porque lo muestre mejor. Pero no me cuadra que estés mostrando Forza 5 en resolución nativa de tu monitor y lo veas peor que con DSR. ¿Tampoco usas DLSS?

En fin, tú mejor que nadie sabe lo que estás viendo pero tu caso me parece rarísimo, y más por todo lo que he leído en internet de gente que dice que no le sirve para precisamente casos como el tuyo (con pantallas con resoluciones grandes). Si es que la misma Nvidia pone como ejemplo el típico: pantalla 1080p que quiere ver el juego "como si fuera" 4k... pero vamos, ni de lejos es lo mismo que ver el juego en 4k en una pantalla 4k, pero algo mejora como si fuera AA.
hh1 escribió:Pregunta tontísiima:

He puesto mi nueva 3080Ti FE según estaba la 3070 que tenía.El conector de 8 pines x 2 pero del mismo cable.
No da imagen.Da imagen de la BIOS pero no cuando va a arrancar.
La gráfica enciende ,se mueven los ventis.
Necesita que esos dos conectores de 8 pines sean de dos cabes distintos?

La fuente no creo que sea ha que es una Evga G3 plus gold 750w.


Ya te he dicho, tienes que poner cables independientes, cada salida de la fuente de pcie da 150watts mas 75 del puerto pcie aun falta para los 350watts
hh1 escribió:Pregunta tontísiima:

He puesto mi nueva 3080Ti FE según estaba la 3070 que tenía.El conector de 8 pines x 2 pero del mismo cable.
No da imagen.Da imagen de la BIOS pero no cuando va a arrancar.
La gráfica enciende ,se mueven los ventis.
Necesita que esos dos conectores de 8 pines sean de dos cabes distintos?

La fuente no creo que sea ha que es una Evga G3 plus gold 750w.


Pon cables separados.
colado escribió:
hh1 escribió:Pregunta tontísiima:

He puesto mi nueva 3080Ti FE según estaba la 3070 que tenía.El conector de 8 pines x 2 pero del mismo cable.
No da imagen.Da imagen de la BIOS pero no cuando va a arrancar.
La gráfica enciende ,se mueven los ventis.
Necesita que esos dos conectores de 8 pines sean de dos cabes distintos?

La fuente no creo que sea ha que es una Evga G3 plus gold 750w.


Ya te he dicho, tienes que poner cables independientes, cada salida de la fuente de pcie da 150watts mas 75 del puerto pcie aun falta para los 350watts

@Pulet
Me lo imaginé.
Gracias a ambos [beer]
Todopc-WII escribió:
is2ms escribió:Buenas a todos. Estoy muy desconectado de este mundillo, pero quería renovar mi viejita 980ti... El caso es que me pasé por pccomponentes y el precio de las 3070 está sobre los 1000 euros, ¿es este el precio normal de estas tarjetas? Porque vamos, estoy flipando...


No, el precio normal de una 3070 estaría entre los 600 - 700 € , 1000 € es inflado a tope... no caigas.

@hh1 @xKC4Lx VET3R4N


Muchas gracias por vuestra ayuda! EEstiraré la 980ti hasta el 2025 por lo menos [+risas]

Ah! Y una alegría saber de ti, xKC4LxVET3R4N, fuera de esos hilos tan desagradables de misce...
Hola a todos:
¿Alguien me sabría decir cuál es el precio teórico al que deberían estar los modelos-marcas de 3060TI?

Y, calidad-precio, ¿cuál o cuales serían los mejores modelos? (mejores= sin ruidos o comportamientos raros, mala refrigeración de alguna parte,..., vamos que no me cause preocupaciones y sea pinchar y ya :D ).

Es para preguntar en una tienda, pero quiero preguntar unos modelos concretos y sabiendo el precio.

Si me indicáis una web o algo también me vale (en algún sitio estará el precio oficial ¿no?).

Muchas gracias por adelantado de todas formas y a ver si hay suerte ;) .
alguien sabe como va lo del dldsr que han metido en los ultimos drivers?¿ con el dsr activado los juegos me dejaban ponerlos a 2k y 4k pero con el dldsr activado en el panel de la grafica, entras a cualquier juego y no te deja ponerlos a mas de 1080p.

Alguien sabe como va esto?¿
Miguemi escribió:alguien sabe como va lo del dldsr que han metido en los ultimos drivers?¿ con el dsr activado los juegos me dejaban ponerlos a 2k y 4k pero con el dldsr activado en el panel de la grafica, entras a cualquier juego y no te deja ponerlos a mas de 1080p.

Alguien sabe como va esto?¿


Tiene que ser el juego compatible, y no creo que haya muchos ahora disponibles, creo que desde gforce experience y desde el panel de control de nvidia se puede configurar.

Sumbloj escribió:Hola a todos:
¿Alguien me sabría decir cuál es el precio teórico al que deberían estar los modelos-marcas de 3060TI?

Y, calidad-precio, ¿cuál o cuales serían los mejores modelos? (mejores= sin ruidos o comportamientos raros, mala refrigeración de alguna parte,..., vamos que no me cause preocupaciones y sea pinchar y ya :D ).

Es para preguntar en una tienda, pero quiero preguntar unos modelos concretos y sabiendo el precio.

Si me indicáis una web o algo también me vale (en algún sitio estará el precio oficial ¿no?).

Muchas gracias por adelantado de todas formas y a ver si hay suerte ;) .


Las 3060ti estan bien de temperaturas, solo huir de los modelos turbo (con disipador blower), dependiendo del modelo los precios msrp van desde los 450€ a los 550€, pero vamos, es practicamente imposible encontrarla a esos precios, si quieres conseguir una, un bot de telegram de avisos de las founders edition y mucha suerte.
@colado sip en el panel de nvidia, donde esta el dsr lo tiene marcado como escalado DL...pero ya te digo no me funciona en ningún juego :-?

Por lo que decia en la info de nvidia eso de que fuese compatible no lo pone por ningun lado, de hecho pensaba que funcionaria como el dsr, que una vez activado, los juegos te permiten ponerles mayores resoluciones y funciona con todos.

De momento raro raro :-?
colado escribió:...
Sumbloj escribió:Hola a todos:
¿Alguien me sabría decir cuál es el precio teórico al que deberían estar los modelos-marcas de 3060TI?

Y, calidad-precio, ¿cuál o cuales serían los mejores modelos? (mejores= sin ruidos o comportamientos raros, mala refrigeración de alguna parte,..., vamos que no me cause preocupaciones y sea pinchar y ya :D ).

Es para preguntar en una tienda, pero quiero preguntar unos modelos concretos y sabiendo el precio.

Si me indicáis una web o algo también me vale (en algún sitio estará el precio oficial ¿no?).

Muchas gracias por adelantado de todas formas y a ver si hay suerte ;) .


Las 3060ti estan bien de temperaturas, solo huir de los modelos turbo (con disipador blower), dependiendo del modelo los precios msrp van desde los 450€ a los 550€, pero vamos, es practicamente imposible encontrarla a esos precios, si quieres conseguir una, un bot de telegram de avisos de las founders edition y mucha suerte.

Sí pero, concretamente, ¿qué precio tendría cada modelo?
Es decir la Zotac creo que valía 420€ y tenía coil whine y temperaturas algo altas.

La cosa es ¿qué precio tendrían que tener las MSI, EVGA, ASUS,...?
Y ¿hay alguna que no tenga pegas a un precio (teórico) razonable? (=las mejores calidad-precio).


Por tu comentario entiendo que solo las founders respetan el precio, pero por, en teoría al menos, tener esa información de otras, y así puedo intentar una cosa (que no me saldrá xD ).

Gracias por la respuesta ;) .
31123 respuestas