[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

jouse norris escribió:
Camoranesi escribió:Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...

Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.

Yo te invito a que veas a RAFAEL CHIA en este video y sabrás por que este verano estará congelada la cosa.



Ese video se ha quedado viejo ya ,https://casemod.es/nvidia/58202-inno3d-geforce-rtx-3070-ti-x3-oc-lhr-8192-mb-gddr6x.html

El ya vende graficas sueltas , cuando decía después de verano.

Y que limitaba la compra a 1 unidad [carcajad]
Imagen


Y opino que las cosas pueden cambiar de un momento a otro , pero cuando hablas pasan ciertas cosas... y que nadie tiene un bola de cristal.
eR_pOty está baneado por "GAME OVER"
Tycony escribió:
jouse norris escribió:
Camoranesi escribió:Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...

Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.

Yo te invito a que veas a RAFAEL CHIA en este video y sabrás por que este verano estará congelada la cosa.



Ese video se ha quedado viejo ya ,https://casemod.es/nvidia/58202-inno3d-geforce-rtx-3070-ti-x3-oc-lhr-8192-mb-gddr6x.html

El ya vende graficas sueltas , cuando decía después de verano.

Y que limitaba la compra a 1 unidad [carcajad]
Imagen


Y opino que las cosas pueden cambiar de un momento a otro , pero cuando hablas pasan ciertas cosas... y que nadie tiene un bola de cristal.

Puff , el de casemod... [qmparto] otro agorero que no le conocian ni en su casa hasta que se le subio a la chepa en las entrevistas de varo y siempre esta llorando porque no le compra ni el tato

otro hipocrita que tal que a partir de la 2nda entrevista ya cambio completamente el discurso porque empezo a acaparar clientes con su falsa moral y la que pudo...a especular como todos.
Pero si esa tienda está pelada y con precios inflados..., escuchándole hablar pareciera que tuviese un imperio. [qmparto]
ViRuSz escribió:He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.


Pues estamos parecidos, he vuelto a probar el red dead y ya me va igual, se usa mucho más la GPU y la media del bench era 80fps, la otra vez que probé creo que tenía mal configurada la ram y por eso no usaba bien la GPU. Pero luego con el asseto corsa competizione la GPU se usa entre 60-90%, va oscilando bastante.

Así que al final pedí también un 5800x. A ver como va porque así no vale la pena... si sigue igual, pues no sé, igual devuelvo todo y me quedo como antes [+risas] .
eric_14 escribió:
ViRuSz escribió:He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.


Pues estamos parecidos, he vuelto a probar el red dead y ya me va igual, se usa mucho más la GPU y la media del bench era 80fps, la otra vez que probé creo que tenía mal configurada la ram y por eso no usaba bien la GPU. Pero luego con el asseto corsa competizione la GPU se usa entre 60-90%, va oscilando bastante.

Así que al final pedí también un 5800x. A ver como va porque así no vale la pena... si sigue igual, pues no sé, igual devuelvo todo y me quedo como antes [+risas] .


Ya nos dirás que tal con el 5800X que yo lo tenia en el punto de mira para quitar mi 3600X :)
En dx12 y vulkan con juegos exigentes en cpu las nvidia penalizan mucho.

Amd funciona mejor (o al menos usa menos cpu) con dx 12 y vulkan.

Hay varios vídeos analizandolo.

Básicamente con una 3000 mejor que tengas un intel 10 o ryzen 3000 en adelante.
ViRuSz escribió:
eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).

Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).

He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.


A mi me pasa igual con la carga de la 3080, no se pone al 100%, suele ir entre 60/80% con un R5 3600x... yo lo achaco a que hace cuello de botella, en los proximos CPU me gustaria actualizar

Vicgarhi escribió:
Dibxer escribió:Queria probar hacer el OC Automatico del panel de GeForce Experience en Rendimiento, pero cuando lleva unos 10s me sale esto: "Resultado del ultimo analisis: El ajuste automatico ha sido detenido. Reinicie el analisis"

Alguien sabe a que se debe? Con el afterburner cerrado, y sin OC.

Por otro lado, he vuelto a bajar BF4 y lo tengo limitado a 200 fps, alguien sabe como se quita esta limitacion?

Gracias!

Eso me pasaba a mi la semana pasada (creo) pero ahora lo acabo de ejecutar:

Imagen

Esta semana se que se ha actualizado el GEFORCE EXPERIENCE y ayer salieron drivers. No se si tiene algo que ver.


Pues justo me sale para actualizar, probaré a ver si es eso. Hay mucha mejoria? de temperaturas sube mucho tamb? Gracias
Finity escribió:@hh1 de 3 en 3 meses acaba cayendo a 599€ en amazon/ECI/Mediamarkt...al menos yo lo he llegado a ver de poco a poco rebajado jeje

Edit: hoy mismamente jajaja 599€ en amazon


Estuvo el G7 de 32 en MediaMarkt hace una semana a 511. Tenían el 20% de descuento. En día sin IVA tb está a ese precio. Hay que estar pendiente de estas ofertas.

Saludos.
eR_pOty está baneado por "GAME OVER"
Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)
ViRuSz escribió:
eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).

Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).

He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.


Pero los % de uso de la cpu, son globales, no? has mirado el uso de todos los cores/hilos? Porque lo que te puede estar ocurriendo es que te esté ahogando uno.

Igualmente, en mi experiencia, que puede ser erronea, en juegos cuando un core/hilo se acerca al 80-90% de uso, el rendimiento ya se resiente, no tiene porque marcarte el 100% de uso (supongo que porque tiene picos en los que si llega)
@Melendrinho yo viendo la nueva gama de Samsung de este año me sigo quedando con el G7 de 32 si y a este paso cae a finales de año!
Dibxer escribió:
ViRuSz escribió:
eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).

Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).

He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:

Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps

Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.


A mi me pasa igual con la carga de la 3080, no se pone al 100%, suele ir entre 60/80% con un R5 3600x... yo lo achaco a que hace cuello de botella, en los proximos CPU me gustaria actualizar

Vicgarhi escribió:
Dibxer escribió:Queria probar hacer el OC Automatico del panel de GeForce Experience en Rendimiento, pero cuando lleva unos 10s me sale esto: "Resultado del ultimo analisis: El ajuste automatico ha sido detenido. Reinicie el analisis"

Alguien sabe a que se debe? Con el afterburner cerrado, y sin OC.

Por otro lado, he vuelto a bajar BF4 y lo tengo limitado a 200 fps, alguien sabe como se quita esta limitacion?

Gracias!

Eso me pasaba a mi la semana pasada (creo) pero ahora lo acabo de ejecutar:

Imagen

Esta semana se que se ha actualizado el GEFORCE EXPERIENCE y ayer salieron drivers. No se si tiene algo que ver.


Pues justo me sale para actualizar, probaré a ver si es eso. Hay mucha mejoria? de temperaturas sube mucho tamb? Gracias


Yo he quitado el OC. Creo que no merece la pena en una 3090 para ganar un par de FPS. La temperatura subió un par de grados creo
Finity escribió:@Melendrinho yo viendo la nueva gama de Samsung de este año me sigo quedando con el G7 de 32 si y a este paso cae a finales de año!


Yo al final dude pillarlo por 511 el G7 32" pero al final cogí por 270 un G5 de 32" y estoy muy contento, el G7 tiene más anchura y con la curva se ve muy armatroste bajo mi punto de vista, casi 2 kgs más pesado y emite mucho calor (es una pijada pero ostras, que calor que da y da impresión de estar gastando la se su madre jaja).

Son más apagados los colores del G5 y el brillo claro está pero te acostumbras y sientes que no estás fusilando las retinas cada vez que juegas. Obviamente es mejor el G7 pero yo prefiero el G5 por todo lo expuesto y porque me queda genial montado en el brazo que tengo en la mesa, más sobrio y menos ancho.

Comentar que el Gsync compatible con el G5 va genial y que en general lo recomendaría por como mucho 270 la versión de 32.

Saludos.
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.
Una pregunta, los que teneis Founders ahora que esta llegando el calor ¿estais contentos con el tema temperaturas y ruido?

Metalyard escribió:
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


Pero si una vez mas llegan mas tarde que nvidia y con un "producto" peor. Por que FSR como ya se daba por hecho es peor que DLSS 2.1 y encima ahora parece ser que hay mas mejora con el 2.2. Vaya golpe....
JaviGabber escribió:Una pregunta, los que teneis Founders ahora que esta llegando el calor ¿estais contentos con el tema temperaturas y ruido?

Metalyard escribió:
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


Pero si una vez mas llegan mas tarde que nvidia y con un "producto" peor. Por que FSR como ya se daba por hecho es peor que DLSS 2.1 y encima ahora parece ser que hay mas mejora con el 2.2. Vaya golpe....


Conste por delante que ni soy un pro a una empresa ni a otra, de hecho ahora ando con una gtx 1080 viniendo de una R9 290.
Por si sale algún fanático de turno...

AMD con su serie RX ha sacado GPUs más eficientes energéticamente, igual o más potentes que éstas RTX, más baratas y ( a mi juicio) incluso más estéticas. Si ésto no es un golpe sobre la mesa, dime qué es para tí?

Muchos decían, " Si pero en RT se cagan"! Ok, AMD lanza FSR, como primer lanzamiento a dicha tecnología de la alternativa al DLSS.

Yo esperaba mucho mucho menos de lo que nos han mostrado pero las reviews han sido acojonantes con la calidad rendimiento que se saca, sobretodo en su modo Ultra Quality, donde se saca un porrón de fps con prácticamente la misma calidad que nativo como pasa en el DLSS...





Nvidia no debe dormirse en los laureles porque tiene AMD dando pasos de gigante y puede pasarle lo que le ha pasado a Intel con las CPUs.
Metalyard escribió:
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


La idea es buena, eso hay que reconocerlo. Que puedas tenerlo en todas las tarjetas esta guay, pero es su primera versión y tiene que mejorar. En calidad aun el DLSS está por delante pero habrá que ver donde acaba cada cosa
tiene muchisimo trabajo por delante nvidia con el DLSS, a mi, personalmente me parece una soberana mierda, emborrona la imagen.
Vicgarhi escribió:
Metalyard escribió:
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


La idea es buena, eso hay que reconocerlo. Que puedas tenerlo en todas las tarjetas esta guay, pero es su primera versión y tiene que mejorar. En calidad aun el DLSS está por delante pero habrá que ver donde acaba cada cosa


Creo que estáis muy mal informados.

@Metalyard
FSR nunca va a llegar ni a acercarse a la calidad de DLSS. FSR es puro software open source, mientras que DLSS usa el HW de la GPU, concretamente, los TENSOR Cores. Gracias a este HW, se consigue que la IA de la red neuronal deep learning vaya aprendiendo y mejorando.

Además de que FSR, es incluso una ventaja para Nvidia, ya que Nvidia podrá usar tanto FSR, como DLSS, mientras que AMD esta limitado a FSR.

Informaros un poco antes de soltar estas bondades que no hacen más que desorientar al público.
pedrogas81 escribió:
Vicgarhi escribió:
Metalyard escribió:
Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


La idea es buena, eso hay que reconocerlo. Que puedas tenerlo en todas las tarjetas esta guay, pero es su primera versión y tiene que mejorar. En calidad aun el DLSS está por delante pero habrá que ver donde acaba cada cosa


Creo que estáis muy mal informados.

@Metalyard
FSR nunca va a llegar ni a acercarse a la calidad de DLSS. FSR es puro software open source, mientras que DLSS usa el HW de la GPU, concretamente, los TENSOR Cores. Gracias a este HW, se consigue que la IA de la red neuronal deep learning vaya aprendiendo y mejorando.

Además de que FSR, es incluso una ventaja para Nvidia, ya que Nvidia podrá usar tanto FSR, como DLSS, mientras que AMD esta limitado a FSR.

Informaros un poco antes de soltar estas bondades que no hacen más que desorientar al público.

...... Está claro que DLSS es mejor y por potencial debería de ser mejor, pero eso no quita que la propuesta de AMD sea buena. Vamos yo apuesto por envidia (He apostado por la 3090) pero hay que reconocer que AMD ha sacado algo que está guay, esta verde y si lo siguen mejorando es algo muy bueno sobre todo para aquellos que tienen gráficas que no pueden tener DLSS. Aqui no es cuestión de ser de papá o de mamá.

Al final con ambas tecnologías el beneficiado es el usuario......
eR_pOty está baneado por "GAME OVER"
Metalyard escribió:
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.

O tú estás muy perdido en el mundo del hardware y te guías por verdes o rojos me parece

Fsr salió apenas ayer para 3 juegos y con unos gráficos en perfomance que parece que tengas miopía de 8

Golpe tras golpe... Si pero de cabeza [qmparto]
Vicgarhi escribió:...... Está claro que DLSS es mejor y por potencial debería de ser mejor, pero eso no quita que la propuesta de AMD sea buena. Vamos yo apuesto por envidia (He apostado por la 3090) pero hay que reconocer que AMD ha sacado algo que está guay, esta verde y si lo siguen mejorando es algo muy bueno sobre todo para aquellos que tienen gráficas que no pueden tener DLSS. Aqui no es cuestión de ser de papá o de mamá.

Al final con ambas tecnologías el beneficiado es el usuario......


Estoy de acuerdo en que esto beneficia al usuario, pero lo que he corregido, por que no es correcto, es comparar FSR con DLSS, por que son muy distintos. Aunque la finalidad sea la misma, uno hace uso de HW dedicado y redes neuronales, y el otro es mero SW opensource, por lo que el resultado nunca será ni parecido.

En definitiva, por mucho que AMD se empeñe aún le queda mucho camino para acercarse al RT de Nvidia y sobretodo al DLSS.

@eimia
Por otro lado, veo que hay quien dice que DLSS se ve borroso. No se que prueba hacéis con DLSS, pero desde la versión 2.0 y jugando a 4K es increíble el rendimiento y el resultado. Con la nueva versión que acaban de lanzar 2.2 aún es mejor el resultado.
Tengo entendido que el fsr ya es mejor que el primer dlss que palidecia en movimiento, a mí me va a salvar con mi 1070 un tiempecito, a la espera de stock o nueva serie.
pedrogas81 escribió:
Vicgarhi escribió:...... Está claro que DLSS es mejor y por potencial debería de ser mejor, pero eso no quita que la propuesta de AMD sea buena. Vamos yo apuesto por envidia (He apostado por la 3090) pero hay que reconocer que AMD ha sacado algo que está guay, esta verde y si lo siguen mejorando es algo muy bueno sobre todo para aquellos que tienen gráficas que no pueden tener DLSS. Aqui no es cuestión de ser de papá o de mamá.

Al final con ambas tecnologías el beneficiado es el usuario......


Estoy de acuerdo en que esto beneficia al usuario, pero lo que he corregido, por que no es correcto, es comparar FSR con DLSS, por que son muy distintos. Aunque la finalidad sea la misma, uno hace uso de HW dedicado y redes neuronales, y el otro es mero SW opensource, por lo que el resultado nunca será ni parecido.

En definitiva, por mucho que AMD se empeñe aún le queda mucho camino para acercarse al RT de Nvidia y sobretodo al DLSS.

@eimia
Por otro lado, veo que hay quien dice que DLSS se ve borroso. No se que prueba hacéis con DLSS, pero desde la versión 2.0 y jugando a 4K es increíble el rendimiento y el resultado. Con la nueva versión que acaban de lanzar 2.2 aún es mejor el resultado.


Ok ok, entonces estamos en la misma página :) También estoy contigo en lo otro, yo no lo he visto borroso en ningún momento.
pedrogas81 escribió:
Vicgarhi escribió:
Metalyard escribió:
Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


La idea es buena, eso hay que reconocerlo. Que puedas tenerlo en todas las tarjetas esta guay, pero es su primera versión y tiene que mejorar. En calidad aun el DLSS está por delante pero habrá que ver donde acaba cada cosa


Creo que estáis muy mal informados.

@Metalyard
FSR nunca va a llegar ni a acercarse a la calidad de DLSS. FSR es puro software open source, mientras que DLSS usa el HW de la GPU, concretamente, los TENSOR Cores. Gracias a este HW, se consigue que la IA de la red neuronal deep learning vaya aprendiendo y mejorando.

Además de que FSR, es incluso una ventaja para Nvidia, ya que Nvidia podrá usar tanto FSR, como DLSS, mientras que AMD esta limitado a FSR.

Informaros un poco antes de soltar estas bondades que no hacen más que desorientar al público.


Ese "NUNCA" solo lo suelta un fanático [facepalm]

Lo mismo decían con las CPUs...quieres llevarte un zasca como esa gente o que?
FSR hace prácticamente lo mismo que el DLSS sin necesidad de red neuronal de IA y además es open source. ( Tu lo ves como una debilidad y yo como una fortaleza precisamente [oki] )

Es acaso G-sync mucho mejor que Freesync siendo el primero de ámbito exclusivo cerrado?

Como primera versión, lo han clavado macho y está genial, vamos que ya está poniendo en aprietos a los tensor cores de Nvidia [qmparto]

Y es normal que Nvidia responda con una nueva versión de DLSS, saben que no pueden dormirse y eso está genial para nosotros como jugadores...lo bueno de la competencia "amiho".

Como digo vienen muy fuertes con todo.

Por otro lado, veo que hay quien dice que DLSS se ve borroso. No se que prueba hacéis con DLSS, pero desde la versión 2.0 y jugando a 4K es increíble el rendimiento y el resultado.


Te dejo una imagen comparativa con DLSS of/on... Ah, de nada XD :

https://cdn.knightlab.com/libs/juxtapos ... 443c729a29


Qué decías de informarse y eso?? [toctoc]

@eR_pOty La comparativa del video que te he enlazado, para otro día la dejas verdad xD
Lo que yo no entiendo es meter a pelear FSR con DLSS como equivalente de AMD vs Nvidia......

¿El FSR está bien? Si, está muy muy bien, hace lo que se prometía, ganas muchos FPS sin comprometer la calidad, y muchísimos reduciendo algo de calidad.

¿Es un factor diferenciador entre las marcas? No, porque está disponible para ambas.
Metalyard escribió:Ese "NUNCA" solo lo suelta un fanático [facepalm]

Lo mismo decían con las CPUs...quieres llevarte un zasca como esa gente o que?
FSR hace prácticamente lo mismo que el DLSS sin necesidad de red neuronal de IA y además es open source. ( Tu lo ves como una debilidad y yo como una fortaleza precisamente [oki] )

Es acaso G-sync mucho mejor que Freesync siendo el primero de ámbito exclusivo cerrado?

Como primera versión, lo han clavado macho y está genial, vamos que ya está poniendo en aprietos a los tensor cores de Nvidia [qmparto]

Y es normal que Nvidia responda con una nueva versión de DLSS, saben que no pueden dormirse y eso está genial para nosotros como jugadores...lo bueno de la competencia "amiho".

Como digo vienen muy fuertes con todo.

Por otro lado, veo que hay quien dice que DLSS se ve borroso. No se que prueba hacéis con DLSS, pero desde la versión 2.0 y jugando a 4K es increíble el rendimiento y el resultado.


Te dejo una imagen comparativa con DLSS of/on... Ah, de nada XD :

https://cdn.knightlab.com/libs/juxtapos ... 443c729a29


Qué decías de informarse y eso?? [toctoc]

@eR_pOty La comparativa del video que te he enlazado, para otro día la dejas verdad xD


Ese "NUNCA" lo dice alguien que ha trabajado con redes neuronales y conoce su pontencial frente a un SW opensource...nada de fanatismos. DLSS irá aprendiendo cada vez más en como tratar la imagen y se irá potenciando por su propia naturaleza. Pero vamos que el tiempo dirá, yo como profesional doy mi opinión y por cierto, opino sin faltar a nadie como haces tú, que parece que tienes que llamar fanático a la gente por falta de argumentos...

Sobre la imagen que pones, lo primero habría que ver que versión del Control es, pues te recuerdo que en las primeras release del juego, no se hacía uso de DLSS 2.0, además de que no veo yo en esa imagen ningún tipo de borrososidad...
Dracot escribió:Lo que yo no entiendo es meter a pelear FSR con DLSS como equivalente de AMD vs Nvidia......

¿El FSR está bien? Si, está muy muy bien, hace lo que se prometía, ganas muchos FPS sin comprometer la calidad, y muchísimos reduciendo algo de calidad.

¿Es un factor diferenciador entre las marcas? No, porque está disponible para ambas.


No tiene sentido una pelea de FSR vs DLSS, ni se pretende, al menos por mi parte, la conversación ha saltado porque un usuario ha dicho que el FSR es una versión o.5 del DLSS, lo cual dije que o bien estaba de cachondeo o desinformado.

@pedrogas81 Comprensión lectora poco no?

Yo no he faltado a nadie, pero cuando alguien suelta extremismos, tales como " AMD NUNCA será como NVIDIA" y tonterías así, es normal que se diga que esas cosas solo las digan fanáticos.

Puedes trabajar en lo que quieras, pero que DLSS y FSR van a ser tan parecidas como Gsync y Freesync, es una realidad. Por muchas redes neurales que tenga una y la otra sea open source.

La versión de la imagen comparativa es DLSS 2.0

Fuente? Por supuesto:

https://www.pcmrace.com/2020/03/30/nues ... al-maximo/
@Metalyard

No iba por ti, ni por nadie en concreto en realidad. Simplemente creo que es a dónde estaba girando la conversación o parte de ella, a hacer un Nvidia VS AMD.

Y como digo, no le veo sentido cuando hablamos de una tecnología disponible en ambas.
Dracot escribió:@Metalyard

No iba por ti, ni por nadie en concreto en realidad. Simplemente creo que es a dónde estaba girando la conversación o parte de ella, a hacer un Nvidia VS AMD.

Y como digo, no le veo sentido cuando hablamos de una tecnología disponible en ambas.

Viendo tu firma te puedo preguntar que tuviste antes? El 5900x o la 3080? Es que estoy mirando de hacer upgrade al procesador (tengo un 3600x) pero no se si notaré mejoría de rendimiento junto con la 3090.

Gracias!
Metalyard escribió:
Dracot escribió:Lo que yo no entiendo es meter a pelear FSR con DLSS como equivalente de AMD vs Nvidia......

¿El FSR está bien? Si, está muy muy bien, hace lo que se prometía, ganas muchos FPS sin comprometer la calidad, y muchísimos reduciendo algo de calidad.

¿Es un factor diferenciador entre las marcas? No, porque está disponible para ambas.


No tiene sentido una pelea de FSR vs DLSS, ni se pretende, al menos por mi parte, la conversación ha saltado porque un usuario ha dicho que el FSR es una versión o.5 del DLSS, lo cual dije que o bien estaba de cachondeo o desinformado.

@pedrogas81 Comprensión lectora poco no?

Yo no he faltado a nadie, pero cuando alguien suelta extremismos, tales como " AMD NUNCA será como NVIDIA" y tonterías así, es normal que se diga que esas cosas solo las digan fanáticos.

Puedes trabajar en lo que quieras, pero que DLSS y FSR van a ser tan parecidas como Gsync y Freesync, es una realidad. Por muchas redes neurales que tenga una y la otra sea open source.

La versión de la imagen comparativa es DLSS 2.0

Fuente? Por supuesto:

https://www.pcmrace.com/2020/03/30/nues ... al-maximo/


No pongas palabras en mi boca que yo no he dicho:
"AMD NUNCA será como NVIDIA" (yo no he dicho eso en ningún momento)

Hablas de compresión lectora, cuando tu no estas entendiendo ni una sola palabra de lo que digo....en fin

Cuñados hay por todas parte.....(aprovechando tu calificativo de fanático hacia mi..)

Aporto un video donde se puede aprender un poco de como funciona DLSS con el juego que referencias:

https://www.youtube.com/watch?v=YWIKzRhYZm4

Dejo la conversación de besugos, pues no se puede discutir con alguien que tiene tanto conocimiento que hasta sabe que pasará en un futuro....

Saludos y buen día majo!
eR_pOty está baneado por "GAME OVER"
Lo que no se puede hacer es decir "los verdes" y luego tratar a los demas de fanaticos por soltar unos argumentos de los mas solidos y demoledores [toctoc] todo para venir a defender a AMD con el FSR y decir es un golpe para Nvidia cuando es precisamente todo lo contrario. Un beneficio para nvidia como empresa y un beneficio para los usuarios que podremos usar AMBAS tecnologias mientras que AMD solo podra usar la suya...

alguno entra aqui a defender su marca a capa y espada y sin darse cuenta hace todo lo contrario [qmparto]

ojala mañana sea FSR cien veces mejor que el DLSS (jamas asumidlo ya pesaos) asi podre usar estas tecnologias en mas juegos y como mas me convenga en mi tarjeta nvidia .
eR_pOty escribió:Lo que no se puede hacer es decir "los verdes" y luego tratar a los demas de fanaticos [toctoc] todo para venir a defender a AMD con el FSR y decir es un golpe para Nvidia cuando es precisamente todo lo contrario. Un beneficio para nvidia como empresa y un beneficio para los usuarios que podremos usar AMBAS tecnologias mientras que AMD solo podra usar la suya...

alguno entra aqui a defender su marca a capa y espada y sin darse cuenta hace todo lo contrario [qmparto]

ojala mañana sea FSR cien veces mejor que el DLSS (jamas asumidlo ya pesaos) asi podre usar estas tecnologias en mas juegos y como mas me convenga en mi tarjeta nvidia .


Totalmente de acuerdo compañero, esa es la actitud.

Nosotros como usuarios nos vemos muy beneficiados, ya que podremos decidir que usar en cada momento.
pedrogas81 escribió:[...]además de que no veo yo en esa imagen ningún tipo de borrososidad...

A simple vista se ve borrosidad en la hoja en blanco del centro con la palabra CLASSIFIED. Si se hace zoom a esa zona aún se nota más. También he visto borrosidad en todo el personaje (desde cabello, chaqueta, etc), que de primeras no caí porque pensaba que era debido a que estaba movida.

Y esto lo digo en un escenario muy malo y que dificulta ver el detalle, y es que lo estaba viendo en una pantalla 1080p de 43" a 2 metros y desde el mismo navegador (que no me mostraba la imagen 4k al 100% sino reducida a menos de 1080). Vamos, que si me pongo en una situación ideal en un monitor 4k bastante mas cerca y viendo las imágenes 4k nativas ya ni te cuento lo que vería.

Pero sin ir tan lejos me he bajado las 2 imágenes (4k nativo y 4k dlss) y al verlas al 100% se nota bastante las diferencias... eso sí, personalmente ya dentro del juego debería de hacer la prueba y ver con qué me quedo en cuanto a la relación calidad de imagen - fps.

Quien no vea borrosidad en ese ejemplo de Control supongo que no le importará mucho si usa DLSS o FSR, total lo van a ver igual de bien/mal.

A mi personalmente si FSR consigue que se cree esa competición sana para los usuarios, bienvenida sea, que estaba la pobre nvidia muy sola con su DLSS.
eR_pOty está baneado por "GAME OVER"
por cierto , en portada podeis ver la noticia de a salido de la nueva aplicacion de Nvidia y ver las maravillas que hace la IA en tiempo real solo con un garabato en paint, misma tecnologia con redes neuronales que utiliza el DLSS

noticias/tecnologia/nvidia-canvas-ai-convierte-garabatos-arte
Metalyard escribió:
JaviGabber escribió:Una pregunta, los que teneis Founders ahora que esta llegando el calor ¿estais contentos con el tema temperaturas y ruido?

Metalyard escribió:
Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.


Pero si una vez mas llegan mas tarde que nvidia y con un "producto" peor. Por que FSR como ya se daba por hecho es peor que DLSS 2.1 y encima ahora parece ser que hay mas mejora con el 2.2. Vaya golpe....


Conste por delante que ni soy un pro a una empresa ni a otra, de hecho ahora ando con una gtx 1080 viniendo de una R9 290.
Por si sale algún fanático de turno...

AMD con su serie RX ha sacado GPUs más eficientes energéticamente, igual o más potentes que éstas RTX, más baratas y ( a mi juicio) incluso más estéticas. Si ésto no es un golpe sobre la mesa, dime qué es para tí?

Muchos decían, " Si pero en RT se cagan"! Ok, AMD lanza FSR, como primer lanzamiento a dicha tecnología de la alternativa al DLSS.

Yo esperaba mucho mucho menos de lo que nos han mostrado pero las reviews han sido acojonantes con la calidad rendimiento que se saca, sobretodo en su modo Ultra Quality, donde se saca un porrón de fps con prácticamente la misma calidad que nativo como pasa en el DLSS...





Nvidia no debe dormirse en los laureles porque tiene AMD dando pasos de gigante y puede pasarle lo que le ha pasado a Intel con las CPUs.


Nadie niega que AMD por fin haya sacado unas GPUs competentes. Si, son más eficientes y en rendimiento en rasterizacion se han puesto al nivel de Nvidia lo que es todo un logro. También hay que decir que AMD utiliza un proceso de fabricación notablemente superior a Nvidia. Faltaría más que fueran menos eficientes y encima sin tener tensor cores y RT cores.
¿Que es un golpe de la mesa para mí? En la situación que está AMD en GPUs sacar un producto mejor y más barato (50$ entre la 3080 y la 6800xt me parece anecdótico) , sacar una tecnología que no tenga la competencia, adelantarte a la competencia y no siempre ir a rebufo.

Luego veo el vídeo que has puesto pero supongo que habrás buscado uno que deje bien al FSR. No me gusta quedarme solo con la opinión de un analista, me gusta ver varias opiniones y sacar conclusiones. Hay a medios a los que FSR les ha gustado como a TPU, a otros no tanto como guru3d o digital foundry. Parece por lo que dices que todas las reviews dicen que es acojonante cosa que no es así.
Me quedo en que ni es tan bueno ni es tan malo, en lo que todos coinciden es que es peor que DLSS 2.x.

Lo que ha pasado con CPUs ente Intel y AMD no tiene nada que ver con el panorama que hay en GPUs. Vamos creo que no hace falta explicarlo.
Algunos hablan de amd como si fuese 2012, estamos en 2021 y despues de cargarse a intel ahora va a por Nvidia, y sabe como hacer las cosas, despues de ver el funcionamiento del FSR yo ya doy por muerto al dlss y es solo cuestion de tiempo que se vuelva un estandar, las razones son simples, es de codigo abierto y seguramente lo integren en el directx, da igual lo que haga nvidia ya
Antoniopua está baneado por "saltarse el ban con un clon"
eR_pOty escribió:
Metalyard escribió:
eR_pOty escribió:Mientras AMD se acerca a un DLSS con su FSR que podria considerarse mas bien un DLSS 0.5 , nvidia ya a sacado DLSS 2.2 , podeis probarlo en Raibow six y cyberpunk (este mediante un mod)


Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.

O tú estás muy perdido en el mundo del hardware y te guías por verdes o rojos me parece

Fsr salió apenas ayer para 3 juegos y con unos gráficos en perfomance que parece que tengas miopía de 8

Golpe tras golpe... Si pero de cabeza [qmparto]

Si tu no lo ves, tienes un problema. Por supuesto que han dado un golpe sobre la mesa con sus nuevas gráficas (y tu te beneficiaras de eso también y yo como usuarios que somos). Si ahora porque el FSR acaba de salir y comparado con el DLSS está por debajo pretendes enterrar todo el trabajo que se ha hecho con las AMD 6000 estas muy equivocado. Recuerda que nadie quería y confiaba en los Ryzen y preferían montar Intel... ¿Cuántos de aquí montáis hoy día un Ryzen, y pensabais que de Intel no íbais a cambiar nunca? Por tanto "Nunca digas..." ;)


@pedrogas81 ese "NUNCA" mas que fanático... lo que suena es sentencioso [oki]. ¿No crees? Yo siempre prefiero escribir un "CREO" pues no se nos debe olvidar nunca que al fin y al cabo lo que aquí posteamos es una opinión personal y no la verdad absoluta.


Saludos!!!
Dracot escribió:Lo que yo no entiendo es meter a pelear FSR con DLSS como equivalente de AMD vs Nvidia......

¿El FSR está bien? Si, está muy muy bien, hace lo que se prometía, ganas muchos FPS sin comprometer la calidad, y muchísimos reduciendo algo de calidad.

¿Es un factor diferenciador entre las marcas? No, porque está disponible para ambas.

En parte llevas razón ,pero precisamente una de las cosas que hacen comprar Nvidia incluso siendo menos potente antes que AMD ,es el DLSS y su calidad.
Por eso hay que comprarlos.

Yo hasta el momento ,prefería una 3070 antes que una 6800xt siendo la 6800xt más potente,precisamente,por el DLSS .
No merece la pena discutir con fanaticos, no vas a poder cambiar su opinion aunque Nvidia estuviera matando gatitos chiquititos. Pasa lo mismo en politica, futbol y guerra de consolas.

FSR es algo fantastico, seguramente no este a la altura del DLSS, pero si en calidad ultra es dificil distinguir cual es nativo de cual no es un resultado realmente bueno.

Ahora bien, quien se ve más favorecido en esta tecnologia? Para mi claramente las consolas.

Ahora la PS5/xbox series va poder correr juegos 4k con mucho más detalle o más fps pudiendose configurar el FSR en ultra o calidad, incluso pueden poner le modo performance perdiendo calidad a 4k y ganando fps. Seguramente los desarrolladores aprovechen para recargar graficamente mucho más los juegos. Incluso la ps4 y xbox one pueden favorecerse de ello.

Seguramente en unos años todas las compañias utilizaran el FSR en sus juegos de consola, y supongo que lo mantendran en los ports a PC.

La pregunta es que va pasar con el DLSS, creo que con el tiempo FSR va estar mas extendido, pero quedaran juegos que no tengan FSR y si DLSS, y juegos que soporten ambas tecnologias. Va depender mucho de la facilidad de implementar DLSS en los motores graficos. Nvidia seguro que mete pasta para que ciertos juegos no implementen FSR y si DLSS, para tener un factor diferenciador respecto a la competencia.

En cualquier caso es una buena noticia para todos, seas pro Nvidia o no lo seas.
El dlss va a desaparecer como pasó con las físicas exclusivas o tecnología propietaria para la lluvia, pelo etc, pero pasarán años, hasta que sean tecnologías estándar que soporten todos los motores y tarjetas.

También influirá que el hardware evolucionará, para que todas puedan hacer algo similar sin ser hardware propietario.
Ojo en los foros de 2º mano, empiezan a aparecer GPU's nuca usadas, solo LOL y fresquita. Cuidado con lo que comprais.
hh1 escribió:
Dracot escribió:Lo que yo no entiendo es meter a pelear FSR con DLSS como equivalente de AMD vs Nvidia......

¿El FSR está bien? Si, está muy muy bien, hace lo que se prometía, ganas muchos FPS sin comprometer la calidad, y muchísimos reduciendo algo de calidad.

¿Es un factor diferenciador entre las marcas? No, porque está disponible para ambas.

En parte llevas razón ,pero precisamente una de las cosas que hacen comprar Nvidia incluso siendo menos potente antes que AMD ,es el DLSS y su calidad.
Por eso hay que comprarlos.

Yo hasta el momento ,prefería una 3070 antes que una 6800xt siendo la 6800xt más potente,precisamente,por el DLSS .


Respecto a la comparación , yo no paro de ver análisis donde hablan de borrosidad en el FSR.
Sin verlo in situ,pues a saber cuánto se nota.
Antoniopua escribió:
eR_pOty escribió:
Metalyard escribió:
Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.

O tú estás muy perdido en el mundo del hardware y te guías por verdes o rojos me parece

Fsr salió apenas ayer para 3 juegos y con unos gráficos en perfomance que parece que tengas miopía de 8

Golpe tras golpe... Si pero de cabeza [qmparto]

Si tu no lo ves, tienes un problema. Por supuesto que han dado un golpe sobre la mesa con sus nuevas gráficas (y tu te beneficiaras de eso también y yo como usuarios que somos). Si ahora porque el FSR acaba de salir y comparado con el DLSS está por debajo pretendes enterrar todo el trabajo que se ha hecho con las AMD 6000 estas muy equivocado. Recuerda que nadie quería y confiaba en los Ryzen y preferían montar Intel... ¿Cuántos de aquí montáis hoy día un Ryzen, y pensabais que de Intel no íbais a cambiar nunca? Por tanto "Nunca digas..." ;)


@pedrogas81 ese "NUNCA" mas que fanático... lo que suena es sentencioso [oki]. ¿No crees? Yo siempre prefiero escribir un "CREO" pues no se nos debe olvidar nunca que al fin y al cabo lo que aquí posteamos es una opinión personal y no la verdad absoluta.


Saludos!!!


Compañero tienes todas la razón, habría sido más correcto el "CREO", pero aún con este matiz sigo subscribiendo todo lo dicho.

Sobre los Ryzen, yo a día de hoy sigo con Intel, pero considero que es por mi mera cabezonería conservadora, ya que la única vez que cambié de Intel a AMD, me salió horrible la cosa...
hh1 escribió:
Dracot escribió:Lo que yo no entiendo es meter a pelear FSR con DLSS como equivalente de AMD vs Nvidia......

¿El FSR está bien? Si, está muy muy bien, hace lo que se prometía, ganas muchos FPS sin comprometer la calidad, y muchísimos reduciendo algo de calidad.

¿Es un factor diferenciador entre las marcas? No, porque está disponible para ambas.

En parte llevas razón ,pero precisamente una de las cosas que hacen comprar Nvidia incluso siendo menos potente antes que AMD ,es el DLSS y su calidad.
Por eso hay que comprarlos.

Yo hasta el momento ,prefería una 3070 antes que una 6800xt siendo la 6800xt más potente,precisamente,por el DLSS .


Respecto a la comparación , yo no paro de ver análisis donde hablan de borrosidad en el FSR.
Sin verlo in situ,pues a saber cuánto se nota.

@cristiano.88
Claro...siempre fresquita y nunca minado [noop]
Antoniopua está baneado por "saltarse el ban con un clon"
cristiano.88 escribió:Ojo en los foros de 2º mano, empiezan a aparecer GPU's nuca usadas, solo LOL y fresquita. Cuidado con lo que comprais.

Personalmente no compraría una gráfica de la generación 3000 usada ni de broma por dos motivos: Por principios... porque es la manera que tengo de manifestar que no estoy -ni lo sigo estando- de acuerdo con todo lo que se ha hecho en temas de especulación. Y segundo por el desgaste... en un año de minado, pueden haber trabajado unas 8760 horas... Por mucho que se cuide ( que tampoco sabemos en que condiciones han trabajado) existe un desgaste de componentes. Claro es fácil aguantar cuando ya se tiene gráfica... pero estoy seguro de que si estuviese sin gráfica, no compraría una de segunda mano.



Saludos!!!
eR_pOty está baneado por "GAME OVER"
Antoniopua escribió:
eR_pOty escribió:
Metalyard escribió:
Cómo?

O no te has informado bien o debes estar de broma, entiendo, no?

Ya pueden espabilar los de verde porque con cada producto lanzado, los de AMD están viniendo muy fuerte y van dando golpe tras golpe sobre la mesa.

O tú estás muy perdido en el mundo del hardware y te guías por verdes o rojos me parece

Fsr salió apenas ayer para 3 juegos y con unos gráficos en perfomance que parece que tengas miopía de 8

Golpe tras golpe... Si pero de cabeza [qmparto]

Si tu no lo ves, tienes un problema. Por supuesto que han dado un golpe sobre la mesa con sus nuevas gráficas (y tu te beneficiaras de eso también y yo como usuarios que somos). Si ahora porque el FSR acaba de salir y comparado con el DLSS está por debajo pretendes enterrar todo el trabajo que se ha hecho con las AMD 6000 estas muy equivocado. Recuerda que nadie quería y confiaba en los Ryzen y preferían montar Intel... ¿Cuántos de aquí montáis hoy día un Ryzen, y pensabais que de Intel no íbais a cambiar nunca? Por tanto "Nunca digas..." ;)


@pedrogas81 ese "NUNCA" mas que fanático... lo que suena es sentencioso [oki]. ¿No crees? Yo siempre prefiero escribir un "CREO" pues no se nos debe olvidar nunca que al fin y al cabo lo que aquí posteamos es una opinión personal y no la verdad absoluta.


Saludos!!!

Que pesados sois de verdad... que casualidad que los que venis opinando de manera obtusa y radical teneis una gpu de amd no se que haceis simpre metidos aqui...deben de intesaros mucho las gpu de nvidia..,

la comparacion con las CPU es absurda, aunque amd se a puesto las pilas con ryzen 5000 (que ya era hora por cierto ),se han subido a la parra con los precios por lo que renta mas comprar un intel ahora mismo en rendimiento/precio(menos en gama alta), por eso me he decantado por un 11400 aun con la cantilenla de los 14nm++++ y no por un 5600 como tu crees ;) pero como digo la comparacion es absurda porque aqui no se esta comparando hardware, se estan comparando tecnologias MUY distintas , una usa algoritmos mediante un sofrware y la otra usa una IA con hardware dedicado+software. hasta que AMD no haga lo mismo con una futura GPU no va a llegar nunca al nivel de una red neuronal... esto no es una opinion como tu dices, es precisamente una verdad absoluta incuestionable por mas sentencioso que te suene porque es pura logica.

Gromber escribió:El dlss va a desaparecer como pasó con las físicas exclusivas o tecnología propietaria para la lluvia, pelo etc, pero pasarán años, hasta que sean tecnologías estándar que soporten todos los motores y tarjetas.

También influirá que el hardware evolucionará, para que todas puedan hacer algo similar sin ser hardware propietario.
[qmparto] Si, ya mismo lo estan quitando , la mejor tecnologia que se a hecho en 10 años y mas provechosa en cuanto a ventas, valor de la compañia y un gran avance en el sector profesional y de videojuegos y la van a quitar porque tu lo digas [qmparto] las redes neuronales son y seran el futuro que marcaran un antes y un despues en los proximos 100 años, no solo en los videojuegos, si no en cualquier ambito de todo lo que lleve un semiconductor
No hace falta menospreciar otras opiniones para mostrar la tuya y yo no he hablado de las redes neuronales etc, que son un gran avance, sino de las tecnologías que solo puede usar una marca en concreto, pero lo dicho, lo veremos en los próximos años, siempre salen alternativas mejores que se convierten en estándar, para no ser solo de un producto.

El FSR puede no ser ese primer paso, pero por algo se empieza.
Antoniopua está baneado por "saltarse el ban con un clon"
Saludos!!!
Editado por quimico2008. Razón: Mejor así
ManuBitch está baneado por "clon de usuario baneado"
eR_pOty escribió:
Antoniopua escribió:
eR_pOty escribió:O tú estás muy perdido en el mundo del hardware y te guías por verdes o rojos me parece

Fsr salió apenas ayer para 3 juegos y con unos gráficos en perfomance que parece que tengas miopía de 8

Golpe tras golpe... Si pero de cabeza [qmparto]

Si tu no lo ves, tienes un problema. Por supuesto que han dado un golpe sobre la mesa con sus nuevas gráficas (y tu te beneficiaras de eso también y yo como usuarios que somos). Si ahora porque el FSR acaba de salir y comparado con el DLSS está por debajo pretendes enterrar todo el trabajo que se ha hecho con las AMD 6000 estas muy equivocado. Recuerda que nadie quería y confiaba en los Ryzen y preferían montar Intel... ¿Cuántos de aquí montáis hoy día un Ryzen, y pensabais que de Intel no íbais a cambiar nunca? Por tanto "Nunca digas..." ;)


@pedrogas81 ese "NUNCA" mas que fanático... lo que suena es sentencioso [oki]. ¿No crees? Yo siempre prefiero escribir un "CREO" pues no se nos debe olvidar nunca que al fin y al cabo lo que aquí posteamos es una opinión personal y no la verdad absoluta.


Saludos!!!

Que pesados sois de verdad... que casualidad que los que venis opinando de manera obtusa y radical teneis una gpu de amd no se que haceis simpre metidos aqui...deben de intesaros mucho las gpu de nvidia..,

la comparacion con las CPU es absurda, aunque amd se a puesto las pilas con ryzen 5000 (que ya era hora por cierto ),se han subido a la parra con los precios por lo que renta mas comprar un intel ahora mismo en rendimiento/precio(menos en gama alta), por eso me he decantado por un 11400 aun con la cantilenla de los 14nm++++ y no por un 5600 como tu crees ;) pero como digo la comparacion es absurda porque aqui no se esta comparando hardware, se estan comparando tecnologias MUY distintas , una usa algoritmos mediante un sofrware y la otra usa una IA con hardware dedicado+software. hasta que AMD no haga lo mismo con una futura GPU no va a llegar nunca al nivel de una red neuronal... esto no es una opinion como tu dices, es precisamente una verdad absoluta incuestionable por mas sentencioso que te suene porque es pura logica.

Gromber escribió:El dlss va a desaparecer como pasó con las físicas exclusivas o tecnología propietaria para la lluvia, pelo etc, pero pasarán años, hasta que sean tecnologías estándar que soporten todos los motores y tarjetas.

También influirá que el hardware evolucionará, para que todas puedan hacer algo similar sin ser hardware propietario.
[qmparto] Si, ya mismo lo estan quitando , la mejor tecnologia que se a hecho en 10 años y mas provechosa en cuanto a ventas, valor de la compañia y un gran avance en el sector profesional y de videojuegos y la van a quitar porque tu lo digas [qmparto] las redes neuronales son y seran el futuro que marcaran un antes y un despues en los proximos 100 años, no solo en los videojuegos, si no en cualquier ambito de todo lo que lleve un semiconductor

El unico radical aqui ere tu que llamas al compa de todo y el fue eduacdo [toctoc] siempre empiezas bien los mensajes pero acabas borrando con el codo con tus insultos y menosprecios ¿quien es el obtuso y radical? ¿lo adivinas? Ahora entiendo lo de "censuradito" tu mismo sabes que eres censurable [qmparto] [qmparto]
31123 respuestas