Nvidia Ada Lovelace RTX4000

Yo sigo jugando en 2k [+risas] , no me planteo ni el 4k. Veremos a ver qué sale.
JaviGabber escribió:Exacto, una serie sustituye a la otra y no conviven juntas. Descatalogaran las 3000 y las tiendas puede que hagan alguna oferta putual para quitarse el stock de encima.

Eso es lo que pienso yo que va a suceder como en anteriores series. Pero no creo que haya super ofertas de graficas top, las ofertas podrian venir de graficas más tipo 3060 y 3050, si bien me da que esta ultima si va a convivir más con las serie 4000 porque seria raro que lanzaran algo de esa gama de primeras. Depende todo de eso, de como las lancen, en que margen de tiempo, en la serie 3000 la falta de stock condiciono mucho el tiempo entre lanzamientos y las 3060 llegaron 3 meses déspues o más pero en otras series fue algo más rapido.

Para la gente que teneis 3070/3080/3090 sucede lo de siempre, si esperas a la siguiente generación, es posible que te cueste venderla muy bien de precio. Lo unico que ahora a saber que stock aparece, aunque me muestro confiado en que siendo TSMC el fabricante de las obleas, la situación cambie a formas de anteriores series.

Recordando el pasado, con la llegada de la serie 3000 a muchos les entro el panico cuando se filtraron los rendimientos y corrieron a vender, luego igual fliparon con el precio que tuvieron en el mercado de segunda mano.
buenas yo al final compre una 3060 por 450 financiada jijiji en amazon en 4 cuotas de 112 euros y asi me cubro que suban o bajen jijiji y a esperar al verano del 2023 si es verdad que la generacion 4000 merece la pena o no y siempre la 4060/4060 ti
Yo me agencie una 3090 de mi amigo ram, tengo la 2080 en venta, si la vendo bien y si no me la quedaré.
La serie 4000 tendremos que esperar a ver cuánto rendimiento tienen y ver si interesa vender la 3090 y pasarse a la serie 4000, a día de hoy no tenemos juegos para que eso sea una necesidad,creo que la serie 4000 será cara y con un stok escaso.
La situación no ayuda,tenemos una estanflación muy severas y eso no va a ayudar en que los precios sean económicos y menos con la escasez de chips etc....
@yosu888

La serie 4000 será de transición, la buena será la 5000.
neofonta escribió:@yosu888

La serie 4000 será de transición, la buena será la 5000.


¿Por qué dices eso?
SashaX escribió:
neofonta escribió:@yosu888

La serie 4000 será de transición, la buena será la 5000.


¿Por qué dices eso?


Eso mismo le iba a preguntar.
Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.
neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.


Pero si eso pasa prácticamente siempre xd, ampere fue cambio de litografia, turing tambien, pascal tambien, maxwell tambien...., supongo que lo diras por amd que esta generacion no a cambiado, pero eso casi nunca pasa

Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta
neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.


Estrenan arquitectura y litografia nueva, lo que indica que no es ni mucho menos una serie de transicion. Vamos como dice el compañero lo que siempre hace nvidia.

FranciscoVG escribió:Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta


Ojala que AMD pueda sacar algo que le haga algo de daño a Nvidia por que el "monopolio" que tiene no es sano. Las filtraciones de kopite7kimi no dan muchas esperanzas...
OK Computer escribió:
gojesusga escribió:ya se han filtrado los precios... una 4070 carísima TDP de 300W pero... de rendimiento no hay nada confirmado no? Leí un rumor de que era como una RTX 3080ti? Por huevos tienen que bajar los precios de la serie 3000.


Que yo recuerde y lo mismo me falla la memoria, los precios de las series anteriores no bajan con la llegada de las nuevas, o si lo hacen, es algo marginal y muy puntual.


Bueno más que bajar de precio podrían dejarlas en PVP [+risas] Una vergüenza como nunca han estado en el precio original, "sugerido" o "recomendado".
JaviGabber escribió:
neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.


Estrenan arquitectura y litografia nueva, lo que indica que no es ni mucho menos una serie de transicion. Vamos como dice el compañero lo que siempre hace nvidia.

FranciscoVG escribió:Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta


Ojala que AMD pueda sacar algo que le haga algo de daño a Nvidia por que el "monopolio" que tiene no es sano. Las filtraciones de kopite7kimi no dan muchas esperanzas...


Estos dos últimos años AMD habria podido vender muuuuucho más de lo que han vendido, solo les hacia falta tener stock.
JaviGabber escribió:
neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.


Estrenan arquitectura y litografia nueva, lo que indica que no es ni mucho menos una serie de transicion. Vamos como dice el compañero lo que siempre hace nvidia.

FranciscoVG escribió:Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta


Ojala que AMD pueda sacar algo que le haga algo de daño a Nvidia por que el "monopolio" que tiene no es sano. Las filtraciones de kopite7kimi no dan muchas esperanzas...


No solo puede si no que ya lo a hecho, esta generacion en condiciones normales amd habria dado un duro golpe a nvidia, las arquitecturas no se miden por la potencia o por las ventas se miden de toda la vida por la eficiencia y en eso amd no solo esta a la altura si no que a llegado a superar a nvidia, esto es lo que hizo tambien a amd superar a intel y por lo que el M1 de apple es el mejor procesador de la actualidad, la eficiencia es lo que te hace ser competitivo y tener fácil escalabilidad

Es evidente que es dificil que amd supere a nvidia pero como se duerma en los laureles les va a ganar mucho terreno sobre todo ahora que incluso se estan poniendo las pilas en lo relacionado al software, tambien va a depender mucho del tema del stock y de los tratos que ambos tengan con TSMC, tambien se podria decir que amd es la menos interesada en esta guerra puesto que tiene un mercado mas diversificado pero serian tontos si pierden la oportunidad
Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.

Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.
SashaX escribió:
neofonta escribió:@yosu888

La serie 4000 será de transición, la buena será la 5000.


¿Por qué dices eso?

y mejor será la 6000 [hallow]
gojesusga escribió:
FrankSikiatra escribió:
gojesusga escribió:ya se han filtrado los precios... una 4070 carísima TDP de 300W pero... de rendimiento no hay nada confirmado no? Leí un rumor de que era como una RTX 3080ti? Por huevos tienen que bajar los precios de la serie 3000.

Fuente? No he encontrado nada sobre los precios


Bueno pone estimaciones...

RTX 4000 Lovelace Price Estimations.
RTX 4090 Ti - $2499
RTX 4090 - $1,799
RTX 4080 Ti - $1,399
RTX 4080 - $899
RTX 4070 - $679
RTX 4060 Ti - $529
RTX 4060 - $429

https://twitter.com/GraphicallyChal/sta ... EWq_Iz-jZA

Ojalá se den esos precios, pero va a ser que no [+risas]
Me apuesto el huevo izquierdo a que la 4080ti saldrá por 2000€ +-
¿Y la 4070Ti dónde anda?
FranciscoVG escribió:
No solo puede si no que ya lo a hecho, esta generacion en condiciones normales amd habria dado un duro golpe a nvidia, las arquitecturas no se miden por la potencia o por las ventas se miden de toda la vida por la eficiencia y en eso amd no solo esta a la altura si no que a llegado a superar a nvidia, esto es lo que hizo tambien a amd superar a intel y por lo que el M1 de apple es el mejor procesador de la actualidad, la eficiencia es lo que te hace ser competitivo y tener fácil escalabilidad

Es evidente que es dificil que amd supere a nvidia pero como se duerma en los laureles les va a ganar mucho terreno sobre todo ahora que incluso se estan poniendo las pilas en lo relacionado al software, tambien va a depender mucho del tema del stock y de los tratos que ambos tengan con TSMC, tambien se podria decir que amd es la menos interesada en esta guerra puesto que tiene un mercado mas diversificado pero serian tontos si pierden la oportunidad


AMD ha sacado muy buenas GPUs esta última generación pero para mí las GPU de Nvidia me parecen un mejor producto, menos eficiente si, pero para mí mejor. La 3080 en su día tenía un precio parecido a la 6800xt, en rasterizacion estaban muy igualadas pero en cuando había RT por medio la Nvidia de despegaba . Y todo esto con una clara ventaja en el nodo de fabricación ventaja que creo que esta vez no van a tener. No se , hubiera esperado que aprovecharán más ese nodo con mejor eficiencia para tener un mejor rendimiento...

A parte AMD llegó más tarde para variar y aún más tarde llegó la tecnología para hacerle frente al Dlss.
Luego en mi opinión me gusta mas el soporte de drivers de Nvidia y todo su software.

Obviamente es simplemente mi opinión y entiendo que haya gente que prefiera las GPU AMD.
Yuluga escribió:
SashaX escribió:
neofonta escribió:@yosu888

La serie 4000 será de transición, la buena será la 5000.


¿Por qué dices eso?

y mejor será la 6000 [hallow]

Ya estaría el resumen de siempre XD...



Yo también juego a 2k. En pc es que veo absurdo más en mi monitor, 27" ya me parece grande....imagino 32" 4k como me recomiendan y....
eric_14 escribió:Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.

Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.

Que no se puede usar el DLSS?
Si está en más de 100 juegos....

AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.

En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.

@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.

4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.

Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.

Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?

Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.

No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.

Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.
Mi configuración es un monitor 1080p/240 para shooters multijugador y una oled de 48 para jugar a 4k/60 fps las campañas.
Espero que la 3090 me dé muchos años gloriosos a 4k/60 aunque dentro de dos años tenga que bajar a medios los gráficos,no es un drama.
Yo estaba pensando en montarme un buen equipo, pero viendo que este año salen nuevos procesadores y gráficas no se si esperarme y comprar lo actual a menor precio o lo nuevo que salga.
:-|
hh1 escribió:
eric_14 escribió:Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.

Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.

Que no se puede usar el DLSS?
Si está en más de 100 juegos....

AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.

En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.

@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.

4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.

Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.

Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?

Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.

No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.

Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.


La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa

Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon

La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente
@hh1 por lo que he podido probar en mis pcs la versión 1.0 del dlss no era usable, a partir de la 2.0 sí, aunque también hay que dan fallos. Luego con la 2 tampoco hay muchos, a esto me refería.
Que todos los que vengan ahora y lo quieran incluir (quitando chapuzas de juegos tipo bf 2042) nos vamos a ver beneficiados y hará que la gráfica aguante bastante más, pero por mí hasta ahora me sigue decepcionando un poco por no poder utilizarlo más.
FranciscoVG escribió:
hh1 escribió:
eric_14 escribió:Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.

Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.

Que no se puede usar el DLSS?
Si está en más de 100 juegos....

AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.

En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.

@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.

4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.

Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.

Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?

Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.

No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.

Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.


La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa

Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon

La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente

Jugaba a 1,70m y te aseguro que me costaba ver las diferencias.

@eric_14
Cuantos más juegos lo lleven mejor , está claro.
eric_14 escribió:@hh1 por lo que he podido probar en mis pcs la versión 1.0 del dlss no era usable, a partir de la 2.0 sí, aunque también hay que dan fallos. Luego con la 2 tampoco hay muchos, a esto me refería.
Que todos los que vengan ahora y lo quieran incluir (quitando chapuzas de juegos tipo bf 2042) nos vamos a ver beneficiados y hará que la gráfica aguante bastante más, pero por mí hasta ahora me sigue decepcionando un poco por no poder utilizarlo más.

DLSS 1.0 hace tiempo que es historia.

De la 2.0 en adelante -que hay más, iban por 2.3 o así en las últimas actualizaciones para mejorar el ghosting- yo no he tenido problemas con DLSS, hay juegos donde está mejor implementado que otros pero en 1440p es para mí indistinguible en Quality en el 100%, y en la mayoría en Balanced se ve aún muy bien bien. En 4K es usable hasta el Performance.

Y no sé dónde lo echas en falta, sale ya con casi todos los Triple A, que es con los que es necesario. Que no lo tengan indies que los mueve una GTX 1050 psé. La clave es que en los juegos demandantes está ya casi siempre presente.
Prop Joe escribió:
eric_14 escribió:@hh1 por lo que he podido probar en mis pcs la versión 1.0 del dlss no era usable, a partir de la 2.0 sí, aunque también hay que dan fallos. Luego con la 2 tampoco hay muchos, a esto me refería.
Que todos los que vengan ahora y lo quieran incluir (quitando chapuzas de juegos tipo bf 2042) nos vamos a ver beneficiados y hará que la gráfica aguante bastante más, pero por mí hasta ahora me sigue decepcionando un poco por no poder utilizarlo más.

DLSS 1.0 hace tiempo que es historia.

De la 2.0 en adelante -que hay más, iban por 2.3 o así en las últimas actualizaciones para mejorar el ghosting- yo no he tenido problemas con DLSS, hay juegos donde está mejor implementado que otros pero en 1440p es para mí indistinguible en Quality en el 100%, y en la mayoría en Balanced se ve aún muy bien bien. En 4K es usable hasta el Performance.

Y no sé dónde lo echas en falta, sale ya con casi todos los Triple A, que es con los que es necesario. Que no lo tengan indies que los mueve una GTX 1050 psé. La clave es que en los juegos demandantes está ya casi siempre presente.

Excato....
hh1 escribió:
FranciscoVG escribió:
hh1 escribió:Que no se puede usar el DLSS?
Si está en más de 100 juegos....

AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.

En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.

@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.

4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.

Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.

Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?

Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.

No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.

Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.


La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa

Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon

La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente

Jugaba a 1,70m y te aseguro que me costaba ver las diferencias.

@eric_14
Cuantos más juegos lo lleven mejor , está claro.


Bueno claro por que lo estas comparando con un monitor de igual 28 pulgadas, yo solo te digo que esa valoracion que estas haciendo que dependiendo de las pulgadas es mas o menos necesaria la resolucion es absurda, no es lo mismo una tv que un monitor como tampoco es lo mismo un monitor que unas gafas de realidad virtual, las gafas de realidad virtual necesitan una densidad de pixeles altísima para no notar diferencias de resolución, y son pantallas enanas, tambien en un monitor es mas necesario mayor densidad por que generalmente lo tienes a menos distancia que una tv

Hay estudios donde la mayoria de la gente nota el salto a 4k en una pantalla de 20 pulgadas a una distancia de 50-60 cm (que es lo normal en un monitor), como tambien los hay que dicen que la mayoria de la gente no nota la diferencia entre 4k y full hd en una tv de 55 pulgadas si los pones a mas de 3 metros, todo depende de la distancia no se trata de que a mas resolución es mas necesaria
FranciscoVG escribió:
hh1 escribió:
FranciscoVG escribió:
La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa

Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon

La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente

Jugaba a 1,70m y te aseguro que me costaba ver las diferencias.

@eric_14
Cuantos más juegos lo lleven mejor , está claro.


Bueno claro por que lo estas comparando con un monitor de igual 28 pulgadas, yo solo te digo que esa valoracion que estas haciendo que dependiendo de las pulgadas es mas o menos necesaria la resolucion es absurda, no es lo mismo una tv que un monitor como tampoco es lo mismo un monitor que unas gafas de realidad virtual, las gafas de realidad virtual necesitan una densidad de pixeles altísima para no notar diferencias de resolución, y son pantallas enanas, tambien en un monitor es mas necesario mayor densidad por que generalmente lo tienes a menos distancia que una tv

Hay estudios donde la mayoria de la gente nota el salto a 4k en una pantalla de 20 pulgadas a una distancia de 50-60 cm (que es lo normal en un monitor), como tambien los hay que dicen que la mayoria de la gente no nota la diferencia entre 4k y full hd en una tv de 55 pulgadas si los pones a mas de 3 metros, todo depende de la distancia no se trata de que a mas resolución es mas necesaria

Yo puse dos juegos y chico...me acercaba a posta vomo3ndome la pantalla y me costaba la hostia notarll.
Si, algo en los rebordes y tal ,pero yo notaba y noto más de 1080p a 1440p que de 1440p a 4k.

Recuerdo que uno de los juegos era Shafow of the Tomn Raider...y que no ...que no notaba na.Poca cosa.
Que seguramente ,sii pongo misma imagen en dos pantallas con manas resoluciones ,lo noto más .Seguro.
Pero en la misma pantalla 4k ,cambiando desde el juego de 4K a 1440p y viceversa...Chico, se veía estupendo en manas resoluciones.
Igual es porque últimamente no veo nada interesante y tampoco compro juegos. Pero con los call of duty, lo pusieron no hace tanto y es mejor tener el dlss desactivado porque se emborrona la imagen. Pero que sí, en los que lo han implementado bien y he probado vale la pena, así que recuerde, Fortnite (aunque a este no juego, solo era por probar), cyberpunk y metro enhanced.

Por cierto ya ha pasado la charla de nvidia en la computex y no han anunciado nada, algo para servidores y creo que alardear de lo que ya está disponible.
yo si que lo noto de 1440p a 4k en la LG Oled G1 no es una diferencia abismal pero si se nota mas nítida la imagen

otra cosa es que compense jugar siempre a 4k por la perdida de rendimiento que supone , en estas tv's oled de LG con que te acerques un poco a la nativa ya se ve bien , estos días estoy jugando con una 1080 Ti al Far Cry 6 con el escalado del juego en calidad (equivale a 1440p) y se ve de cine , obviamente pierde un poco respecto a 4k nativo , y los juegos cada vez van a pedir mas requisitos así que la 4080 o 4080 ti me va a venir de lujo para aprovechar mejor la pantalla.

salu2
¿Qué os parece el rumor que indicaria que las 4060 consumen más de 220W? lo cual haria que tuviera un TDP mayor que la 3070.

Yo creo que es posible dado que de todas los demas modelos existen rumores de más alto consumo. Tambien pienso que si bien el consumo por rendimiento quizas sea muy bueno, estas graficas son ineficientes en terminos de gasto energetico.

De hecho creo que toda la industria del hardware informatico para PCs escritorio se esta saliendo de madre con unos consumos cada vez mayores y que todo se debe a los tiempos que tienen para mejorar las arquitecturas. Las CPUs salen cada año, las GPUs cada dos, entre uno y lo otro, seguramente no tengan poco más de un año para mejorar un diseño. Con esos margenes conseguir algo que tenga un gran rendimiento y un consumo aceptable me parece imposible, asi que por eso vemos cosas como esta.

Y a este ritmo tampoco creo que las serie 5000 vayan a ser mejor. El siguiente diseño volveran a reducir el tamaño y volveran a buscar los limites para subir el rendimiendo, pasando más de lo mismo.

Asi que el consumo no va a ser la tonica de los futuros procesadores de escritorio. Ideal para los tiempos que corren.
El problema, sea cierto o no, es que la manera más sencilla de aumentar el rendimiento es aumentar el consumo.
Si tuvieran la limitación de consumir lo mismo, los rendimientos de mejora entre generaciones no compensarían.
Así que mientras la gente siga comprando, o gobiernos no metan mano (y es muy dificil que se pueda legislar sobre esto, por la cantidad de usos que tienen los ordenadores) los fabricantes seguirán con esta política de aumentar rendimiento mediante el recurso de aumentar tanto eficacia como consumo, pareciendo que así aumentan más las prestaciones entre generaciones.
Evidentemente todo tiene un límite y en algún momento se dedicarán a reducir consumo o como mínimo mantener, pero no es a lo que se va, si ya se anuncian nuevas fuentes de alimentación.
Y es que para la mayoría de gente es sencillo ver una ganancia del 15% o del 50% en el rendimiento de su gráfica al cambiar, pero es dificil medir el aumento de consumo de electricidad.
Tal vez los muy entusiastas y sobre todo los mineros, pero un gamer o usuario casero... Apechugará con lo que venga mientras la gráfica entre en su capacidad de compra.
Nomada_Firefox escribió:¿Qué os parece el rumor que indicaria que las 4060 consumen más de 220W? lo cual haria que tuviera un TDP mayor que la 3070.

Yo creo que es posible dado que de todas los demas modelos existen rumores de más alto consumo. Tambien pienso que si bien el consumo por rendimiento quizas sea muy bueno, estas graficas son ineficientes en terminos de gasto energetico.

De hecho creo que toda la industria del hardware informatico para PCs escritorio se esta saliendo de madre con unos consumos cada vez mayores y que todo se debe a los tiempos que tienen para mejorar las arquitecturas. Las CPUs salen cada año, las GPUs cada dos, entre uno y lo otro, seguramente no tengan poco más de un año para mejorar un diseño. Con esos margenes conseguir algo que tenga un gran rendimiento y un consumo aceptable me parece imposible, asi que por eso vemos cosas como esta.

Y a este ritmo tampoco creo que las serie 5000 vayan a ser mejor. El siguiente diseño volveran a reducir el tamaño y volveran a buscar los limites para subir el rendimiendo, pasando más de lo mismo.

Asi que el consumo no va a ser la tonica de los futuros procesadores de escritorio. Ideal para los tiempos que corren.

Ese mismo rumor también dice que rendiría como una 3080, si eso es así yo no veo mal el rendimiento/consumo.
adriano_99 escribió:Ese mismo rumor también dice que rendiría como una 3080, si eso es así yo no veo mal el rendimiento/consumo.

Rendimiento consumo puede ser. Pero consumo a secas ya es malo en las RTX 30 y va a ser peor en las 40.

Y el rendimiento me parece lo logico sino sacan una Ti y una normal. La 2060 era parecida a una 1080, dependia más del juego. Las 3060 no lo fueron tanto pero tambien tienen el plus de más memoria que la Ti que es posible que le de más longevidad, a parte de otros usos que usan memoria en ciertas aplicaciones.

Y que no lean ese rumor los de las tiendas porque me puedo imaginar las 4060 vendiendose a precio de 3080. [fiu]
eric_14 escribió:Yo sigo jugando en 2k [+risas] , no me planteo ni el 4k. Veremos a ver qué sale.

Otro por aquí a 2K con una 3080 recién comprada. Ni me planteo jugar a 4K. Solo juego en la LG CX con la PS5. Para mi el PC es 2K @144 y teclado y ratón.


Yo creo que la serie 3000 es lo mejor si la encuentras a buen precio. Dudo que merezca la pena el cambio a la serie 4000.
Pues ya se oye más el posible retraso de las 4000....
También le está pasando a AMD con las 7000.
hh1 escribió:Pues ya se oye más el posible retraso de las 4000....
También le está pasando a AMD con las 7000.

Tampoco es que hubiera fechas confirmadas y con el panorama mundial que prisa tienen. Si dentro de un año estamos todos aqui o enterrados debajo de los escombros, aplaudamos, creo que nadie lo puede garantizar. O puede que nos estemos pegando en las tiendas por el pan porque no haya trigo.

@Pegcaero de barrio Como siempre cada usuario es diferente. Si yo pudiera comprar una 4060 con el rendimiento de una 3080 a un precio más economico y sin tener que cambiar mi fuente de alimentación, pues seria muy atractivo el cambio.

Y es muy posible que la serie 4000 sea más economica que ahora la 3000. Es la eterna discusión pero es muy posible que los modelos de gama alta nunca bajen de precio a sus valores de salida y aunque con más consumo, ofreciendo más rendimiento, una 4080 seria mejor.

Lo que si es cierto, lo unico en lo que se puede generalizar, es que el software no han avanzado nada de nada para aprovechar todo esto.
eric_14 escribió:Yo no entendería esos precios, qué juego hay que no vaya sobrado con una 3080/3070 (quitando alguno con mala optimización)? Y no sé si hay alguno anunciado para este año que pinte que vaya a necesitar una 4080. (Igual estoy desactualizado pero creo que no hay mucha cosa).

Con esos precios darían vida a las 3070/3080/4070 pero subir más no sé si le va a compensar a la gente. Y los que ya tengan alguna 30x0 quizás prefieran esperar un tiempo o a otra generación.

En mi caso no creo que entre, igual miraría de cambiar otrasa cosas, como la CPU si hay algún buen salto respecto a las actuales.


Échale un vistazo con 4k Y Ray tracing y unreal 5. No hay gráfica que pueda.
https://youtu.be/kYjbsbfEdTc
Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080

Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares. [sonrisa]

Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080

Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares. [sonrisa]

Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.


Dudo que una teorica 4060 rinda como una 3080. Si es que os creeis todos los clickbaits, tanto los de consumos como los de rendimientos.
El mundo de la informatica es asi, sabes que lo que compras, dentro de un tiempo, valdra mucho menos. Pero veo peor haber pagado 650€ por una 3060 cuando rinde la mitad que una 3080. Segun tu una 3080 valdra 300€, entonces una 3060 valdra que, 100€??? Si es que…
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080

Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares. [sonrisa]

Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.


Lo que se ha dicho es que la 4060 consume watios como una 3080... el resto de momento, es especulación.

Pues yo al final nada, lo del retraso de la serie 4000 ya sale cada vez en mas sitios asiq paso de estarme comiendo los mocos,, como habia vendido la 3080 10 gigas bien, muy bien, me he comprado una 3080ti founders tb muy bien de precio.

La pasare por agua, que queda este modelo super compacto, y a tirar millas, porq esto empieza a no tener buena pinta, ya que hoy he leido que se comenta, especula etc que las amd tb se retrasan ...
Yo estoy pendiente de las 4000 para cambiar todo el equipo, pero mira, un retraso en el capricho,le viene bien a mí bolsillo. A seguir estrujando la 1080Ti con el i7 4790K, que el combo me sigue dando para jugar a 2k/60 FPS. Como bien decís algunos, la cosa está muy paradita en cuanto a avances en el software.
neox3 escribió:
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080

Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares. [sonrisa]

Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.


Lo que se ha dicho es que la 4060 consume watios como una 3080... el resto de momento, es especulación.

Pues yo al final nada, lo del retraso de la serie 4000 ya sale cada vez en mas sitios asiq paso de estarme comiendo los mocos,, como habia vendido la 3080 10 gigas bien, muy bien, me he comprado una 3080ti founders tb muy bien de precio.

La pasare por agua, que queda este modelo super compacto, y a tirar millas, porq esto empieza a no tener buena pinta, ya que hoy he leido que se comenta, especula etc que las amd tb se retrasan ...

Bueno, pura especulación es todo, la noticia lo dice, rumor bien claramente. Puede que se cumpla, puede que no.

@OK Computer Pues sí, tu mismo lo puedes ver, salvo juegos que salen super mal depurados, todo lo demas tiene un aprovechamiento del hardware malisimo. Mucho seguramente se debe a ser ports de consola a PC, juegos que todavia fueron hechos para funcionar en las consolas anteriores y todo eso provoca que igual tarden 4 años en implementar el hardware actual, eso si lo hacen, que es lo que se tarda en hacer un motor y francamente muchos juegos tardan ese tiempo en hacerse, salvo los que usan motores ya existentes.
Nomada_Firefox escribió:
hh1 escribió:Pues ya se oye más el posible retraso de las 4000....
También le está pasando a AMD con las 7000.

Tampoco es que hubiera fechas confirmadas y con el panorama mundial que prisa tienen. Si dentro de un año estamos todos aqui o enterrados debajo de los escombros, aplaudamos, creo que nadie lo puede garantizar. O puede que nos estemos pegando en las tiendas por el pan porque no haya trigo.

@Pegcaero de barrio Como siempre cada usuario es diferente. Si yo pudiera comprar una 4060 con el rendimiento de una 3080 a un precio más economico y sin tener que cambiar mi fuente de alimentación, pues seria muy atractivo el cambio.

Y es muy posible que la serie 4000 sea más economica que ahora la 3000. Es la eterna discusión pero es muy posible que los modelos de gama alta nunca bajen de precio a sus valores de salida y aunque con más consumo, ofreciendo más rendimiento, una 4080 seria mejor.

Lo que si es cierto, lo unico en lo que se puede generalizar, es que el software no han avanzado nada de nada para aprovechar todo esto.

No había fecha,pero todos los lanzamientos de gamas nuevas estaban siendo a partir Septiembre las últimas as veces.
hh1 escribió:No había fecha,pero todos los lanzamientos de gamas nuevas estaban siendo a partir Septiembre las últimas as veces.

Asi aciertas seguro. [sonrisa] Pero podria ser para 2023. No siempre usaron esas fechas, de hecho yo diria que son fechas raras de estos ultimos tiempos raros porque otras veces era más a primeros y mediados de año donde en septiembre casi teniamos todas las gamas completadas. Yo no me acuerdo de todos los lanzamientos, ni voy a mirar la wikipedia pero antes de las RTX 30, no recordaba nada igual siendo a finales del año y con tanto tiempo entre algunos lanzamientos de gamas.
Nomada_Firefox escribió:¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares. [sonrisa]

Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.


WTF!? Ojala que saquen una 4080 que escupa 200% mas de fps que mi 3080. ¿Que la 3080 se devaluara? Es una obviedad. Yo quiero que haya evolucion y no tener el pensamiento en mi opinion infantil de "que no saquen nada nuevo por que quiero seguir teniendo la mejor GPU"
De hecho no recuerdo una gpu que se haya devaluado menos que la 3080 (bueno y todas las de su epoca) la cual esta cerca de los 2 años y a dia de hoy se puede vender facil casi al precio de salida. Primero por que hoy dia valen mas que cuando salieron y segundo por que no han sacado ni tan siquiera versiones Super.

Yo viendo el panorama voy a esperar, si mas adelante puedo hacer una venta buena para pillar la 4080 bien, si no seguire con la 3080. Y me lo estoy planteando por la oportunidad que me da el mercado, si no ni de coña por que la 3080 esta lejos de quedarse corta con los juegos de hoy dia.
Si dentro de otros 2 años la tengo que vender por 250€ seria un triunfo (me costo 750€) ¿500 miseros euros (con perdon) por 4 años de disfrute? Yo lo firmo.
JaviGabber escribió:WTF!? Ojala que saquen una 4080 que escupa 200% mas de fps que mi 3080. ¿Que la 3080 se devaluara? Es una obviedad. Yo quiero que haya evolucion y no tener el pensamiento en mi opinion infantil de "que no saquen nada nuevo por que quiero seguir teniendo la mejor GPU"

Yo tambien prefiero que suceda eso. El que no lo pueda aceptar, simplemente deberia dejar de leer noticias y publicar en el foro. [sonrisa]

De hecho no recuerdo una gpu que se haya devaluado menos que la 3080 (bueno y todas las de su epoca) la cual esta cerca de los 2 años y a dia de hoy se puede vender facil casi al precio de salida. Primero por que hoy dia valen mas que cuando salieron y segundo por que no han sacado ni tan siquiera versiones Super.

Eso que comentas no es exactamente que no se haya devaluado por lo que va a suceder cuando salgan las 4000, que sean superadas en rendimiento ampliamente porque su precio de venta esta alto por otros factores. Ese tipo de devaluación no muestra lo que sucedera cuando otras cosas no afecten.

Claro que tambien puede suceder que los precios de antes no vuelvan jamas. Pero yo he notado que con los precios de la comida altos, de algunas cosas, no todas, cosas esenciales como el aceite, las cosas tecnologicas han bajado de precio, lo que no es esencial, no esta tan caro.

Y eso de que no sacaron Super........que más dara llamarlas Super que Ti. Lo que si que no hicieron es sacar las Ti en unos tiempos posteriores de las normales. Asi que sacaron la 3060Ti seguramente porque la primera 3060 que hicieron les salio demasiado potente para su gusto.

Si dentro de otros 2 años la tengo que vender por 250€ seria un triunfo (me costo 750€) ¿500 miseros euros (con perdon) por 4 años de disfrute? Yo lo firmo.

Yo opinaria igual. Esos 4 años pudiste igual ahorrar comodamente para otra nueva sin tener que quedarte sin comer jamon durante un año. [sonrisa]

Mi comentario de "corran a venderlo" iba más dirigido a aquellos que afirman que hay que venderlas para no perder dinero en la compra. Pero algo que usas no te hace perder dinero, aunque luego lo revendas por menos dinero.
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080

Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares. [sonrisa]

Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.

si, van a hacer magia y los componentes que no han tenido para la serie 3k los van a meter todos en la 4k y crear un stock del copon con el fin de tirar su gen pasada de precio [qmparto]. Se te ve un poco dolido por pagar 650 plomos por la 3060
sadistics escribió:si, van a hacer magia y los componentes que no han tenido para la serie 3k los van a meter todos en la 4k y crear un stock del copon con el fin de tirar su gen pasada de precio [qmparto]. Se te ve un poco dolido por pagar 650 plomos por la 3060

¿No sera que el dolido eres tu por que yo lo gaste y no me importo nada? Quizas te diste por aludido por lo que dije y soltaste esa panoyada. [facepalm]

Y seguramente te afecto tambien leyendo tu comentario lo que dijo JaviGabber acerca de la infantilada de desear que nunca mejoren de rendimiento. [fiu]

Yo lo unico que creo a ciencia cierta, es que va a haber más stock porque el fabricante de las obleas no sera Samsung, sino TSMC. Pero no creo que llenen el mercado de graficas como para que el precio caiga, simplemente mantenerlo con stock, cosa que no ha sucedido nunca con la serie 3000. Que las tiendas puedan vender un par de graficas o cinco y que siga habiendo stock. Eso es la diferencia que yo creo se va a ver.
2891 respuestas
13, 4, 5, 6, 758