Nvidia Ada Lovelace RTX4000

silenius escribió:
Necrofero escribió:
KailKatarn escribió:
En tus cuentas no estás metiendo las 3060 de Laptop. Lo que deja claro la gráfica de Steam es que Nvidia vive de la gama 50/60 dentro del mundo PC-Gamer. O lo que es lo mismo, 1060, 1650, 2060, 1050Ti, 3060, 1050, 1660Ti, 1660 super, 1660. Sólo hay que ver los primeros puestos:


Imagen



Y si tenemos en cuenta que la gente gamer de Nvidia tiene suficiente con una GTX1060, para ellos saltar a una RTX3050 ya es un buen salto, así que ya no hablemos de una posible RTX4050, donde directamente ya se creerán que se han comprado un misil supersónico.

Al verdadero mundo gamer de PC se la sudan los 2000€ de las top, porque nunca las han comprado y no las van a comprar ahora. Antes se te compran una RTX3050 de segunda mano por 150€ y a seguir dándole. Y dentro de otros 6 años se te comprarán la RTX5050 de 4ª zarpa a otros 150€ y dale que te pego.


El problema es que pasamos de 300€ a, lo veremos, 4050 a? 450-500?

A 150€ no va a haber ninguna, pero ninguna gama por baja que sea.

y recordemos que la GTX150ti estuvo por unos 150€ e incluso me suena de haberla visto mas barata


Entiendo que refieres a 1050ti, pero aquello ya paso, eso no volverá nunca. En todo caso, lo único que como consumidores nos queda es hacer presión, no comprando, para que mantengan una gama media de xx60 sobre 300-350€. Pero claro, no comprando ni amd ni nvidia.

Y creo, que esta generación es idónea para hacer algo así. Tenemos una potencia gráfica más ue suficiente para jugar a todo. Evidentemente a resoluciones 1080 y 2k, que a fin de cuentas siguen siendo la mayoría.
Necrofero escribió:
Entiendo que refieres a 1050ti, pero aquello ya paso, eso no volverá nunca. En todo caso, lo único que como consumidores nos queda es hacer presión, no comprando, para que mantengan una gama media de xx60 sobre 300-350€. Pero claro, no comprando ni amd ni nvidia.

Y creo, que esta generación es idónea para hacer algo así. Tenemos una potencia gráfica más ue suficiente para jugar a todo. Evidentemente a resoluciones 1080 y 2k, que a fin de cuentas siguen siendo la mayoría.

si, a la 1050ti, que me he dejado un 0 por poner
bassa escribió:
KailKatarn escribió:
zero2006xl escribió:Por partes, como dices:

- No se trata de lo que esté de moda o no esté de moda. En 2008 comprabas una HD 3850 por 130-140 con la que jugabas a calidad de PS5 y de 360. No te hacía falta irte a por la 8800GT.

- Una GTX 750ti en 2015 estaba a la altura de PS4. Aquí tienes la documentación:

https://www.youtube.com/watch?v=JxUPJdcChzE (esto con una CPU de gama bajísima)
https://www.youtube.com/watch?v=gGf4SVWEw2g (la 750 ti OC, que te la podías comprar por 130 euros, rinde todavía más que PS4)

Y cuando te demuestran que te equivocas, dices que la 750ti no ha valido para toda la vida de PS4 para TODOS los juegos. Para todos no, pero sí para la mayoría. Pero aquí la comparativa se está haciendo en una fecha concreta que es dos años después del lanzamiento de PS4 con el momento actual, dos años después del lanzamiento de PS5. ¿Quién te dice que al final de la generación vas a poder jugar con calidad de PS5 con una 3060ti? No lo sabes, por eso no puedes comparar ese dato.



Cuando me equivoco dice, y no cogen ni toda la cita de lo que digo para intentar demostrar noseque. A ver, hablando en plata, la GTX 750Ti ha servido de tan poco que ni aparece en las listas de Steam:

Imagen

Antes te encuentras una integrada de Intel que ver ni una sola GTX 750Ti que haya aguantado toda la generación en Steam. Pero no, ahora resulta que fue la salvadora, la compró todo el mundo y ahí están sosteniéndola de lo bien y duro que ha luchado por 130/150€. En fin ...

En serio, ya me he cansado de esta discusión sin sentido. Eso sí, no me iré sin volverme a repetir para que me citen con gusto: !NI DE COÑA UNA GTX 750Ti HA ESTADO A LA ALTURA DE LA PS4 DURANTE TODA LA GENERACIÓN!, PERO NI EN SUS REPUTÍSIMOS SUEÑOS. Y lo dejo ahí en mayúsculas y negrita antes de irme.

Buenas tardes ;) .

PD: Entiendo que duele tener que aceptar que ha sido la GTX970/GTX1060, rompe toda vuestra supuesta argumentación.


Cito textualmente:
KailKatarn: La GTX 750Ti ha servido de tan poco que ni aparece en las listas de Steam

Disculpe la intromisión, pero siento decirle que la 750ti si aparece en steam, solo tenía que hacer un poco más de scroll, que por cierto, roza casi el 1%, ocupando el puesto nº33, por encima de:

Imagen

Tambien añadir el pico más alto % que alcanzó la 750ti fué en diciembre del 2017, pero no encuentro imagen xd aunque esto da una idea:

Imagen

Saludos


Lleva todo el día llevándose zascas. Pues otro más... ha venido con ganas de recibir hoy.
En la lista esa faltamos los del parche en el ojo cawento
suemrri escribió:Ahora mismo no sabemos nada del rendimiento de las graficas, y se esta diciendo de todo por todas partes.


Eso de no sabemos nada dilo por ti, con las especificaciones te puedes hacer una idea bastante aprox del rendimiento, y tienes las especificaciones completas de todas
(mensaje borrado)
FranciscoVG escribió:
suemrri escribió:Ahora mismo no sabemos nada del rendimiento de las graficas, y se esta diciendo de todo por todas partes.


Eso de no sabemos nada dilo por ti, con las especificaciones te puedes hacer una idea bastante aprox del rendimiento, y tienes las especificaciones completas de todas


Y que podemos esperar de por ejemplo una 4080 de 12 gigas? Mas que una 3080ti o menos? O mas que una 3090?
FranciscoVG escribió:
suemrri escribió:Ahora mismo no sabemos nada del rendimiento de las graficas, y se esta diciendo de todo por todas partes.


Eso de no sabemos nada dilo por ti, con las especificaciones te puedes hacer una idea bastante aprox del rendimiento, y tienes las especificaciones completas de todas


Hay grafica de rendimiento al menos de tres juegos, RE8, AC y The división, serian juegos de rasterizacion pura, sin dlss.

Imagen


Por ahi he eleido, que Nvidia dicho que se acabo el progresos tecnológico para ellos y que cada generación sera mas cara con mayores consumos.
Necrofero escribió:... En todo caso, lo único que como consumidores nos queda es hacer presión, no comprando, para que mantengan una gama media de xx60 sobre 300-350€. Pero claro, no comprando ni amd ni nvidia.

Y creo, que esta generación es idónea para hacer algo así. Tenemos una potencia gráfica más ue suficiente para jugar a todo. Evidentemente a resoluciones 1080 y 2k, que a fin de cuentas siguen siendo la mayoría.

Se puede hacer, hay juegos de ahora y anteriores para aburrir. Es que hay tantos juegos ya, que en la vida vamos a poder jugarlos todos.
PcComponentes o coolmod suelen tener PCS montados el día de lanzamiento con las nuevas graficas???o solo venden la gráfica sola?habrá stock de lanzamiento?
Gracias!
BladeRunner escribió:
Necrofero escribió:... En todo caso, lo único que como consumidores nos queda es hacer presión, no comprando, para que mantengan una gama media de xx60 sobre 300-350€. Pero claro, no comprando ni amd ni nvidia.

Y creo, que esta generación es idónea para hacer algo así. Tenemos una potencia gráfica más ue suficiente para jugar a todo. Evidentemente a resoluciones 1080 y 2k, que a fin de cuentas siguen siendo la mayoría.

Se puede hacer, hay juegos de ahora y anteriores para aburrir. Es que hay tantos juegos ya, que en la vida vamos a poder jugarlos todos.


Yo entre 1.5 en rasterizado 1.8..... respecto a una 3090ti lo veo bien.

Estamos hablando de entre un 50 y un 80 % más de rendimiento respecto a la 3090ti

Yo por ejemplo que doy el salto desde una 3080ti puede ser fácil el 100% de rendimiento más, para mí está justificado el cambio desde luego!!

Saludos
El tema es que se pasa en 1440p de 30 de la 3090ti a 60fps de la 4090 sin trucos, pero en 4k seguimos estando en 30fps para triples A como el cyberpunk
bassa escribió:El tema es que se pasa en 1440p de 30 de la 3090ti a 60fps de la 4090 sin trucos, pero en 4k seguimos estando en 30fps para triples A como el cyberpunk

Eso no se lo cree nadie...nvidia trastoca como quiere los resultados

Yo tengo todo al maximo en 2k, 47 fps en cyberpunk con una 3080ti por agua, ejecutando el mismo benchmark.

Como una 3090ti va tener 30??

@chrispro, si nos basamos en el grafico servido por nvidia, yo es que veo un aumento solo de x0.5 en juegos como ac valhalla o resident evil village... Me parece muy poco
suemrri escribió:
FranciscoVG escribió:
suemrri escribió:Ahora mismo no sabemos nada del rendimiento de las graficas, y se esta diciendo de todo por todas partes.


Eso de no sabemos nada dilo por ti, con las especificaciones te puedes hacer una idea bastante aprox del rendimiento, y tienes las especificaciones completas de todas


Y que podemos esperar de por ejemplo una 4080 de 12 gigas? Mas que una 3080ti o menos? O mas que una 3090?


Con las especificaciones puedes sacar el rendimiento teorico que no es exacto pero si bastante aprox, la 4080 de 12 gb tiene 40Tf que es exactamente lo mismo que tiene la 3090ti, en unos juegos ira mejor la 4080 en otros la 3090ti pero estarán bastante parejas, donde si ira mejor la 4080 es con raytracing o dlss
FranciscoVG escribió:
suemrri escribió:
FranciscoVG escribió:
Eso de no sabemos nada dilo por ti, con las especificaciones te puedes hacer una idea bastante aprox del rendimiento, y tienes las especificaciones completas de todas


Y que podemos esperar de por ejemplo una 4080 de 12 gigas? Mas que una 3080ti o menos? O mas que una 3090?


Con las especificaciones puedes sacar el rendimiento teorico que no es exacto pero si bastante aprox, la 4080 de 12 gb tiene 40Tf que es exactamente lo mismo que tiene la 3090ti, en unos juegos ira mejor la 4080 en otros la 3090ti pero estarán bastante parejas, donde si ira mejor la 4080 es con raytracing o dlss


Ya dijo la propia nvidia, que estaba por debajo en varios juegos de una 3080ti si no se usaba dlss3...
neox3 escribió:
bassa escribió:El tema es que se pasa en 1440p de 30 de la 3090ti a 60fps de la 4090 sin trucos, pero en 4k seguimos estando en 30fps para triples A como el cyberpunk

Eso no se lo cree nadie...nvidia trastoca como quiere los resultados

Yo tengo todo al maximo en 2k, 47 fps en cyberpunk con una 3080ti por agua, ejecutando el mismo benchmark.

Como una 3090ti va tener 30??

@chrispro, si nos basamos en el grafico servido por nvidia, yo es que veo un aumento solo de x0.5 en juegos como ac valhalla o resident evil village... Me parece muy poco



Los datos que pone wccftech son estos

Cyberpunk 2077 Ultra Quality + Psycho RT (Native 1440p):

MSI RTX 3090 TI SUPRIM X (Stock Native 1440p) - 37 FPS / 455W Power / ~75C
NVIDIA RTX 4090 FE (Stock Native 1440p) - 60 FPS / 461W Power / ~55C
RTX 4090 vs RTX 3090 Ti = +62% Faster

Y con DLSS

Cyberpunk 2077 Ultra Quality + Psycho RT (DLSS 1440p):

MSI RTX 3090 Ti SUPRIM X (DLSS 2 1440p) - 61 FPS / 409W Power / 74C
NVIDIA RTX 4090 FE (DLSS 3 1440p) - 170 FPS / 348W Power / ~50C
RTX 4090 vs RTX 3090 Ti = +178% Faster


https://wccftech.com/nvidia-geforce-rtx ... 5-percent/
bassa escribió:
neox3 escribió:
bassa escribió:El tema es que se pasa en 1440p de 30 de la 3090ti a 60fps de la 4090 sin trucos, pero en 4k seguimos estando en 30fps para triples A como el cyberpunk

Eso no se lo cree nadie...nvidia trastoca como quiere los resultados

Yo tengo todo al maximo en 2k, 47 fps en cyberpunk con una 3080ti por agua, ejecutando el mismo benchmark.

Como una 3090ti va tener 30??

@chrispro, si nos basamos en el grafico servido por nvidia, yo es que veo un aumento solo de x0.5 en juegos como ac valhalla o resident evil village... Me parece muy poco



Los datos que pone wccftech son estos

Cyberpunk 2077 Ultra Quality + Psycho RT (Native 1440p):

MSI RTX 3090 TI SUPRIM X (Stock Native 1440p) - 37 FPS / 455W Power / ~75C
NVIDIA RTX 4090 FE (Stock Native 1440p) - 60 FPS / 461W Power / ~55C
RTX 4090 vs RTX 3090 Ti = +62% Faster

Y con DLSS

Cyberpunk 2077 Ultra Quality + Psycho RT (DLSS 1440p):

MSI RTX 3090 Ti SUPRIM X (DLSS 2 1440p) - 61 FPS / 409W Power / 74C
NVIDIA RTX 4090 FE (DLSS 3 1440p) - 170 FPS / 348W Power / ~50C
RTX 4090 vs RTX 3090 Ti = +178% Faster


https://wccftech.com/nvidia-geforce-rtx ... 5-percent/


Pero si yo con una mierda de 3080 12gb saco mejores valores que los que pones ahi con la 3090ti, no puede ser...
neox3 escribió:
FranciscoVG escribió:
suemrri escribió:
Y que podemos esperar de por ejemplo una 4080 de 12 gigas? Mas que una 3080ti o menos? O mas que una 3090?


Con las especificaciones puedes sacar el rendimiento teorico que no es exacto pero si bastante aprox, la 4080 de 12 gb tiene 40Tf que es exactamente lo mismo que tiene la 3090ti, en unos juegos ira mejor la 4080 en otros la 3090ti pero estarán bastante parejas, donde si ira mejor la 4080 es con raytracing o dlss


Ya dijo la propia nvidia, que estaba por debajo en varios juegos de una 3080ti si no se usaba dlss3...


Pero de media debería de ser mejor que la 3080ti, tambien es verdad que todas esas tienen un rendimiento similar ya que a partir de la 3080 todas usan el mismo chip, la 3080ti no esta muy lejos de la 3090ti

Teniendo una 3080ti es absurdo comprarse la 4080, es que incluso teniendo una 3080 normal también
HaGeK escribió:
bassa escribió:
neox3 escribió:Eso no se lo cree nadie...nvidia trastoca como quiere los resultados

Yo tengo todo al maximo en 2k, 47 fps en cyberpunk con una 3080ti por agua, ejecutando el mismo benchmark.

Como una 3090ti va tener 30??

@chrispro, si nos basamos en el grafico servido por nvidia, yo es que veo un aumento solo de x0.5 en juegos como ac valhalla o resident evil village... Me parece muy poco



Los datos que pone wccftech son estos

Cyberpunk 2077 Ultra Quality + Psycho RT (Native 1440p):

MSI RTX 3090 TI SUPRIM X (Stock Native 1440p) - 37 FPS / 455W Power / ~75C
NVIDIA RTX 4090 FE (Stock Native 1440p) - 60 FPS / 461W Power / ~55C
RTX 4090 vs RTX 3090 Ti = +62% Faster

Y con DLSS

Cyberpunk 2077 Ultra Quality + Psycho RT (DLSS 1440p):

MSI RTX 3090 Ti SUPRIM X (DLSS 2 1440p) - 61 FPS / 409W Power / 74C
NVIDIA RTX 4090 FE (DLSS 3 1440p) - 170 FPS / 348W Power / ~50C
RTX 4090 vs RTX 3090 Ti = +178% Faster


https://wccftech.com/nvidia-geforce-rtx ... 5-percent/


Pero si yo con una mierda de 3080 12gb saco mejores valores que los que pones ahi con la 3090ti, no puede ser...


Son sus pruebas, igual han bajado los numeros de la 3090ti en stock para que la 4090 parezca mejor que se yo xD
Quitando la 4090 que es una bestia con el doble de chips que la 3090, las demas son un refrito con un plus de software, anda y que les den...
pero las pruebas del RT de Cyberpunk 2077 que está haciendo Nvidia con las 4090 y 3090 Ti es con el nuevo modo RT denominado RT overdrive más pesado de procesar... , a ese modo de RT solo tiene acceso CDprojekt red y Nvidia de momento hasta que se actualice Cyberpunk 2077 el 12 de octubre o más adelante.

https://gagadget.com/es/169109-cd-project-red-ha-anunciado-una-nueva-actualizacion-para-el-modo-overdrive-de-cyberpunk-2077-el-juego-sera-compatible-con/
salu2.
Otra cosa que le pasa a la 4080 de 12gb es que en eficiencia va a ser la peor de las 3, casi 300w para ser la mitad de potente que una 4090 de 450w

Seguramente venga a una frecuencia mayor que las otras dos
NanoSC escribió:PcComponentes o coolmod suelen tener PCS montados el día de lanzamiento con las nuevas graficas???o solo venden la gráfica sola?habrá stock de lanzamiento?
Gracias!

Quien sabe que stock habra y no es normal tener equipos con ello premontado pero puedes usar el configurador de la tienda y pagar por armarlo.
https://www.youtube.com/watch?v=iBYIwtOt8cg

Esta generación de Zotac me parece la más bonita de todas, dentro del ladrillaco que van a ser de forma general.
HaGeK escribió:Quitando la 4090 que es una bestia con el doble de chips que la 3090, las demas son un refrito con un plus de software, anda y que les den...


Algo tal que así pensé yo. Y hasta me atrevería a decir que en tema hardware va a ser así en adelante. Pequeños incrementos cada serie pero apoyados por software.
¿Por que pienso así? Pues porque el silicio ya se va quedando sin nm. Y no se ve sustituto en corto, simplemente por eso es la idea que me ronda. Si hubiera mucho margen con el silicio seguirían con la ley de Moore. Pero el silicio ya no va a dar mucho más tiempo al ritmo de sacar generación cada dos años.
Digamos que siguen bajando nm cada generación, eso es una década, y pongo muy en duda, muchísimo, que en una década saquen un sustituto factible y con proyección de décadas como paso con este.

Yo diría que debemos de acostumbrarnos a pocos avances en hardware y si muchos siendo apoyado por software.
FranciscoVG escribió:Otra cosa que le pasa a la 4080 de 12gb es que en eficiencia va a ser la peor de las 3, casi 300w para ser la mitad de potente que una 4090 de 450w

Seguramente venga a una frecuencia mayor que las otras dos

Iguales, solo 100mhz mas la de 12gb
Pues si estamos hablando de ese rendimiento, que es el mismo que Nvidia ha dicho y los leakers de twitter, me parece una putada lo que ha hecho nvidia, pero con menos consumo, temperatura y vamos a decir paridad de precio(aunque a dia de hoy las 3090TI buenas rondan los 2000 pavos) a mi me parece mejor negocio comprarme una 4080 que una 3090 TI.

Claro el que tiene una 3080 o no juega a 4k pues mira se puede dar el lujo de esperar y no pasar por el aro.
@Necrofero

Y tambien creo que es porque no necesitamos tantisimos Teraflops como nos quieren vender.

Si con una PS4 ya flipas con los graficos en juegos bien programados... Y luego los sacan para PC y juegas a 120fps en 2k como en el spiderman, horizon zero dawn, god of war.. xD

Yo creo que se acabo la era del que la tiene mas larga. Y AMD ha sido la que ha dado el puñetazo en la mesa mejorando sus tarjetas por soft con el FSR, driver, etc...

Lo que pasa es que Nvidia quiere vender sus graficas mejoradas por soft como si fueran mas potentes y realmente dudo que sea tan apreciable como dicen... salvo con las 4090 que es el doble de grande por su configuracion de chips.
suemrri escribió:Pues si estamos hablando de ese rendimiento, que es el mismo que Nvidia ha dicho y los leakers de twitter, me parece una putada lo que ha hecho nvidia, pero con menos consumo, temperatura y vamos a decir paridad de precio(aunque a dia de hoy las 3090TI buenas rondan los 2000 pavos) a mi me parece mejor negocio comprarme una 4080 que una 3090 TI.

Claro el que tiene una 3080 o no juega a 4k pues mira se puede dar el lujo de esperar y no pasar por el aro.


Hasta que se agoten las 3000, se vea que en rasterizado son peor, alguien adapte dlss 3.0 para funcionar en las 3000, y veas la cara que se te queda con tus 12/16gb cuando podrias tener 24 de la 3090ti, no se yo
KailKatarn escribió:https://www.youtube.com/watch?v=iBYIwtOt8cg

Esta generación de Zotac me parece la más bonita de todas, dentro del ladrillaco que van a ser de forma general.

Que cosa más bonita de vídeo xikillo!!!
silenius escribió:...


Imagen


A parte de los 30 ciclos de vida útil que se estima lo más grave de todo es lo que comentan de que por doblar el cable para su colocación, ya puedes reducir radicalmente esos ciclos de vida. Usar un adaptador me parece un grave error en bichos que pueden consumir 500W o más.

Además se estima que si ha aparecido el problema, en 2:30h aprox de carga, ya puede comenzar a quemarse. No suena nada bien. Y ya veremos las fuentes con tomas originales, porque sigue siendo cierto que los conectores son extremadamente finos.

No me acaba de convencer para nada este nuevo conector PCI-E 5.0.
KailKatarn escribió:Imagen


A parte de los 30 ciclos de vida útil que se estima lo más grave de todo es lo que comentan de que por doblar el cable para su colocación, ya puedes reducir radicalmente esos ciclos de vida. Usar un adaptador me parece un grave error en bichos que pueden consumir 500W o más.

Además se estima que si ha aparecido el problema, en 2:30h aprox de carga, ya puede comenzar a quemarse. No suena nada bien. Y ya veremos las fuentes con tomas originales, porque sigue siendo cierto que los conectores son extremadamente finos.

No me acaba de convencer para nada este nuevo conector PCI-E 5.0.

Pues si, no da mucha seguridad y gastandote 2000€...
es que quien se gaste ese pastizal ya tiene que comprarse una fuente nueva y en condiciones
También pone que la gente q no tenga una fuente con ese conector PCIE actualizado, q la compre, porque hay 2 pines de datos para comunicación entre fuente y gráfica, y q se pierden con los adaptadores.
Y aquí Crispro que lo quería poner con una Tacens de 850. Va a pegar un pedo… xD


Se le viene fuerte a Nvidia. Yo tengo una Corsair HX1200, ni siquiera se si trae ese conector.

En la vida he escuchado lo de los 30 ciclos. Me cago en la puta xD
Pegcaero de barrio escribió:Y aquí Crispro que lo quería poner con una Tacens de 850. Va a pegar un pedo… xD


Se le viene fuerte a Nvidia. Yo tengo una Corsair HX1200, ni siquiera se si trae ese conector.

En la vida he escuchado lo de los 30 ciclos. Me cago en la puta xD


A ver si mejoras tu capacidad lectora, tengo una corsair de 850w. Nvidia aconseja 800w

Justo salió un comunicado de corsair diciendo que sus fuentes son de calidad y que sin necesidad de tener el cable 5.0 se pueden conectar en sus fuentes sin problema.

Por lo que si se aconseja 800 para cuando esté en plena carga, no hay problema con pincharla en una de 850 de calidad.
No obstante me pillaré una como dios manda
chrispro escribió:
Pegcaero de barrio escribió:Y aquí Crispro que lo quería poner con una Tacens de 850. Va a pegar un pedo… xD


Se le viene fuerte a Nvidia. Yo tengo una Corsair HX1200, ni siquiera se si trae ese conector.

En la vida he escuchado lo de los 30 ciclos. Me cago en la puta xD


A ver si mejoras tu capacidad lectora, tengo una corsair de 850w. Nvidia aconseja 800w

Justo salió un comunicado de corsair diciendo que sus fuentes son de calidad y que sin necesidad de tener el cable 5.0 se pueden conectar en sus fuentes sin problema.

Por lo que si se aconseja 800 para cuando esté en plena carga, no hay problema con pincharla en una de 850 de calidad.
No obstante me pillaré una como dios manda

Es broma compa. No te alteres.

Yo tampoco tengo fuente compatible y es nueva, y no hay cosa que más pereza me de cambiar del PC. Me da a mi que si veo barata una 3090Ti me voy a ir a por ella si puedo vender la mía porque esto del nuevo adaptador 5.0 acojona.
Pegcaero de barrio escribió:
chrispro escribió:
Pegcaero de barrio escribió:Y aquí Crispro que lo quería poner con una Tacens de 850. Va a pegar un pedo… xD


Se le viene fuerte a Nvidia. Yo tengo una Corsair HX1200, ni siquiera se si trae ese conector.

En la vida he escuchado lo de los 30 ciclos. Me cago en la puta xD


A ver si mejoras tu capacidad lectora, tengo una corsair de 850w. Nvidia aconseja 800w

Justo salió un comunicado de corsair diciendo que sus fuentes son de calidad y que sin necesidad de tener el cable 5.0 se pueden conectar en sus fuentes sin problema.

Por lo que si se aconseja 800 para cuando esté en plena carga, no hay problema con pincharla en una de 850 de calidad.
No obstante me pillaré una como dios manda

Es broma compa. No te alteres.

Yo tampoco tengo fuente compatible y es nueva, y no hay cosa que más pereza me de cambiar del PC. Me da a mi que si veo barata una 3090Ti me voy a ir a por ella si puedo vender la mía porque esto del nuevo adaptador 5.0 acojona.


Pero en EOL me habian dicho que para las 4090 se necesitaba una fuente de 1200W

[+risas] [+risas]
ditifet escribió:
Pegcaero de barrio escribió:
chrispro escribió:
A ver si mejoras tu capacidad lectora, tengo una corsair de 850w. Nvidia aconseja 800w

Justo salió un comunicado de corsair diciendo que sus fuentes son de calidad y que sin necesidad de tener el cable 5.0 se pueden conectar en sus fuentes sin problema.

Por lo que si se aconseja 800 para cuando esté en plena carga, no hay problema con pincharla en una de 850 de calidad.
No obstante me pillaré una como dios manda

Es broma compa. No te alteres.

Yo tampoco tengo fuente compatible y es nueva, y no hay cosa que más pereza me de cambiar del PC. Me da a mi que si veo barata una 3090Ti me voy a ir a por ella si puedo vender la mía porque esto del nuevo adaptador 5.0 acojona.


Pero en EOL me habian dicho que para las 4090 se necesitaba una fuente de 1200W

[+risas] [+risas]

Hombre… daba a entender eso, ¿no crees? Se supone que recomiendan 800… ponle 1000 para ir seguro y 1200 para ir súper tranquilo. Pero al final se necesita una central nuclear dentro del PC.

Yo lo que tengo claro es que con esto de la fuente ya si que se me han ido las ganas de hacerme con una de estas en el futuro.
Sabéis que el PCIe de toda la vida también tiene 30 ciclos de vida no? [sonrisa]


https://elchapuzasinformatico.com/2022/ ... r-12vhpwr/
Pegcaero de barrio escribió:
ditifet escribió:
Pegcaero de barrio escribió:Es broma compa. No te alteres.

Yo tampoco tengo fuente compatible y es nueva, y no hay cosa que más pereza me de cambiar del PC. Me da a mi que si veo barata una 3090Ti me voy a ir a por ella si puedo vender la mía porque esto del nuevo adaptador 5.0 acojona.


Pero en EOL me habian dicho que para las 4090 se necesitaba una fuente de 1200W

[+risas] [+risas]

Hombre… daba a entender eso, ¿no crees? Se supone que recomiendan 800… ponle 1000 para ir seguro y 1200 para ir súper tranquilo. Pero al final se necesita una central nuclear dentro del PC.

Yo lo que tengo claro es que con esto de la fuente ya si que se me han ido las ganas de hacerme con una de estas en el futuro.


Yo compraré una seasonic de 1600w para ir mas seguro ... o 2 mejor [beer]

Nah ya no doy mas por culo con el tema XD
El tema es que una fuente de PCI 5.0 mínimo...240 pavetes xD con 1200w almenos..

Me duele más eso que la puta gráfica xD
2000 + 250 + Rezar para que no explote.

Grande Nvidia.
Pegcaero de barrio escribió:2000 + 250 + Rezar para que no explote.

Grande Nvidia.

Parece que alguno ya no aplaude el gasto desbocado. [fiu]
Nomada_Firefox escribió:
Pegcaero de barrio escribió:2000 + 250 + Rezar para que no explote.

Grande Nvidia.

Parece que alguno ya no aplaude el gasto desbocado. [fiu]

Pocos de aquí han aplaudido eso xD
Alguna que otra marca con las 4090 recomienda fuentes de 1200w.
Lo que no se es como coño van a sacar las nuevas gráficas y no hay aún en el mercado fuentes con PCIe nativo y entero a la venta

Me descoloca totalmente
Hola [ginyo]

Ando pez con estas 4000... solo sé, que ojalá el precio fuese como en las 3000. Yo por primera vez, di el paso con AMD y sus 6800 XT y cero problemas de nada. Ninguno. Se pusieron las pilas pero bien pues por lo que tengo entendido en las series 5000 fue un quebradero de cabeza por temas de driver. Otro motivo, es las temperaturas de las memorias que haciéndole un test de uso al 99% de carga... no pasan de 65 grados. Así que no descarto una nueva 7800 XT, si siguen por la senda de consumir menos que las Nvidia y si las temperaturas de las "memos" van a seguir siendo tan buenas. Dan mucha tranquilidad esas temperaturas de trabajo. Si que creo que tampoco van a regalar nada seguramente con el precio... pero soñar es gratis.



Saludos!!!
Nomada_Firefox escribió:
Pegcaero de barrio escribió:2000 + 250 + Rezar para que no explote.

Grande Nvidia.

Parece que alguno ya no aplaude el gasto desbocado. [fiu]


Esto es como echar gasolina a 1.6 si en la de un kilómetro está a 1.55

Me duele en el alma nose porque xD

Pues la gráfica la espero con ansia y me da igual pero la fuente si que me duele xD

Será por ese falso sentimiento que la gráfica es la que te hace jugar y la fuente solo da luz xD

Pero bueno soy consciente que hay que invertirlo.

Pondré a vender mi corsair , nueva por cierto
3329 respuestas