[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

maikel_eol escribió:
Bio81 escribió:
defensivepepe escribió:Estba ñeyendo lo del tema de las fuentes y tengo entendido que almenos corsair sí que ha sacado nuevos cables para las PSU nuevas. Espero que mi AX1500i funcione pues la cambié el año pasado al romperse la 1200 antigua y solté casi 600 pavos.


esa fuente es compatible con el nuevo cable https://www.corsair.com/es/es/Categor%C ... CP-8920284

podéis ver que fuentes son compatibles con ese cable aqui: https://www.corsair.com/es/es/psu-cable-compatibility

todas las de Type 4 PCie en naranja son compatibles


Las que aparecen en amarillo parece que también lo son , en mi caso tengo una SFX Platinum y según esa lista creo que es compatible


puede ser pero lo mejor es contactar con corsair para asegurarse
Q mal todo, entre q las 4080 son una estafa por el precio, q la única q podría valer la pena para algunos es la 4090 pero vale un pastón y gastará de 450w para arriba, la necesidad de cambiar de PSU, e incluso cambiándola, tenemos ese miniconector con unos minipines q se van a calentar a tope... Yo esperaría a ver cómo les va a otros usuarios, reviews y qué es lo q saca AMD, q aunque sea al mismo precio podrían dar misma o más potencia y puede q menor consumo.
leveju está baneado por "clon de usuario baneado"
BladeRunner escribió:Q mal todo, entre q las 4080 son una estafa por el precio, q la única q podría valer la pena para algunos es la 4090 pero vale un pastón y gastará de 450w para arriba, la necesidad de cambiar de PSU, e incluso cambiándola, tenemos ese miniconector con unos minipines q se van a calentar a tope... Yo esperaría a ver cómo les va a otros usuarios, reviews y qué es lo q saca AMD, q aunque sea al mismo precio podrían dar misma o más potencia y puede q menor consumo.

pues si, huele todo muy mal con las Lovelace, veremos a ver que pasa en las proximas semana, ahora otra cosa os digo, yo miedo a que se estropeen ninguno, para eso esta la garantia que ahora son ya de 3 años
leveju escribió:
BladeRunner escribió:Q mal todo, entre q las 4080 son una estafa por el precio, q la única q podría valer la pena para algunos es la 4090 pero vale un pastón y gastará de 450w para arriba, la necesidad de cambiar de PSU, e incluso cambiándola, tenemos ese miniconector con unos minipines q se van a calentar a tope... Yo esperaría a ver cómo les va a otros usuarios, reviews y qué es lo q saca AMD, q aunque sea al mismo precio podrían dar misma o más potencia y puede q menor consumo.

pues si, huele todo muy mal con las Lovelace, veremos a ver que pasa en las proximas semana, ahora otra cosa os digo, yo miedo a que se estropeen ninguno, para eso esta la garantia que ahora son ya de 3 años

El problema no está en que pete la GPU, como dices está la garantia, el problema está en que se te lleve por delante otros componentes y estos no te lo cubriria la garantia de cada uno de ellos (aunque podrias pedirle responsabilidades al fabricante de tu FA). Las reviews está vez van a ser muy importantes, probablemente mas que nunca. Creo que las van a someter tests de stress duros y ver donde están los limites. No me extrañaria que alguna caiga
leveju está baneado por "clon de usuario baneado"
silenius escribió:
leveju escribió:
BladeRunner escribió:Q mal todo, entre q las 4080 son una estafa por el precio, q la única q podría valer la pena para algunos es la 4090 pero vale un pastón y gastará de 450w para arriba, la necesidad de cambiar de PSU, e incluso cambiándola, tenemos ese miniconector con unos minipines q se van a calentar a tope... Yo esperaría a ver cómo les va a otros usuarios, reviews y qué es lo q saca AMD, q aunque sea al mismo precio podrían dar misma o más potencia y puede q menor consumo.

pues si, huele todo muy mal con las Lovelace, veremos a ver que pasa en las proximas semana, ahora otra cosa os digo, yo miedo a que se estropeen ninguno, para eso esta la garantia que ahora son ya de 3 años

El problema no está en que pete, como dices está la garantia, el problema está en que se te lleve por delante otros componentes y estos no te lo cubriria la garantia de cada uno de ellos (aunque podrias pedirle responsabilidades al fabricante de tu FA). Las reviews está vez van a ser muy importantes. Creo que las van a someter tests de stress duros y ver donde están los limites. No me extrañaria que alguna caiga

ahora que lo pienso, la unica que sale es la 4090 que tiene ya fecha de salida del 12 de octubre, las 4080 en sus 2 variables solo pone que lo haran en noviembre pero sin fecha concreta, lo cual me lleva la conclusion, no habra hecho esto Nvidia a proposito y deliveradamente para limpiar estock de la serie 3000 y de paso ver a que precio sale AMD con la serie 7000, para luego rectificar con los precios de las 4080 y salgan bastantes mas baratas? es que si no, no tiene sentido que solo se le de fecha confirmada de salida a la 4090 :-? :-? :-?
@leveju los precios? Obviamente están puestos para vender las 3000. Que rectificarian los precios lo dudo dudo muchísimo. Tal y como han hecho con la fecha podrian haber hecho lo mismo con los precios, no haberlos dado y decirlos despues de AMD. Los precios son los que son y no van a variar
leveju está baneado por "clon de usuario baneado"
silenius escribió:@leveju los precios? Obviamente están puestos para vender las 3000. Que rectificarian los precios lo dudo dudo muchísimo. Tal y como han hecho con la fecha podrian haber hecho lo mismo con los precios, no haberlos dado y decirlos despues de AMD. Los precios son los que son y no van a variar

no, por que si quieres limpiar stock de la serie 3000 tienes que poner muy poco atractivas las 4080 en sus 2 variantes, y encima retrasar su lanzamiento hasta despues del BF, y asi de paso ver el movimiento de AMD que es para el 3 de noviembre, es que cada vez me cuadra mas mi teoria de la conspiracion [+risas]
si no, por que no das fecha definitiva de salida? y si de precios? me juego lo que quieras que en BF tenemos 3090 por debajo de los 1000€
Pues imaginaos que no estuviera ni siquiera AMD, lo que harían teniendo el monopolio absoluto. Porque aunque mucha gente siga prefiriendo Nvidia, quieras que no, no están solos en el mercado. Seria terrorífico.

Mirad con Intel, hasta que Ryzen "metió mano" al mercado. ¿Cuántos de aquí no montan ahora un AMD Ryzen y parecía impensable? ;) . Aunque AMD se haya "columpiado" luego también... pero al menos, no esta Intel "sola".

Y por cierto... lo de la 4080 "fake" tela. Si es un "refrito" de una 3070 ( que es espectacular, eso si) pero la cobran casi al doble sin ser realmente puntera como debería traer consigo un cambio de nomenclatura... pues como que se enciende la "bombillita" que tenemos encima del pelo.

Otro punto: aunque los usuarios tenemos la ultima palabra, y somos los que haríamos cambiar un poco de filosofía a las grandes empresas... pienso que España no es su "target" de mercado. Mas bien lo es USA. Y allí compran lo que sea y -casi- a cualquier precio. En mi opinión, eso si. Creo que somos más selectivos comparado con los mercados más importantes como USA. Pero aquí somos unos 40.000.000 de habitantes... y allí 300.000.000.
leveju escribió:
silenius escribió:@leveju los precios? Obviamente están puestos para vender las 3000. Que rectificarian los precios lo dudo dudo muchísimo. Tal y como han hecho con la fecha podrian haber hecho lo mismo con los precios, no haberlos dado y decirlos despues de AMD. Los precios son los que son y no van a variar

no, por que si quieres limpiar stock de la serie 3000 tienes que poner muy poco atractivas las 4080 en sus 2 variantes, y encima retrasar su lanzamiento hasta despues del BF, y asi de paso ver el movimiento de AMD que es para el 3 de noviembre, es que cada vez me cuadra mas mi teoria de la conspiracion [+risas]

El 3 se lanzan al mercado, la presentación será para mediados de octubre.

Pero que tienen de atractivas las 4080? Una es un fake sobrepreciada y la otra está sobrepreciadisima. Los precios de las 4000 están pensados para vender las 3000
leveju está baneado por "clon de usuario baneado"
Antoniopua1 escribió:Pues imaginaos que no estuviera ni siquiera AMD, lo que harían teniendo el monopolio absoluto. Porque aunque mucha gente siga prefiriendo Nvidia, quieras que no, no están solos en el mercado. Seria terrorífico.

lo que yo tengo claro es que las Ampere salieron baratas por 3 causas que se dieron en esas fechas
1- Nvidia venia de vender muy mal la serie 2000, la peor serie en ventas en muchas generaciones
2- temia a AMD que sabia que tenian unas graficas muy potentes que iban a estar a la par de sus nuevas graficas como asi acabo ocurriendo y no se podian columpiar con los precios
3- la salida de la nueva generacion de consolas, que por primera vez en casi 15 años iban a ser muy potentes a un precio muy competitivo y sabian que si se columpiaban con los precios mucha gente iba a pasar de comprarles sus graficas
luego ya se junto la tormenta perfecta entre escasez, especuladores y mineros, mas escasez de consolas de nueva generacion, y por eso las graficas subieron artificialmente de precio y seguro que Nvidia viendo lo visto se tuvo que arrepentir bastante y por eso ahora se han colado con los precios

silenius escribió:Pero que tienen de atractivas las 4080? Una es un fake sobrepreciada y la otra está sobrepreciadisima. Los precios de las 4000 están pensados para vender las 3000

precisamente eso es lo que ha querido hacer Nvidia, hacerlas un desproposito para limpiar Stock de la serie 3000 y ver que hace AMD para recular con el precio antes de que salgan, por que si no, no dan fecha de salida exacta y dicen que saldran en algun momento de Noviembre, no te parece raro?
@leveju sinceramente, no. No querais ver conspiraciones y cosas raras donde no hay. Los precios de las 4000 son los que son y no se van a mover ni un solo euro por mucho que gustaria que los bajaran. Tendria que pasar un cataclismo para que eso ocurriese
12GB GeForce RTX 4080
Finally, the GeForce RTX 4080 12GB is the GPU previously known as the RTX 4070. According to the leaks, NVIDIA altered the product's name at the last minute. The AD104-400 GPU and 7680 CUDA cores with a stated frequency of up to 2610 MHz power the graphics card. The model's TGP is 285 W, with a maximum of 366 W.

@chrispro y no te molesto mas... XD [tadoramo]

En las especificaciones de Nvidia dice que no pasara de 366W la RTX 4080 12GB a plena carga (que en verdad es la RTX 4070)

El PSU calculator de bequiet parece mas completo y me hace un calculo de todo el equipo, poniendo la RTX 3080.

Board power limit
Target: 320.0 W
Limit: 370.0 W

No se si llega a ser fiable totalmente el calculator este, pero mas o menos para orientarme, carga total 90% 765W para una fuente de 850W.

Me la juego sin cambiar fuente? jajaja, o sera demasiado tener la fuente al 90% de carga con varias horas de juego consecutivas?
La situación actual ya la vaticiné cuando salió la titan a 1000€ y se vendía como pan caliente. Había gente que sólo la compraba para intentar superar el record de 3dmark. Luego Nvidia se reía de ellos y sacó la gtx 780 y luego la 780 ti. Mucho mejores en calidad/precio que la propia titan para jugar. [sonrisa] A pesar de eso, la gente seguía cayendo en la trampa para tener lo mejor del momento. Era lógico que luego lo harían en todas las gamas.

Aunque el punto de inflexión fue la serie gtx 1000. Se acabó los precios de la gtx 900, que fueron los últimos digamos "decentes". Las gtx 1060 se anunciaron a 250$ y aquí no bajaba ninguna de 350€ y algún modelo como la asus strixx que de lanzamiento se vendía a 400€.

Ahí lo tenéis. La gráfica más usada de steam. Una gráfica que rara vez bajaba de 300€, cuando esa serie solía costar a partir de 200€ en el pasado. AMD le fue a la zaga. La serie RX salió cara y fue un churro con los modelos de referencia. Pero luego se bajó los pantalones.

Tenemos que tener presente que las marcas no son nuestras amigas. Van a querer exprimirnos al máximo. El problema ha sido el seguir tragando y tragando. No es un producto de primera necesidad y hay alternativas, fuera de un pc gaming de alta gama para jugar a videojuegos.

Aunque decir que los entusiastas no son los únicos culpables de esto. Aparte de la minería, gran parte de los culpables fueron los youtubers. Promocionaron equipos de gama alta pagados por marcas o tiendas, para jugar a esports. Luego la niñorata de turno iban con pcs de +1500€. Inflando más los precios si cabe, por subir las ventas. A esta gente no le digas que pagar más de x por una gráfica es un robo, porque no entienden de esas cosas. Cuando el pc gaming se volvió masivo, es cuando empezó a morir de éxito.

En cambio me ha gustado lo que dijo el youtuber slobulus. Tiene una gtx 970 y quiere actualizarla desde hace dos años. Pero no lo ve claro, porque no quiere incitar a seguir con estos precios. Es muy fácil que un forero diga que se planta con una RTX 3080 ti, cuando eso no tiene mérito. Tiene más mérito uno que compró un i5 versión f y compró una gt 1030 de mientras y no va a pasar por el aro.

He visto algunos mensajes anteriores y @kailkatarn lleva razón en una cosa. Parte de la situación se ha debido debido a que para mucha gente sólo existía Nvidia para jugar. Como pasaba con Apple. Esto ha llevado a un monopolio donde AMD ni siquiera competía. Con una situación de 40-60% podría darse guerras de precios.

AMD ha tenido modelos y series nefastas, pero sólo comprando Nvidia por inercia, ha llevado a que se puedan permitir hacer lo que les da la gana, como pasa en otras empresas. Como Nintendo o Apple que van por libres. Y esto a su vez hace que la competencia no se quede atrás. Si venden muy barato, les da mala imagen como si tuvieran un producto inferior.

Por último, para el que diga que el resto es barato. Se han listado precios de placas para ryzen 7000 y la asus más barata no baja de 385$ en China. Estamos llegando al punto que se va a volver de moda consolas como la steamdeck, portátiles con un chip gráfico bueno y eficiente o mini pcs. Para jugar a lo gordo, las consolas. Igual también buscan lo que sospechamos muchos. Forzar a la gente que en pocos años acabe tragando con el streaming, porque pocos se van a poder permitir jugar en nativo.
Kin escribió:En las especificaciones de Nvidia dice que no pasara de 366W la RTX 4080 12GB a plena carga (que en verdad es la RTX 4070)


Si no me equivoco eso quiere decir que puede haber modelos que por bios configuren un TGP de 366w, no que los modelos de 285w lleguen a ese pico.
Vamos lo mismo lo sabes pero por si acaso hay confusiones :p

Corregirme si me equivoco.
@JaviGabber

Creo que por lo que he leído su consumo base 285W con un maximo de 366W las founders edition, ya las custom me imagino que sera diferente según fabricante o modelos.
FranciscoVG escribió:
colado escribió:
chrispro escribió:
Yo con la 4080 y la corsair de 850 no cambiaba. Nvidia dice 750 para esa gráfica y corsair a dicho que sus fuentes son de calidad y se pueden conectar.

Podrás probar sin problema. Y si algún momento diera el más mínimo cuelgue cambias.

Pero depende de que tienes conectado en tu pc. Si muchos módulos de RAM, si muchos ssd o hdd.. teclado y ratón gaming
..


Es que la gente no es consciente de los consumos de un PC. El mio con una 3080 y un ryzen 5900x solo alcanza su consumo maximo en test sinteticos y es de 480w. Me sobra 270w con la fuente de 750w, vamos que estoy seguro de que le puedo meter una 4090.


No se trata de ser consciente es que todo cambia dependiendo de los componentes y la configuaracion, overclock, undervolt...

Tu cambia ese 5900x por un 12900ks que es una cpu chupa watts y pon una 4090 de las custom con bios desbloqueada a 600w y veras donde queda tu fuente de 750w, no te digo ya como te lies con el overclock...

Yo creo que esta claro el tema, toda fuente que este por debajo de 1000w no puedes poner los componentes y configuracion que quieras a dia de hoy, eso no quiere decir que te tengas que comprar una fuente de 1000w si o si depende de lo que vayas a poner, si ya te tienes que comprar la fuente igualmente y quieres poner una 4090 es tonteria jugarsela y lo mejor es ir directamente a una de 1000w y atx 3.0


Coño, pero es que estoy hablando del ejemplo de mi equipo. Evidentemente, tendria que mirar el consumo si mi pc fuese otro. Al igual que si tubiera un 12400f me sobrarian mas watts aun. Y aun asi, tambien te digo, posiblemente no haya nada ( salvo test sinteticos) que ponga un 12900k y una 4090 al 100%, y que evidentemente la fuente de alimentacion tendria que cubrir ese 100% de consumo.
Kin escribió:@JaviGabber

Creo que por lo que he leído su consumo base 285W con un maximo de 366W las founders edition, ya las custom me imagino que sera diferente según fabricante o modelos.


Yo no tengo eso entendido, por ejemplo esta publicacion de videocartz lo explica. Y lo he leido en varios sitios.
https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked

Por ejemplo mi RTX 3080 tiene un TDP de 340/350w (no recuerdo exactamente) y de ahi no pasa. En las reviews ya se vera los picos de consumo.
Pegcaero de barrio está baneado por "Troll"
JaviGabber escribió:
Kin escribió:@JaviGabber

Creo que por lo que he leído su consumo base 285W con un maximo de 366W las founders edition, ya las custom me imagino que sera diferente según fabricante o modelos.


Yo no tengo eso entendido, por ejemplo esta publicacion de videocartz lo explica. Y lo he leido en varios sitios.
https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked

Por ejemplo mi RTX 3080 tiene un TDP de 340/350w (no recuerdo exactamente) y de ahi no pasa. En las reviews ya se vera los picos de consumo.

Mira que han salido buenas las puñeteras 3080 [amor] [amor]

La mejor GPU que he tenido nunca.
@JaviGabber

Pues no se que decirte, cual es su TDP maximo de la 3080 ni idea, alguien que nos ilumine porfa XD
Kin escribió:12GB GeForce RTX 4080
Finally, the GeForce RTX 4080 12GB is the GPU previously known as the RTX 4070. According to the leaks, NVIDIA altered the product's name at the last minute. The AD104-400 GPU and 7680 CUDA cores with a stated frequency of up to 2610 MHz power the graphics card. The model's TGP is 285 W, with a maximum of 366 W.

@chrispro y no te molesto mas... XD [tadoramo]

En las especificaciones de Nvidia dice que no pasara de 366W la RTX 4080 12GB a plena carga (que en verdad es la RTX 4070)

El PSU calculator de bequiet parece mas completo y me hace un calculo de todo el equipo, poniendo la RTX 3080.

Board power limit
Target: 320.0 W
Limit: 370.0 W

No se si llega a ser fiable totalmente el calculator este, pero mas o menos para orientarme, carga total 90% 765W para una fuente de 850W.

Me la juego sin cambiar fuente? jajaja, o sera demasiado tener la fuente al 90% de carga con varias horas de juego consecutivas?


Ya te digo que yo pienso poner la 4090 en la 850w corsair xD a día de hoy se que no pasará absolutamente nada
Que si, que comprare otra fuente pero que no pasa nada. Que es una fuente de calidad y ha salido la misma corsair a decirlo.

He comprado un enchufe que dice los watios que consume el equipo... Ya saldré de dudas xD

Edito: que cambiaré de fuente porque quiero hacerle OC pero que según las cuentas, no sube de 750w el equipo entero a plena carga.
Pegcaero de barrio escribió:Mira que han salido buenas las puñeteras 3080 [amor] [amor]

La mejor GPU que he tenido nunca.


La verdad que si, yo mas contento no puedo estar desde el dia 1. Encima yo la pille al pricipio por 790€ , ya veremos lo que tardamos en ver una x80 de salida a esos precios...

La 4080 16Gb a mi me parece una gran evolucion, creo que va a ser un pepino pero claro el precio se la carga , vale casi un 100% mas [qmparto]

Kin escribió:@JaviGabber

Pues no se que decirte, cual es su TDP maximo de la 3080 ni idea, alguien que nos ilumine porfa XD


Lo he mirado, 350w y de ahi no pasa.

https://es.msi.com/Graphics-Card/GeForce-RTX-3080-Ti-GAMING-X-TRIO-12G/Specification
chrispro escribió:Ya te digo que yo pienso poner la 4090 en la 850w corsair xD a día de hoy se que no pasará absolutamente nada
Que si, que comprare otra fuente pero que no pasa nada. Que es una fuente de calidad y ha salido la misma corsair a decirlo.

He comprado un enchufe que dice los watios que consume el equipo... Ya saldré de dudas xD

Edito: que cambiaré de fuente porque quiero hacerle OC pero que según las cuentas, no sube de 750w el equipo entero a plena carga.


[qmparto] [qmparto] [qmparto] te creo, si corsair lo dice habrá que hacer caso XD

ya contaras por aqui que dice el enchufe que chupa la 4090 XD
Kin escribió:
chrispro escribió:Ya te digo que yo pienso poner la 4090 en la 850w corsair xD a día de hoy se que no pasará absolutamente nada
Que si, que comprare otra fuente pero que no pasa nada. Que es una fuente de calidad y ha salido la misma corsair a decirlo.

He comprado un enchufe que dice los watios que consume el equipo... Ya saldré de dudas xD

Edito: que cambiaré de fuente porque quiero hacerle OC pero que según las cuentas, no sube de 750w el equipo entero a plena carga.


[qmparto] [qmparto] [qmparto] te creo, si corsair lo dice habrá que hacer caso XD

ya contaras por aqui que dice el enchufe que chupa la 4090 XD


Pueda ser que reviente el enchufe… [carcajad] [carcajad] [carcajad]
Pegcaero de barrio está baneado por "Troll"
JaviGabber escribió:
Pegcaero de barrio escribió:Mira que han salido buenas las puñeteras 3080 [amor] [amor]

La mejor GPU que he tenido nunca.


La verdad que si, yo mas contento no puedo estar desde el dia 1. Encima yo la pille al pricipio por 790€ , ya veremos lo que tardamos en ver una x80 de salida a esos precios...

La 4080 16Gb a mi me parece una gran evolucion, creo que va a ser un pepino pero claro el precio se la carga , vale casi un 100% mas [qmparto]

Kin escribió:@JaviGabber

Pues no se que decirte, cual es su TDP maximo de la 3080 ni idea, alguien que nos ilumine porfa XD


Lo he mirado, 350w y de ahi no pasa.

https://es.msi.com/Graphics-Card/GeForce-RTX-3080-Ti-GAMING-X-TRIO-12G/Specification

A mí me costó 760 creo... y la compré hace nada en una oferta flash de PC Componentes. Menudo pepino... a día de hoy no se le atraganta nada.

Yo la mía la tengo con UV 900 y lo máximo que me consume es unos 350 en OW que chupa más que la hostia. En B2042 se queda en 240-250W...

Las temperaturas ahora en verano pues 68-70... no me quejo.
Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.
mikedevil99 escribió:Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.


La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio
Pegcaero de barrio está baneado por "Troll"
chrispro escribió:
mikedevil99 escribió:Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.


La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio

Ya ves. Yo como encasquete la mía a alguien pillo la 3090 Ti mas que nada por la VRAM y a aguantar la gen. Hoy estaba la FE a 1300...
Pegcaero de barrio escribió:
chrispro escribió:
mikedevil99 escribió:Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.


La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio

Ya ves. Yo como encasquete la mía a alguien pillo la 3090 Ti mas que nada por la VRAM y a aguantar la gen. Hoy estaba la FE a 1300...


Lleva unas tres semanas aprox a 1330 y con stock inmediato.. el tema que pasar de una 3080 ti a la 3090 ti ... Merece la pena pero no compensa el gasto demasiado...

Pero para quien tenga una 3060.. 3070.. o una 3080 a secas.. es un precio muy apetecible.
Gráfica para años
Zoids está baneado por "clon troll"
1300 buen precio...

En USA ya se esta viendo la 6900xt que es el equivalente de la 3090 a $679.
chrispro escribió:
mikedevil99 escribió:Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.


La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio


Pues es que llevo casi dos años "esperando" a montar el PC con los precios, el stock, la minería... y mira pues ya está... consumismo y calentada pero bueno.
Nvidia va a conseguir q quien no se compre una 4000 por ser muy cara se compre una 3000, y no una Rx 7000.
BladeRunner escribió:Nvidia va a conseguir q quien no se compre una 4000 por ser muy cara se compre una 3000, y no una Rx 7000.

No creo que las AMD sean baratas tampoco.
Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Llámalas como quieras, pero aunque saquen las Ti, la realidad es la que es.
Pegcaero de barrio está baneado por "Troll"
mikedevil99 escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Llámalas como quieras, pero aunque saquen las Ti, la realidad es la que es.

La realidad es que a día de hoy la serie 4000 es una estafa a excepción de la 4090 (que por precio es otra estafa).
mikedevil99 escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Llámalas como quieras, pero aunque saquen las Ti, la realidad es la que es.

No entiendo tu comentario. Que realidad?
Que tiene eso que ver con el hecho de que envidia ha cogido chips que deberían de haber ido a la gama media/media alta y las ha puesto en la gama alta?
Es precisamente lo que hizo con la gama 600 en que se guardó los chips de gama alta para la serie 700 y lanzó el de gama media como la GTX 680.
Es decir, 1500 euros por una 4080 es una barbaridad pero por una 4070 es reírse en nuestras caras.
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


efectivamente, lo he apuntado hace unos dias unas páginas más atrás, solo mirar esta comparación,en el tamaño del "die":

AD104 (RTX4080@12Gb) = die 294.5 mm2
GA106 (RTX3060@12Gb) = 276 mm2

GA104 (RTX3070@8Gb) = 392mm2
AD103 (RTX4080@16Gb) = 378mm2

3080ti -> 496mm2
??

3090 - 3090ti -> 628mm2
4090 -> 608mm2

se rien en nuestra cara....
neox3 escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


efectivamente, lo he apuntado hace unos dias unas páginas más atrás, solo mirar esta comparación,en el tamaño del "die":

AD104 (RTX4080@12Gb) = die 294.5 mm2
GA106 (RTX3060@12Gb) = 276 mm2

GA104 (RTX3070@8Gb) = 392mm2
AD103 (RTX4080@16Gb) = 378mm2

3080ti -> 496mm2
??

3090 - 3090ti -> 628mm2
4090 -> 608mm2

se rien en nuestra cara....

Y esto es importantísimo ya que el tamaño indica cuantas graficas salen de cada oblea y por lo tanto cuanto mas pequeñas son les salen mas baratas de fabricar.
Han perdido la poca vergüenza como empresa que podía quedarles, no me extraña que EVGA haya salido por patas.
Pegcaero de barrio está baneado por "Troll"
adriano_99 escribió:
neox3 escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


efectivamente, lo he apuntado hace unos dias unas páginas más atrás, solo mirar esta comparación,en el tamaño del "die":

AD104 (RTX4080@12Gb) = die 294.5 mm2
GA106 (RTX3060@12Gb) = 276 mm2

GA104 (RTX3070@8Gb) = 392mm2
AD103 (RTX4080@16Gb) = 378mm2

3080ti -> 496mm2
??

3090 - 3090ti -> 628mm2
4090 -> 608mm2

se rien en nuestra cara....

Y esto es importantísimo ya que el tamaño indica cuantas graficas salen de cada oblea y por lo tanto cuanto mas pequeñas son les salen mas baratas de fabricar.
Han perdido la poca vergüenza como empresa que podía quedarles, no me extraña que EVGA haya salido por patas.


EVGA se ha olido el percal y se ha ido... no me extraña. A saber como tratan a las ensambladoras si a nosotros nos toman por tontos.
Pegcaero de barrio escribió:
EVGA se ha olido el percal y se ha ido... no me extraña. A saber como tratan a las ensambladoras si a nosotros nos toman por tontos.

Según evga Jensen cree que las ensambladoras apenas hacen trabajo , ganan demasiado dinero y su sueño seria ser como apple.
Pegcaero de barrio está baneado por "Troll"
adriano_99 escribió:
Pegcaero de barrio escribió:
EVGA se ha olido el percal y se ha ido... no me extraña. A saber como tratan a las ensambladoras si a nosotros nos toman por tontos.

Según evga Jensen cree que las ensambladoras apenas hacen trabajo , ganan demasiado dinero y su sueño seria ser como apple.

Enormes palabras del CEO de una compañía… dice mucho del tipo de fundamentos que se estilan ahí dentro. Una pena, Nvidia está como está por el monopolio al que nosotros, como consumidores, la hemos llevado. No se si ya es tarde para cambiarlo.

A Sony le pasó lo mismo y MS le ha frenado en seco.
Sabia que Steve hacia poco que habia hecho un video sobre esto. Para los que habeis estado debatiendo sobre las PSU esto os puede dar mas informacion si no lo habeis visto. Y entendereis el porque se recomiendan segun que potencia a segun que grafica
Hola, no sé si se ha puesto pero os dejo un artículo de Tom's Hardware en el que hablan, entre otras cosas, del motivo de los precios de la nueva serie 4000 y del porqué la 4080 de 12 GB la llamaron 4080 y no 4070.

https://www.tomshardware.com/news/why-n ... -damn-much

Lo comparto porque me ha parecido interesante, yo hasta la serie 6000 no quiero saber nada de gráficas. [carcajad]
@Pegcaero de barrio Anda que no se quejen que a ellos solo los toman por tontos Nvidia, a nosotros todos los demas, las ensambladoras incluidas. [fiu]
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Si fuera asi, se me ocurren 3 cosas:
1) No seria el consumo demasiado alto?
2) Estariamos de una 4060 (gama media/media-baja) que empata con una 3090TI(gama alta de la anterior generacion)?
3) Hay hueco para meter 2 graficas mas: 4080 y 4080 Ti?
Por otro lado... respecto a las fuentes de alimentación y el estrés extra de las nuevas GPUs de Nvidia ( de AMD no se si será igual...) a mi me gusta hacer "undervolting". Tanto a CPU como a GPU. Es de lo que más me gusta hacer [carcajad] [+risas] .
chrispro escribió:
mikedevil99 escribió:Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.


La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio

joer,,, pues dime dónde por favor,,, porque yo no veo buen precio por ningún sitio :(
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Eso según he visto parece que tiene una explicación, lo que parece que han hecho es aumentar mucho la cache l2 que es un tipo de memoria de acceso rápido integrada en el chip, por eso no necesitan un bus tan grande supongo que harán algo tipo a la infinity cache de AMD

La 6950xt tiene el mismo ancho de banda que la 4080 de 12gb, y en rendimiento estarán muy cerca
Jarinawer escribió:
chrispro escribió:
mikedevil99 escribió:Yo al final me he pillado una 3090 para el pc nuevo que estoy montando.


La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio

joer,,, pues dime dónde por favor,,, porque yo no veo buen precio por ningún sitio :(


En la web de Nvidia la 3090ti a estrenar 1300. El precio más barato nueva que yo sepa. Y la founder que me encanta
chrispro escribió:
Jarinawer escribió:
chrispro escribió:
La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio

joer,,, pues dime dónde por favor,,, porque yo no veo buen precio por ningún sitio :(


En la web de Nvidia la 3090ti a estrenar 1300. El precio más barato nueva que yo sepa. Y la founder que me encanta

pero esas founder no habría que añadirle un nuevo disipador y ventiladores?? tengo entendido que así como vienen van fatal de temperaturas :-?
13383 respuestas