[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

@Blackpo92 hay otros que se han gastado hace 2 meses 1300€ por 11gb, nunca llueve a gusto de todos,de momento a disfrutar la 3080

@jrdj si llegas a 2050 constantes es porque tienes una Strix de 470w y nunca le hace throtling por Power.
Luego, el TombRider que ni te llega al Power Limit,seguro que el boost y la temperatura están engañandote, luego pones otro juego/sim más exigente con triple pantalla o similar y verás que no mantiene los 2ghz por mucho tiempo cuando la GPU está al 100% de uso
Xi0N escribió:Si, yo o sacan gráficas con 32 Gb de VRAM o no compro.,


Ah! Y a menos de 600 euros eh?


A AMD le va a pasar ahora con la VRAM como cuando empezó a sacar procesadores con mil threads, pero cada thread no daba pa ná comparado con intel.
Aquí igual: GDDR, 16 Gb de memoria más lenta que la de nVidia.
Pero 16 es más que 10 asi que todo dios a comprar 16

Mirad, lo demuestra esta gráfica:

Imagen


[qmparto] [qmparto] [qmparto]

Esa gráfica zanja definitivamente cualquier discusión. [oki]
@Blackpo92 Eso es lo que mucha gente esta viendo y esperando (yo incluido), que seguramente Nvidia saque graficas con más vram.

La 3070 con 12GB de ram seria una opción ideal, al igual que la 3080 con 16GB.

Y visto lo visto tampoco deberian subir mucho de precio porque los 650$ de la 6800xt la dejarian en mala posición.
Antoniopua está baneado por "saltarse el ban con un clon"
El problema de comparar las Ampere con las AMD, es que son arquitecturas totalmente diferentes. Solo en las pruebas del día a día obtendremos la "realidad".
Buenas,

Tengo una EVGA ftw3 Ultra 3080 y un par de dudas con las que no sé si me podéis ayudar:

- Como puedo hacer undervolt? El control de voltaje de X1 precision y Afterburner están bloqueados, el primero para valores negativos y el segundo para ambos.

- La última duda es que no sé como activar la extensión de garantía de EVGA, solo me deja pagar con una tarjeta de crédito china, que por supuesto no tengo. Si me podéis echar una mano..

Un saludo y muchas gracias
@Fragus a tu primera duda, creo que es con el msi afterburner 4.6.3 beta..
Y la segunda no lo sé
PepeC12 escribió:@Blackpo92 Eso es lo que mucha gente esta viendo y esperando (yo incluido), que seguramente Nvidia saque graficas con más vram.

La 3070 con 12GB de ram seria una opción ideal, al igual que la 3080 con 16GB.

Y visto lo visto tampoco deberian subir mucho de precio porque los 650$ de la 6800xt la dejarian en mala posición.

A lo mejor sólo lo pienso yo, pero si Nvidia saca ahora deprisa y corriendo versiones con mas vram a un precio cómo el de la 6800 es que se han reído de la gente, porque lo del "no creemos que de momento haga falta más" que lo han utilizado cómo escusa para la 3070 y 3080 se viene abajo completamente. Si las saca pero con un incremento de 150 pavos todavía podría entenderlo. Por otro lado me choca muchísimo también que la 6800 salga con 16 gb de vram, me parece una burrada y coincido en que antes de aprovecharlos ya has cambiado de tarjeta.
Saludos
alfye20 escribió:@Blackpo92 hay otros que se han gastado hace 2 meses 1300€ por 11gb, nunca llueve a gusto de todos,de momento a disfrutar la 3080

@jrdj si llegas a 2050 constantes es porque tienes una Strix de 470w y nunca le hace throtling por Power.
Luego, el TombRider que ni te llega al Power Limit,seguro que el boost y la temperatura están engañandote, luego pones otro juego/sim más exigente con triple pantalla o similar y verás que no mantiene los 2ghz por mucho tiempo cuando la GPU está al 100% de uso

Te he puesto el ejemplo del Tom raider porque me rayo la cabeza ver que no pasaba, lo he monitoreado con GPU Z y de todo y no baja la frecuencia por que consume menos que con el resto de cosas, ronda los 360-380W y no baja la frecuencia, pruébalo y acabas antes, veras que se mantiene el core muy estable
@metalero24 Lo que @Xi0N no está contando es que AMD ha utilizado la tecnología infinity caché vista también en Ryzen, pasan de 16 mb a 128mb, una auténtica burrada.

Todos sabemos que la gpu tira primero de ésta memoria que es la más rápida para luego tirar de la gddr.

Eso es un punto fuerte y una solución excelente que hace que puedan montar memorias más baratas que la gddrx,solventar el poco stock de éstas y aumentar la cantidad de gb en sus gráficas.

Algo que para los modders de juegos nos viene de pm.

En éste sentido AMD le está haciendo a Nvidia lo que le ha hecho a Intel.
Antoniopua está baneado por "saltarse el ban con un clon"
Metalyard escribió:@metalero24 Lo que @Xi0N no está contando es que AMD ha utilizado la tecnología infinity caché vista también en Ryzen, pasan de 16 mb a 128mb, una auténtica burrada.

Todos sabemos que la gpu tira primero de ésta memoria que es la más rápida para luego tirar de la gddr.

Eso es un punto fuerte y una solución excelente que hace que puedan montar memorias más baratas que la gddrx,solventar el poco stock de éstas y aumentar la cantidad de gb en sus gráficas.

Algo que para los modders de juegos nos viene de pm.

En éste sentido AMD le está haciendo a Nvidia lo que le ha hecho a Intel.

Esto que comentas me parecería una jugada maestra.
@Antoniopua Es que lo es [+risas]

Cómo dije arriba, una solución excelente [oki]
No si algunos aun querrán tarjetas graficas con 512 megas [facepalm].. como la vram no importa... afirmar que una tarjeta grafica con 10 GB tiene de sobra para mover los juegos de nueva generación a 4k y con Ray tracing... es no tener ni idea de como funciona esta industria [qmparto] , con cada nueva generación suben las especificaciones de Vram es lo que tiene subir la calidad visual y complejidad de los mundos.. y durante lo que dura la generación siguen subiendo los requisitos de Vram por que por si alguien no se ha enterado los videojuegos van mejorando a nivel técnico con los años y lo que en 2017 era suficiente con 11 GB para 4K en 2021/2022 ya no lo será.
Bio81 escribió:No si algunos aun querrán tarjetas graficas con 512 megas [facepalm].. como la vram no importa... afirmar que una tarjeta grafica con 10 GB tiene de sobra para mover los juegos de nueva generación a 4k y con Ray tracing... es no tener ni idea de como funciona esta industria [qmparto] , con cada nueva generación suben las especificaciones de Vram es lo que tiene subir la calidad visual y complejidad de los mundos.. y durante lo que dura la generación siguen subiendo los requisitos de Vram por que por si alguien no se ha enterado los videojuegos van mejorando a nivel técnico con los años y lo que en 2017 era suficiente con 11 GB para 4K en 2021/2022 ya no lo será.

El tema es que unas no llegarán por la vram y otras por que no tienen ray tracing
@PepeC12 Tienen SU implementación de RayTracing, que hay que ver ahora a ver como queda,.

Nvidia con su implementación o amd con la suya.... cada uno con una distinta y no intercambiables...
PepeC12 escribió:@Daylon87 sabes que tienen raytracing verdad?

Si la mitad de eficiente. Pero bueno que todas estas panas que nos estamos montando se verán cua do se vea el godfall con una radeon y el cyberpunk con una nvidea, haber si de verdad se quedan cortas las gráficas de nvidia. Que salen y se demuestra que las radeon son un milagro de la naturaleza pues me. Imagino que haya devoluciones en masa de la 3070 y 3080
Antoniopua está baneado por "saltarse el ban con un clon"
Nvidia lleva más tiempo con el Raytracing... Llevan más ventaja. Pero AMD también lo incorporará.
Por lo poco que sé sobre esto, AMD se han permitido meter esos 128 Megabytes de memoria caché en sus gpus porque usan la litografía de 7 nanómetros de TSMC, que supongo será algo mejor que la de Samsung y podrá tener una densidad de transistores mayor por milímetro cuadrado y por su propio diseño de los chips. Al no tener que meter ni rt cores porque el raytracing lo están haciendo con las mismas unidades de ejecución que ya tenían antes, adaptadas para hacer esos nuevos cálculos y el tema de los tensor cores ni está ni se le espera tampoco, también supongo que el resultado a nivel de diseño es más homogéneo en su caso, algo más fácil de implementar y además deja en el chip una cantidad de espacio suficiente como para meter toda esa memoria ultrarrápida.

Nvidia ya dio su solución al problema, ahora AMD da la suya propia. Cada una de ellas tendrá sus ventajas e inconvenientes. Sinceramente, sigo creyendo que la mejor es la de Nvidia (pero más cara al necesitar cada vez memorias con mayores anchos de banda, más nuevas con stocks más bajos) ya que hacen lo que se ve cada vez más en la informática, los procesadores modernos tienen hoy en día muchas zonas diferentes especializadas en los cálculos para según que tareas. Aún así, puede que su enfoque con circuitos altamente especializados a la larga se vea inferior a ese otro enfoque algo menos heterogéneo.
Blackpo92 escribió:A mi lo que me da miedo es que Nvidia saque ahora unas 3070 y 3080 con más vram y se nos quede un poco cara de tontos. Si es una estrategia apostando por una memoria más rápida y sus tecnologías me parece perfecto, pero ya digo que si sacan ahora deprisa y corriendo versiones con más VRAM a mi por lo menos se me queda una buena cara de imbécil. Yo me he comprado la 3070 viniendo de una 2060 y el salto ha sido increíble, pero si en 6 meses voy a tener que estar bajando calidad por la VRAM me parece una tomadura de pelo.
Saludos


la pregunta no es si Nvidia lanzara nuevos modelos, la pregunta es cuando. Yo era de la idea que ya quedarian para el año que viene, pero ojo que con noticias que ya hay juegos que por falta de ram dejan obsoletas estas graficas, y lo bien que han salido las de AMD y,encima, mas baratas, podria obligar a Nvidia a mover ficha incluso para la campaña navideña..
pakolo1977 escribió:Por lo poco que sé sobre esto, AMD se han permitido meter esos 128 Megabytes de memoria caché en sus gpus porque usan la litografía de 7 nanómetros de TSMC, que supongo será algo mejor que la de Samsung y podrá tener una densidad de transistores mayor por milímetro cuadrado y por su propio diseño de los chips. Al no tener que meter ni rt cores porque el raytracing lo están haciendo con las mismas unidades de ejecución que ya tenían antes, adaptadas para hacer esos nuevos cálculos y el tema de los tensor cores ni está ni se le espera tampoco, también supongo que el resultado a nivel de diseño es más homogéneo en su caso, algo más fácil de implementar y además deja en el chip una cantidad de espacio suficiente como para meter toda esa memoria ultrarrápida.

Nvidia ya dio su solución al problema, ahora AMD da la suya propia. Cada una de ellas tendrá sus ventajas e inconvenientes. Sinceramente, sigo creyendo que la mejor es la de Nvidia (pero más cara al necesitar cada vez memorias con mayores anchos de banda, más nuevas con stocks más bajos) ya que hacen lo que se ve cada vez más en la informática, los procesadores modernos tienen hoy en día muchas zonas diferentes especializadas en los cálculos para según que tareas. Aún así, puede que su enfoque con circuitos altamente especializados a la larga se vea inferior a ese otro enfoque algo menos heterogéneo.


ya hace tiempo que pienso que amper fue pensado para ir a 7.... básicamente por esos consumos tan bestias a la que me metes algo de chicha el consumo se desmadra (llevo la bios de 450w)
por otro lado.... piensa que no solo la litografia de 7 frente a 8... mientras la 3080 tiene 8xxx cuda cores + lo que sea cores nuevos, la solución de amd lleva solo 5xxx y pico ....
al igual si coges a la 3080 y le quitas todos esos cores nuevos al igual cabe una memoria cache de esas.

ya veremos como evoluciona la cosa...
y si nvidia saca una 3080ti.... ojalá me llegue el step up de evga
y si no... no pasa nada... mejores texturas (vease los 12 gigas de vram a 4k del juego akel) vs mejor raytracing.
sin pegas (una cosa por otra)

del dlss... ya que amd va a poner el suyo de forma libre el codigo.... ojalá nvidia pueda aprovechar ese hard aposta que tiene para esas cosas, asi capa compatibilidad, abstracción o lo que sea
parh escribió:
Blackpo92 escribió:A mi lo que me da miedo es que Nvidia saque ahora unas 3070 y 3080 con más vram y se nos quede un poco cara de tontos. Si es una estrategia apostando por una memoria más rápida y sus tecnologías me parece perfecto, pero ya digo que si sacan ahora deprisa y corriendo versiones con más VRAM a mi por lo menos se me queda una buena cara de imbécil. Yo me he comprado la 3070 viniendo de una 2060 y el salto ha sido increíble, pero si en 6 meses voy a tener que estar bajando calidad por la VRAM me parece una tomadura de pelo.
Saludos


la pregunta no es si Nvidia lanzara nuevos modelos, la pregunta es cuando. Yo era de la idea que ya quedarian para el año que viene, pero ojo que con noticias que ya hay juegos que por falta de ram dejan obsoletas estas graficas, y lo bien que han salido las de AMD y,encima, mas baratas, podria obligar a Nvidia a mover ficha incluso para la campaña navideña..

Tal y cómo está el stock me parece inviable que saquen algo antes del año que viene, sacar que no anunciar ojo.
De todas formas mantengo lo que dije antes, me extrañaría mucho que hayan sacado la 3070 y la 3080 para que se queden cortas en menos de 6 meses, ya no es un tema de error de cálculo o error de lanzamiento, estaría rozando para mi la estafa.
Saludos
@paconan que es eso del step up de evga?
Daylon87 escribió:@paconan que es eso del step up de evga?


asi resumiendo... si compras una evga y se ves que no te acaba de convencer (en los primeros 90 dias) hablas con ellos, te envian otra más tocha pagando la diferencia presentando la factura de compra)
https://www.evga.com/support/stepup/

edito. no se si las compras de segunda mano vandrán para eso...
Señores como veis la curva que me ha echo el msi afterburner del oc en la ventus 3080?
Imagen
He mirado varios videos de undervolt y no me puto aclaro.. alguien puede iluminarme? He intentado cojer y poner una linea recta a 862 mv en 1990mhz.. y cuando e iniciado el witcher 3.. pum crash del pc jajajajja lo he echo fatal verdad?
1 Actualizo, con esa curva, a los 5 min de jugar al witcher me ha crasheado y sacado del juego a windows..
veamos, con el tema de las 3080 vs 6800xt, yo creo que AMD va a dar un buen golpe en la mesa, tener una cache superior y esa fuerza bruta, va a hacer que, por ejemplo la VR, vaya mucho mejor en esas gráficas. Ya que el principal problema en 3080 y la VR es el buffer, no puede ir más allá por culpa del buffer, aquí AMD le va a comer la merienda a nvidia.
Pero tengo que decir que 3080 es un pepino y se mire como se mire es mas que un sato generacional. Con respecto a la memoria. Todo depende de como se gestione en la programación del juego el Garbage y como se aproveche la memoria usada. Claro que nos quedaremos sin memoria, siempre nos quedamos sin memoria si no optimizamos.
Pero para que veáis , rfactor 2 en un circuito grande y exigente y 36 coches, con unas valve index y un supersampling de 160% y todo en alto, la memoria roza los 9 gigas. Se queda corto? pues depende, yo creo que esas configuraciones son una burrada.
paconan escribió:
Daylon87 escribió:no se si las compras de segunda mano vandrán para eso...


He estado leyendo las condiciones y en caso de haber comprado la GPU de segunda mano no se puede acceder al Step-up.

Según lo que he leido/entendido...

- El nombre de la factura debe ser el mismo del que solicita el Step-up.
- No son válidas para el Step-up las compras realizadas en comercios como eBay o Amazon Marketplace.
- No siempre te ofrecen lo que has pagado, lo valoran y pueden reducirlo según crean conveniente.
- Del precio que has pagado te descuentan el IVA (lógico) a la hora de valorar tu GPU.
- El proceso puede tardar semanas en función de la disponibilidad (y esto lo escribieron antes de que llegara la serie 3000 al mundo).
- Los productos que EVGA considera de disponibilidad limitada no entran en la promoción, y como he comentado en la linea anterior, la serie 3000 es una seria candidata a estar en esa lista.
- Los gastos de envio tanto de ida (tu GPU) como de vuelta (la nueva) corren de nuestra cuenta, aparte de que hablan de ciertas tasas que desconozco (supongo que será el IVA en función del país).

Es una promoción genial, pero no es entregar tu GPU y te dan una nueva mejor por la diferencia de precio. Entre el IVA que "pierdes" de la original y los gastos de envio pueden ir más de 150€ tirados por el cambio, sin contar aun la diferencia de precio que hay que pagar entre ambos modelos, y eso contando que te acepten o se pueda hacer el cambio por la GPU que quieres.

Echarle un ojo a las condiciones antes de tiraros a la piscina.
aleyalicia21 escribió:Señores como veis la curva que me ha echo el msi afterburner del oc en la ventus 3080?
Imagen
He mirado varios videos de undervolt y no me puto aclaro.. alguien puede iluminarme? He intentado cojer y poner una linea recta a 862 mv en 1990mhz.. y cuando e iniciado el witcher 3.. pum crash del pc jajajajja lo he echo fatal verdad?
1 Actualizo, con esa curva, a los 5 min de jugar al witcher me ha crasheado y sacado del juego a windows..


No has capado los voltios...
Pon el OC en default, baja CoreClock a -290mhz aprox y aplicas,la gráfica te va a dar un bajón pero es necesario para que ahora pinches la bola de 0.900v y puedas subirla por encima del resto de bolas, aplicas y verás que a partir del 0.900v se hace plana, ya está.
Guarda el profile y aplicas al iniciar sesión de windows
alfye20 escribió:
aleyalicia21 escribió:Señores como veis la curva que me ha echo el msi afterburner del oc en la ventus 3080?
Imagen
He mirado varios videos de undervolt y no me puto aclaro.. alguien puede iluminarme? He intentado cojer y poner una linea recta a 862 mv en 1990mhz.. y cuando e iniciado el witcher 3.. pum crash del pc jajajajja lo he echo fatal verdad?
1 Actualizo, con esa curva, a los 5 min de jugar al witcher me ha crasheado y sacado del juego a windows..


No has capado los voltios...
Pon el OC en default, baja CoreClock a -290mhz aprox y aplicas,la gráfica te va a dar un bajón pero es necesario para que ahora pinches la bola de 0.900v y puedas subirla por encima del resto de bolas, aplicas y verás que a partir del 0.900v se hace plana, ya está.
Guarda el profile y aplicas al iniciar sesión de windows

Le he echo lo que me has dicho, y a 0,875v lo he puesto a 1905mhz y mirad:
Imagen
Imagen

El consumo está oscilando todo el rato entre 260w y 300w, la mayor parte está entre 260w y 280w, raro es que pase un poco de 300w a 320w
Lo veis bien así o creeis que le podría bajar un poco más a los mismos mhz?
@aleyalicia21 es facil, 3 sencillos pasos:

Pulsa CTRL + F

1. Bajas la curva del core clock hasta que el final de la curva quede más o menos al maximo de la frecuencia que vayamos a poner, es decir la asíntota hacía ese valor.

2. Pinchas en el punto que quieras subir y lo subes hasta el valor deseado, por ejemplo esos 875mV hasta los 1905Mhz

3. LE DAS AL BOTÓN DE "CHECK OK" en el afterburner, verás que tu curva se ajusta plana hacia ese valor.


@Xion : JAJAJAJA que manera de reírme con la gráfica, buenísima. Voy a dar mi opinión, AMD es mejor opción para juegos, pero es como si te compras una Taurus mycoock en lugar de una Thermomix, es mejor porque es de inducción pero no es la original. Te quedas sin ray tracing.Dicho esto si yo jugara, me compraría una AMD SIN DUDARLO, la relación calidad/precio es indiscutiblemente mejor, el problema es que yo hago otras cosas que la AMD no me permite, no tienen tensor cores, ni se les espera.

@leto : Te veo preocupado por la VR, no te he dicho nada, pero yo tengo aquí unas Oculus Rift S, he tenido todos los modelos desde que salieron, la realidad es que el VR no es tan exigente como debiera, no hacen juegos/aplicaciones con verdadera exigencia. La teoría está muy bien, la realidad es que vas sobrado en ambos casos.

EDITO: 6900XT miiilll eeeeeuros (léase con tono de lotería), 8090 mil seiscientos euros.
Tanto la 6800 como la 6800xt son más caras que contra las que compiten, sin ver benchmark reales no se de donde os sacáis que amd es mejor calidad precio la verdad
Daylon87 escribió:Tanto la 6800 como la 6800xt son más caras que contra las que compiten, sin ver benchmark reales no se de donde os sacáis que amd es mejor calidad precio la verdad

Bastante de acuerdo, la 6800 va a costar 80-100 pavos más que la 3070 (sólo faltaría que no tuviera más rendimiento bruto), la xt un poco más de lo mismo.
Saludos
@nvidia25 gracias por ayudar, tal como te enseñe en las imagenes mas recientes lo he dejado, no me crashea ningun juego, no se me calienta nada, en witcher que ha sido el unico juego que utiliza la grafica al 99% casi todo el rato es en el que ha estado a 60/65 grados todo el rato, en rocket league se me queda a 50 grados, en death stranding igual 50/55 grados jugando sin dlss y consumiemdo una miseria (alrededor de 150/160w), total que me he quedado contento con el resultado, si veo algo raro lo ire comentando !
@Daylon87 vamos a ver.

6800xt vale 650$ lo que son 50$ menos que la 3080

La 6900xt cuesta 999$ que compite con la 3090 de 1500$.

La 6800 esta por encima de la 3070 (está entre la 3070 y la 3080) cuesta 570$ y viene con 16gb.

Tu me dirás...
@aleyalicia21 está bien así, si quieres rascar unos FPS puedes subir el CoreClock al mismo voltaje de ,875 por ejemplo a 1950 y buscar el crasheo a escritorio. Tienes wattios ahí en la recámara y velocidad de ventilador para mantener esos 68⁰
PepeC12 escribió:@Daylon87 vamos a ver.

6800xt vale 650$ lo que son 50$ menos que la 3080

La 6900xt cuesta 999$ que compite con la 3090 de 1500$.

La 6800 esta por encima de la 3070 (está entre la 3070 y la 3080) cuesta 570$ y viene con 16gb.

Tu me dirás...

Hay que hacer la conversión compi, aquí siempre salen más caras que cuando las presentan con su precio en dólares a lo que hay que añadirle impuestos.
De ahí que si la 6800 sale por 579 dólares, aquí saldría cómo poco por 600 euros + impuestos, se puede ir a 630 euros sin ningún problema.
Saludos
Blackpo92 escribió:
PepeC12 escribió:@Daylon87 vamos a ver.

6800xt vale 650$ lo que son 50$ menos que la 3080

La 6900xt cuesta 999$ que compite con la 3090 de 1500$.

La 6800 esta por encima de la 3070 (está entre la 3070 y la 3080) cuesta 570$ y viene con 16gb.

Tu me dirás...

Hay que hacer la conversión compi, aquí siempre salen más caras que cuando las presentan con su precio en dólares a lo que hay que añadirle impuestos.
De ahí que si la 6800 sale por 579 dólares, aquí saldría cómo poco por 600 euros + impuestos, se puede ir a 630 euros sin ningún problema.
Saludos


Haciendo la conversión a euros y aplicando el IVA se queda en unos 600€.
Blackpo92 escribió:
PepeC12 escribió:@Daylon87 vamos a ver.

6800xt vale 650$ lo que son 50$ menos que la 3080

La 6900xt cuesta 999$ que compite con la 3090 de 1500$.

La 6800 esta por encima de la 3070 (está entre la 3070 y la 3080) cuesta 570$ y viene con 16gb.

Tu me dirás...

Hay que hacer la conversión compi, aquí siempre salen más caras que cuando las presentan con su precio en dólares a lo que hay que añadirle impuestos.
De ahí que si la 6800 sale por 579 dólares, aquí saldría cómo poco por 600 euros + impuestos, se puede ir a 630 euros sin ningún problema.
Saludos

Que conversión? pues la misma que hizo Nvidia [+risas]
Imagen
Imagen
Imagen
Imagen
No me gasto yo 750-900 en una gráfica de 10 gb de Vram ni jarto de vino, ya vendrán los cagaprisas vendiendo las suyas y perdiendo dinero cuando vengan a sacar nuevas con más Vram, tiempo al tiempo...
@Blackpo92 No he hecho conversion ninguna, he dado los precios en $.

El cambio $ - € nos favorece y efectivametne esos 570$ al cambio son 588€, y los 650$ son 670€ al cambio con iva incluido. El precio en las tiendas ya lo veremos.
Beta Reverse escribió:
jrdj escribió:
Xi0N escribió:Como decían ppor ahí arriba "Si te dejas 900 euros en un componente de hardware y luego vas a andar mirando lo que consume en voltaje, mal vamos"
Supongo que esos 20 euros al año serán muy significativos.

Eso si, si es verdad que undervolt hace que vaya a más FPS, será algo que probaré aunque no me entra en la cabeza, habiendo precisamente BIOS para hacer Overvolt.

No va a dar mas rendimiento con undervolt, ni te molestes... En el único caso que le veo sentido es en que tu caja refrigere de pena. y se te ponga la grafica a mas de 80 grados, que quizá ahí puedas ganar algo haciendo que se caliente menos y suba algo la frecuencia por estar mas fresca, si no, no tiene sentido...El ruido que hacen al menos mi TUF hasta el 85% prácticamente ni se oye. Temas de factura de luz etc que siempre se oye lo mismo, igual son 15 euros AL AÑO vamos que me da la risa jaja


Si no oyes la TUF hasta el 85%, déjame decirte que tienes un grave problema de audición, o un ordenador que suena como un compresor neumático.

Pero bueno, que al final cada uno hace lo que le sale de los huevos con sus gráficas, y listo. En las Ampere la ganancia en juegos con overclock es completamente irrisoria, así como la pérdida de rendimiento con undervolt. A partir de ahí, que cada uno decida.


Yo tengo la 3080 Strix OC y he de decir que no se si es que tiene bastante coil whine o es que no estoy acostumbrado, porque al lado de mi antigua 2060 no sonaba nada, ademas de verdad. Y esta me tiene hasta el punto de preocuparme, pero por lo que he leido es normal. Pero es que sin tocar curva de ventalidores ni OC, suena mas que los propios ventiladores y el disipador del PC.

A alguien mas le pasa? O bien es la mia que viene con mas de lo normal, o yo no estoy acostumbrado a una tarjeta tan potente jaja

aleyalicia21 escribió:
alfye20 escribió:
aleyalicia21 escribió:Señores como veis la curva que me ha echo el msi afterburner del oc en la ventus 3080?
Imagen
He mirado varios videos de undervolt y no me puto aclaro.. alguien puede iluminarme? He intentado cojer y poner una linea recta a 862 mv en 1990mhz.. y cuando e iniciado el witcher 3.. pum crash del pc jajajajja lo he echo fatal verdad?
1 Actualizo, con esa curva, a los 5 min de jugar al witcher me ha crasheado y sacado del juego a windows..


No has capado los voltios...
Pon el OC en default, baja CoreClock a -290mhz aprox y aplicas,la gráfica te va a dar un bajón pero es necesario para que ahora pinches la bola de 0.900v y puedas subirla por encima del resto de bolas, aplicas y verás que a partir del 0.900v se hace plana, ya está.
Guarda el profile y aplicas al iniciar sesión de windows

Le he echo lo que me has dicho, y a 0,875v lo he puesto a 1905mhz y mirad:
Imagen
Imagen

El consumo está oscilando todo el rato entre 260w y 300w, la mayor parte está entre 260w y 280w, raro es que pase un poco de 300w a 320w
Lo veis bien así o creeis que le podría bajar un poco más a los mismos mhz?


Me podrias decir donde esta la opcion de ver el consumo de la GPU (W) en el afterburner. Solo veo el portentaje del power :(
PepeC12 escribió:@Blackpo92 No he hecho conversion ninguna, he dado los precios en $.

El cambio $ - € nos favorece y efectivametne esos 570$ al cambio son 588€, y los 650$ son 670€ al cambio con iva incluido. El precio en las tiendas ya lo veremos.

588 euros más impuestos, se te pone cómo poco en 600 euros el modelo base, ya son 80 euros más cara.
@VanSouls Claro que la misma conversión que hizo Nvidia y la que hacen la mayoría de fabricantes, pero no te confundas que yo no he dicho en ningún momento que Nvidia no la haga, he dicho al compañero que ha puesto el precio de las AMD en dólares que a ese precio no iban a salir en España y efectivamente estamos todos de acuerdo, sale por unos 80 euros más hablando de modelos base, si por 80 pavos más rinde menos apaga y vámonos.
Saludos
@Blackpo92 estoy dando el precio con iva incluido tio, lee bien.

para simplificar, la 6800 son 50$ o € más que la 3070 y la 6800xt son 50€$/€ menos que la 3080.

Y en cuanto a rendimiento lo dicho, la 6800 esta por encima de la 3070 con una diferencia notable, yo diria que seria el equivalente a una supuesta 3070ti.

la 6800xt parece que esta muy ligeramente por encima de la 3080, sin usar RT o DLSS en la comparativa de rendimento. Tiene hardware para acelerado de RT que han llamado nucleos RTA (Raytracing accelerator), pero no se sabe mucho del rendimiento con RT.

Toda la gama tiene 16GB de vram.

No estoy diciendo que sean mejores las Amd, pero que parecen una mejor compra si (por la vram), y que Nvidia deberia reaccionar.
PepeC12 escribió:@Blackpo92 estoy dando el precio con iva incluido tio, lee bien.

para simplificar, la 6800 son 50$ o € más que la 3070 y la 6800xt son 50€$/€ menos que la 3080.

Aunque salieran por 50 euros más que lo dudo, habrá que esperar al precio oficial en euros, siguen siendo 50 pavos por encima. Depende del bolsillo de cada uno pero para mí es dinero.
Estoy totalmente de acuerdo de que a priori deberían ser mejor compra las AMD al menos en rendimiento bruto, habrá que ver la importancia del DLSS y lo que da de sí la vram de las 3000 actuales, también habrá que ver el RT que en la presentación lo pasaron de puntillas. Por otro lado si Nvidia se ha atrevido a sacar gráficas que a los 6 meses o menos se van a quedar cortas de VRAM ya no es un fallo o una cagada, es casi una estafa. Y hablo de que se note que van cortas en un buen número de juegos, no cómo el Godfall que por lo visto a 4k pide 12 gb de vram, una burrada para lo que es el juego.
Saludos
PepeC12 escribió:@Blackpo92 estoy dando el precio con iva incluido tio, lee bien.

para simplificar, la 6800 son 50$ o € más que la 3070 y la 6800xt son 50€$/€ menos que la 3080.

a parte de esa diferencia de precio, no hay que olvidar que la 6800xt va a rebufo de la 6900xt
Imagen
@Dibxer tienes que usar HWinfo
https://www.hwinfo.com/

y en configuración (settings) , donde pone la monitorización (OSD) marcar la opción de GPU POWER para que te salga en el RivaTuner
VanSouls escribió:
PepeC12 escribió:@Blackpo92 estoy dando el precio con iva incluido tio, lee bien.

para simplificar, la 6800 son 50$ o € más que la 3070 y la 6800xt son 50€$/€ menos que la 3080.

a parte de esa diferencia de precio, no hay que olvidar que la 6800xt va a rebufo de la 6900xt
Imagen

No digo yo que no, lo que yo me niego a creer es que Nvidia haya sacado la 3070 y 3080 con la vram que llevan para quedarse cortas enseguida y tener que sacar modelos "súper o TI" que además no vas a poder vender mucho más caras porque se solapan con las anteriores, a parte de que cómo dije antes me parece una estafa al consumidor directamente.
Yo creo que las sacaran con mas memoria, si !!!, pero mas caras , lo importante es que en el mercado tengas donde elegir, Si yo en su dia hubiese podido comprar una 1080ti con menos memoria , y me hubiese constado 150€ menos la hubiese comprado, porque de todo el tiempo que la usé , nunca llegue a las de 7gb. Por lo tanto yo estoy contento con la relación precio memoria. Si tengo que pagar mas por mas memoria , quizas me hubiese pensado comprar una 3080.

Es mi punto de vista.


Blackpo92 escribió:
VanSouls escribió:
PepeC12 escribió:@Blackpo92 estoy dando el precio con iva incluido tio, lee bien.

para simplificar, la 6800 son 50$ o € más que la 3070 y la 6800xt son 50€$/€ menos que la 3080.

a parte de esa diferencia de precio, no hay que olvidar que la 6800xt va a rebufo de la 6900xt
Imagen

No digo yo que no, lo que yo me niego a creer es que Nvidia haya sacado la 3070 y 3080 con la vram que llevan para quedarse cortas enseguida y tener que sacar modelos "súper o TI" que además no vas a poder vender mucho más caras porque se solapan con las anteriores, a parte de que cómo dije antes me parece una estafa al consumidor directamente.
leto escribió:Yo creo que las sacaran con mas memoria, si !!!, pero mas caras , lo importante es que en el mercado tengas donde elegir, Si yo en su dia hubiese podido comprar una 1080ti con menos memoria , y me hubiese constado 150€ menos la hubiese comprado, porque de todo el tiempo que la usé , nunca llegue a las de 7gb. Por lo tanto yo estoy contento con la relación precio memoria. Si tengo que pagar mas por mas memoria , quizas me hubiese pensado comprar una 3080.

Es mi punto de vista.


Blackpo92 escribió:
VanSouls escribió:a parte de esa diferencia de precio, no hay que olvidar que la 6800xt va a rebufo de la 6900xt
Imagen

No digo yo que no, lo que yo me niego a creer es que Nvidia haya sacado la 3070 y 3080 con la vram que llevan para quedarse cortas enseguida y tener que sacar modelos "súper o TI" que además no vas a poder vender mucho más caras porque se solapan con las anteriores, a parte de que cómo dije antes me parece una estafa al consumidor directamente.

Pero cuanto podría costar una 3070 de 16gb? 650 pavos? Es que por ese precio te compras una 3080 que tiene 10 pero es mucho más potente, yo al menos creo que lo vería así. Ya digo que me cuesta mucho ver el camino o la estrategia que quiere llevar Nvidia. Yo conseguí una 3070 de salida y estoy expectante a cómo se mueve todo éste mes, porque al final con la tontería igual hasta la devuelvo.
Saludos
Señores urgente.. de buenas a primeras en el msi afterburner 4.6.3 beta me han dejado de ir los ventiladores en modo automatico... Teneis alguna solucion? Cuando me he dado cuenta estaba los ventiladores parados y la grafica a 40 grados.. que no es nada grave pero bueno..
31123 respuestas