GTX Serie 800/900

Nexus_VII escribió:
paconan escribió:lo puse en el otro hilo, pero lo pongo tambien aki (cosa de haber 2 hilos...)

http://wccftech.com/nvidia-geforce-gtx- ... erful-780/

si esto es cierto, parece que van a tirar bastante.

Si eso es verdad entonces no cuadran los precios que se rumorean porque no me creo yo que Nvidia venda una gráfica superior a la 780TI entre 400€ y 450€,aparte que según el otro enlace la 880 se parecería mas a una 770,no cuadra nada rumore,rumore XD


se supone que esto lo compartio nvidia en el e3...
pero como bien dices, hasta que no salgan... son todo rumores.

wwwendingo, que opinas tu de esto?
R0NiN escribió:
ipad escribió:Mi pregunta es la siguiente.
Merece la pena gastarse 400,500 euros en una tarjeta gráfica nueva? No se. Una 660,760 tiran prácticamente cualquier juego a full y estable.
Yo es que no soy partidario de gastarme ese dinero.


Depende de ti, la verdad. Mi último PC ha durado 10 años, y en su dia le puse una grafica puntera de 400 euros (una radeon, no recuerdo el modelo), que me permitió jugar a todo a muy buena calidad durante 7 años. Se acabó quemando. No he tenido que tocar ese pc, salvo por la susodicha grafica que se quemó, la fuente que en un apagón se estropeó y la ram, que la acabé ampliando.

Ahora que tengo ingresos propios y llevo ahorrando año y algo, quiero repetir la jugada y hacerme un pc para los próximos 8-10 años y mover todo al maximo a 1080p en este tiempo, de ahí que barajase la opción 780. Jugar en pc es de mis pasatiempos principales, y un pc me lo compro/actualizo de peras a ramos, así que me gusta invertir.

Edit: evidentemente, habrán juegos que no puedas mover al maximo sin la ultra grafica de turno que haya salido el mismo año que ese juego, por directx o por que los desarroladores sean unos animales de lo gráfico (Crysis3 y Titan, os miro a vosotros...).

Y digo yo, no sería mejor gastarte 200 euros ahora y de aquí a 4 años otros 200 euros? Pregunto.
Porque seamos realistas una gráfica de 400.500 euros es para algo más que jugar... Aparte que el 95% de los juegos no aprovecharían tanta potencia...
Yo es que tengo otra manera de ver las cosas Jajajaja
Un saludo chicos
ipad escribió:
R0NiN escribió:
ipad escribió:Mi pregunta es la siguiente.
Merece la pena gastarse 400,500 euros en una tarjeta gráfica nueva? No se. Una 660,760 tiran prácticamente cualquier juego a full y estable.
Yo es que no soy partidario de gastarme ese dinero.


Depende de ti, la verdad. Mi último PC ha durado 10 años, y en su dia le puse una grafica puntera de 400 euros (una radeon, no recuerdo el modelo), que me permitió jugar a todo a muy buena calidad durante 7 años. Se acabó quemando. No he tenido que tocar ese pc, salvo por la susodicha grafica que se quemó, la fuente que en un apagón se estropeó y la ram, que la acabé ampliando.

Ahora que tengo ingresos propios y llevo ahorrando año y algo, quiero repetir la jugada y hacerme un pc para los próximos 8-10 años y mover todo al maximo a 1080p en este tiempo, de ahí que barajase la opción 780. Jugar en pc es de mis pasatiempos principales, y un pc me lo compro/actualizo de peras a ramos, así que me gusta invertir.

Edit: evidentemente, habrán juegos que no puedas mover al maximo sin la ultra grafica de turno que haya salido el mismo año que ese juego, por directx o por que los desarroladores sean unos animales de lo gráfico (Crysis3 y Titan, os miro a vosotros...).

Y digo yo, no sería mejor gastarte 200 euros ahora y de aquí a 4 años otros 200 euros? Pregunto.
Porque seamos realistas una gráfica de 400.500 euros es para algo más que jugar... Aparte que el 95% de los juegos no aprovecharían tanta potencia...
Yo es que tengo otra manera de ver las cosas Jajajaja
Un saludo chicos

yo vengo de una evga 760 4gb vram...y desde unos dias uso una evga 780 classified...no hay color...en cuanto al tema rendimiento € estoy deacuerdo quizas sea mas rentable y coherente ir a gamas medias
Light Killuminati está baneado por "faltas de respeto"
Una 660,760 tiran prácticamente cualquier juego a full y estable.
Yo es que no soy partidario de gastarme ese dinero
Depende de ti, la verdad. Mi último PC ha durado 10 años, y en su dia le puse una grafica puntera de 400 euros.


Esque las graficas van asi, hace 2 años compre mi gtx580 por 270€ y es superior por poco a la gtx660 hoy la puedes tener por menos de 150€ gtx660nueva, Ni gtx660 ni gtx580 mueve todos juegos full en mi caso en 1080p. Ahora una grafica de hace 10 años me apuesto lo que sea que no tira ni mitad que gtx660.

Es un comercio tremendo de sacarnos la pasta cada año. Pero bueno yo actualizo la grafica cada 3-4 años o depende si esa se queda corta como en mi caso gtx580 ya ni mantiene 60fps ni deja subir graficos max para fluidez y encima le falta VRAM.Pues ya toca cambiarla y eso que sigue siendo buena grafica pero ya algo justa para juegos 2014 y 2013, (tb algunos 2012 seee XD).


Pero claro cada uno esta en su mundo, no veo correcto criticar si este se gasto 500€ o este 150€ cuando puede que el de 150€ tardara 1 año en tener 150€ o el de 500€ tardara 2 meses en tenerlos.

Uno te dira que estas loco seriamente por gastarte 300€ en una grafica.
Otro se compra GTX titan que vale x2 o x3 o x4 o x5 etc
alguno se comforma con graficas low.

Cuando se quiere tener la gama alta nvidia toca soltar buena pasta siempre, pues muchos no la sueltan y van por eso a por una AMD y se ahorran 100€ o por ahi.

Saludos!


Pues como diria cada uno tiene su mundo y sus opciones [oki]
ipad escribió:
R0NiN escribió:
ipad escribió:Mi pregunta es la siguiente.
Merece la pena gastarse 400,500 euros en una tarjeta gráfica nueva? No se. Una 660,760 tiran prácticamente cualquier juego a full y estable.
Yo es que no soy partidario de gastarme ese dinero.


Depende de ti, la verdad. Mi último PC ha durado 10 años, y en su dia le puse una grafica puntera de 400 euros (una radeon, no recuerdo el modelo), que me permitió jugar a todo a muy buena calidad durante 7 años. Se acabó quemando. No he tenido que tocar ese pc, salvo por la susodicha grafica que se quemó, la fuente que en un apagón se estropeó y la ram, que la acabé ampliando.

Ahora que tengo ingresos propios y llevo ahorrando año y algo, quiero repetir la jugada y hacerme un pc para los próximos 8-10 años y mover todo al maximo a 1080p en este tiempo, de ahí que barajase la opción 780. Jugar en pc es de mis pasatiempos principales, y un pc me lo compro/actualizo de peras a ramos, así que me gusta invertir.

Edit: evidentemente, habrán juegos que no puedas mover al maximo sin la ultra grafica de turno que haya salido el mismo año que ese juego, por directx o por que los desarroladores sean unos animales de lo gráfico (Crysis3 y Titan, os miro a vosotros...).

Y digo yo, no sería mejor gastarte 200 euros ahora y de aquí a 4 años otros 200 euros? Pregunto.
Porque seamos realistas una gráfica de 400.500 euros es para algo más que jugar... Aparte que el 95% de los juegos no aprovecharían tanta potencia...
Yo es que tengo otra manera de ver las cosas Jajajaja
Un saludo chicos



Como te han dicho depende de las pretensiones que tenga cada uno, con una grafica de gama media no puedes jugar sin sacrificar en calidad grafica o en el framerate en un surround/eyefinity, en un panel de 120/144Hz, o jugando a altas resoluciones como pueden ser 2560x1440 o en un 3440x1440, o que decir en un 4k.
Incluso a una resolucion ''estandar'' como es el FullHD si quieres jugar con los settings a maxima calidad grafica no basta con una grafica de 200€
DaNi_0389 escribió:Como te han dicho depende de las pretensiones que tenga cada uno, con una grafica de gama media no puedes jugar sin sacrificar en calidad grafica o en el framerate en un surround/eyefinity, en un panel de 120/144Hz, o jugando a altas resoluciones como pueden ser 2560x1440 o en un 3440x1440, o que decir en un 4k.
Incluso a una resolucion ''estandar'' como es el FullHD si quieres jugar con los settings a maxima calidad grafica no basta con una grafica de 200€



Estoy absolutamente de acuerdo si no tienes en cuenta el OC. Está claro que si es una TOP+OC extreme todavía rascarás más, pero si encuentras buenas gamas medias/altas con un muy buen OC suelen igualar y en algunos casos mejorar a lo que hubiese sido la TOP sin OC, pero claro, luego alguien te entra con la TOP + OC y te enseña lo que es mandar hasta en 1920x1080p a buen nivel de filtros, como debe ser.

Está claro que siempre que haya dinero, la opción de TOP + OC siempre es lo suyo, pero encontrar una buena joya y llevarla al extremo en las gamas medias/altas y por 200/250 euretes o así siempre ha sido medianamente posible. Está claro que tienes que saber a lo que juegas, tener buena refrigeración y tal ... pero suelen ser muy buenas soluciones incluso si eres un usuario exigente.
Light Killuminati está baneado por "faltas de respeto"
Tener en cuenta oc, es cuando te falta rendimiento o quieres mas de lo que tienes. (aveces inecesario cuando juegas a 70fps obtienes 75fps) jodiendo temps y voltaje y gpu es un horno y su durablidad.

Ahora si es bueno Oc cuando te faltan esos 5-10fps, porque hacen falta. No sobran. Seguramente me diras a pues a tu fx de serie falta OC, yo diria, no tengo ni una queja con stock serie prefiero no tocarlo y siempre esta fresco.

Claro este es mi gusto, ya he probado ocear cpus,gpus, afinal pues prefiero todo de serie. Ya se, tu no.

Ya se que eres partidario de competir con algo de OC extreme con algo de Serie, pero sabias que no es justa la comparacion.


Se podria igualar 470 oc = 480 serie, 460 no llega,
570 oc = 580 serie, 560 no llega,

Pero 760 200€ nunca va igualar a una de 780 - 400€
Saludos!





.
Bien, ahi piensas en GTX 760 que no es la que estaba yo pensando, mas bien estaba pensando en una HD7970 o 280x a 1300 y 1350 de core que se ven en xtreme y que si valen esos 200 y 250 y hasta menos de segunda mano.

A ese precio y con ese oc ya te digo yo que hace sombras a las top a muy buen precio. Echa un ojo que tienes benchs a esas frecuencias de esas tarjetas. Si luego te hacen oc a la top pues... lloras. Es lo que hay.
paconan escribió:se supone que esto lo compartio nvidia en el e3...
pero como bien dices, hasta que no salgan... son todo rumores.

wwwendingo, que opinas tu de esto?


No confío en wccftech como fuente de información, muchas veces han metido la pata hasta las cachas, y a nivel técnico dejan mucho que desear (no es la primera vez que se creen "hoaxs" que se podrían desmontar fácilmente si pensaran un poco en lo que implicaban técnicamente hablando).

Aunque alguna vez arrastran en su colección de rumores una verdad.

Aún así, si en nvidia pretenden llamarle GTX 880 a un GM204 (supongo que 100% activado), éste tiene que rendir más sí o sí que la GTX 780, pero bastante más, y como poco algo más que las GTX 780 Ti para no quedar un tanto extraño y ridículo una serie nueva, con numeración "equivalente", tan cerca del producto anterior pero sólo "revisado" y potenciado por la denominación "Ti".

Yo, que tengo en la cabeza un chip GM204 que no coincide (interior y número de GPCs y CUs) con los de esta gente, aún así vería potencial para ser cuanto menos más rápido que las GTX 780 por un 20%, o quizás por un 30%. Esto lo dejaría todo muy cerca del GK110 totalmente habilitado, el mayor problema que tengo a la hora de visualizar la potencia del GM204 no está tanto en el chip que yo "estimo" con 1920 CUs y 3 GPCs (y sólo quizás 2560 CUs y 4 GPCs, como mucho), sino el problema del número de ROPs y ancho de banda reducido contra las GK110. El tema es que Maxwell con el GM107 ya ha demostrado que puede alcanzar una eficiencia muy alta con ancho de banda a memoria bajos gracias a su L2.

Aún así, se me hace un tanto antinatural no tirar "hacia abajo" el rendimiento por el tema del ancho de banda y con esto dejar de lado las estimaciones más positivas del GM204.


Rollaco para KailKatarn:

KailKatarn escribió:Por tu lenguaje se te ve muy afectado cuando se habla o critica algo de NVIDIA, pero bueno, como dijo Jack el Destripador ... vayamos por partes:


No necesito que me cuentes la historia, me la conozco al completo. Me la conozco tan al completo que la solución de Nvidia rápidamente fue sacar unos drivers a toda leche y capar cualquier posibilidad de OC con esas tarjetas (pero claro, el driver anterior no quemaba tarjetas, que va, hasta de stock como se podrá ver luego, inclusive hasta con el nuevo no estaba garantizada su carga al 100%, pero claro, todo falso pero falso total). Pero que pasó? que muchas, por lo que comentas del fallo de hardware, no soportaban ni las propias frecuencias base de fábrica, como verás luego que reconoce NVIDIA, y en otros muchos casos porque los propios fabricantes TOP las habían sacado de base animando a su OC nada más sacarla de la caja.




Lo que me parece increíble es que sigas erre que erre diciendo que "el driver mataba tarjetas" cuando a la vez, con notitas de prensa y con tus propias palabras, ESTAS DESMINTIENDO tus propias sentencias.

Pero vamos a ver, si lo pone en la nota de prensa, lo dices HASTA TÚ, alma de cántaro. En la nota de prensa hablan JUSTO de lo que yo estoy diciendo

Que pasa cuando te venden una tarjeta que no acepta ni sus frecuencias de serie al 100% de cargas reconocido pro el propio fabricante (que además animaban a hacerlas OC como verás luego) y hasta modelos OC que violan las posibilidades físicas materiales de la tarjeta y que a su vez fueron aprobadas por NVIDIA para su venta? pues sucede esto, que tienes que sacar un comunicado oficial:

Imagen


Comunicado donde LITERALMENTE no dicen nada de lo que te estás inventando. ¿Dónde dice que con frecuencias de serie fallan las gráficas si se puede saber? EXPLICITAMENTE dicen que se desaconseja el OC, y que en caso de HACERLO, se actualice el driver al último, sobre todo con sobrevoltaje. Eso, por pura lógica, no es un mandato a actualizar TODOS los drivers con GTX 590, ya que quita del arco de actualizaciones requeridas a las unidades instaladas pero SIN OC.

Siempre lo dicen así, "si se hace OC" o "con una unidad con OC" entonces actualiza, no antes. Pero nada, en esa nota según tú dicen que de serie y con el driver de lanzamiento, el DRIVER además, mataba las tarjetas. Ole tus huevos. [beer]

Está claro que yo me invento mucho. Lo que si tengo claro es que tu has pasado de hablar de excepcionalidades de marca hasta aceptar ahora mismo que tuvieron un error de fabricación tremendo de base con sus tarjetas TOP, sí, esas que costaban 700 euros de base y 800-850 en sus modelos TOP de fabricantes reconocidos. Y que vieron todos esos consumidores? pues petar su gráfica, para nada barata, en su propia cara.

Sí, yo me invento mucho, está claro, por eso NVIDIA tiene que hacer un comunicado oficial y sacar un driver a toda leche que capaba sus modelos TOP al máximo. Sí, yo me invento mucho, desde luego. Y de hecho tampoco necesitaba tus historias, si lees atentamente toda la información en los 6 links que te puse lo tienes todo bien clarito, nada que tú me puedas enseñar nuevo sobre el tema.



Claro que te inventas, o eso o no sabes leer la nota de prensa. ¿En serio no ves que ponen que es un problema de OC sobre todo con SOBREVOLTAJE, como ya te he dicho, parcheado a través del driver LIMITANDO las capacidades de OC y cortando por lo sano un PROBLEMA DE HARD? Es que lo pone literalmente. No lo sugieren, no hablan de bugs anteriores, sino de nuevas medidas de protección metidas en el SOFT/DRIVER, a mayores. No dice una mierda sobre un "driver matatarjetas". Que te lo ponen claro pero te la suda respecto a la versión que te has montado, vamos.

Que lo que realmente hacen es un CAPADO bastante bestia sobre los posibles de OC con sobrevoltaje con estas unidades, además de un control ya obsesivo de TDP (porque es muy fácil pasarse con este modelo).



wwwendigo escribió:1.- Cambiaron unidades a ALGUNOS usuarios muy puntuales como ELP3 y similares, pero POCO más, y para evitar entrar en rifirrafes en medio de un lanzamiento. Pero lo cierto es que algunos se comieron sus GTX 590 reventadas con patatas si se las denegaban en un RMA estándar (con Asus, casi lo tienes asegurado en casos así).


No sé quien es ELP3, pero no, créeme que no fue un consumidor exclusivo al que se la cambiaron porque para empezar a mi me tuvieron que cambiar 2 para 2 clientes mios. Vamos, que le dieron el trato que le dieron a cualquier cliente. No un servicio VIP. Para eso las pagabas a 800 eurazos de nada.


Veo que la parte de RMA denegado previamente te lo has saltado (NO es lo mismo gestionar un RMA que un soporte DIRECTO de nvidia para sustituir modelos fallidos).

O sea, cambiarion 2 unidades que has vendido a unos clientes, y das por sentado que no se la comió nadie.

Pues ya te digo que algunos se la comieron, evidentemente, es fácil cambiar la unidad con RMA porque.... es lo NORMAL en fallos (excepto ante ciertas políticas de exclusión de garantía). Pero yo no estoy hablando de un simple RMA, tú cuando les cambiaste las gráficas a tus clientes, ¿te pusiste en contacto con Asus, MSI, Avioncitofeliz o con nvidia directamente? ¿Fue una gestión de RMA ordinaria o una sustitución de unidades directamente por nvidia por "fallos de fábrica/serie"?

Al usuario que menciono se la cambiaron sin preguntar y pidiendo "disculpas" pero ni siquiera por parte de nvidia, sino del fabricante de la unidad y porque... al principio se la liaron en el RMA. Así de simple. Es lo más cercano a una "admisión de defecto de fábrica" que he visto. Pero ni siquiera esto se refiere a driver alguno, se refiere a la unidad o modelo, ya sabes, esa cosa que se llama "hardware".

No marees la perdiz y no confundamos el culo con las témporas, nada tiene que ver un RMA con lo que dices que ha sido una "admisión de problema" de nvidia.

Si repasas toda la información que te he puesto en los 6 links verás que hay gente que le petó de serie. Parece que aun no comprendes que estábamos hablando de la gráfica TOP, repito, TOP esas que precisamente no son baratas y se suelen sacar modelos subidos de vueltas, y lo que es peor, hubo muchos casos que petaron DE SERIE, REPITO, DE SERIE, pero es algo que veremos luego, tranquilo, no hay prisa. Si te crees que los del vídeo fueron los únicos es que no has repasado toda la información que circula en internet sobre el tema.



O sea, que las gráficas TOP tienen que tener un servicio y garantía MEJOR que las normales. Pues para estar en una tienda, quién lo diría. Verás, fallan más las gráficas TOP de gama alta como las GTX 580, las HD6970, que modelos de gama algo inferior como las GTX 570 o las HD6950. Revisa cualquier información sobre RMAs y llévate un buen susto.

Lo de serie, SERIE, menos mal que lo sabes de primera mano ;) , y que en foros y tal nunca la gente se columpia a la hora de describir los problemas ni nada para evitar reconocer posibles culpas (he visto escurrir muchas veces el bulto cuando el usuario ha hecho alguna burrada, no siempre, pero a alguno se le ha cazado). Que además da igual, aún siendo de serie el fallo... ¿eso confirma que es un fallo del driver? Vaya por dios. ¿En qué parte del proceso lógico tú descartas un fallo hard y se lo achacas a un driver cuando es más fácil, aplicando la navaja de Occam, pensar que es el hard cuando sobre todo ARDEN componentes muy concretos como VRMs? En fin.




PD: [sonrisa] , estás para dar muchas lecciones, sí. Ya se ha podido ver.

PD2: Escribir tochacos e intentar ir de profesor y perdonavidas, como puedes ver, no da la razón.

PD3:

Imagen


Voltaje tweak, sí, y overdrive seguro que también [hallow] . Por mi parte lo dejo contigo aquí, no voy a estropearles el hilo a las personas que busquen información sobre la serie 8 (cosa que a mi también me interesa).
[/quote]

Pues sí, por ejemplo, podría darte para empezar lecciones de LECTURA y COMPRENSION, que veo que no entiendes una nota de prensa de nvidia y vas por ahí diciendo que en ella admitieron no se qué de un driver "matatarjetas"... [beer] [beer] [beer] ¡¡que pone bien claramente que le tuvieron que meter una protección extra a la gráfica via driver!! (enhancement). No dice que hubiera ningún bug en los drivers anteriores. Y aún encima, te está diciendo claramente que este "enhancement" está pensado sobre todo para situaciones con OC, y más con el sobrevoltaje, que insisten, DESACONSEJAN. Las serie 500 ESTRENABAN un chips de control de TDP (que no tenían las 400 y bien que iban, aunque también "morían" bajo ciertos excesos), de primera generación.

Evidentemente la solución no es tan flexible como otras posteriores, pero es mejor que nada. AMD las introdujo anteriormente, primero por soft (4800) y después por hard (5800 y en adelante) estas medidas COMPLEMENTAN lo que es un buen diseño (o no) de la placa base. Pero si la placa donde va la gpu y demás elementos, no está diseñada para aguantar unos TDPs elevados.... ajustables via OC, es que es un error de diseño. No de driver. ¿No te extraña que sólo fallara una gráfica como la GTX 590 con un "bug del soft" que debería afectar igualmente a TODAS las 500? Vamos....

¿Te das cuenta que con cualquiera que fuera el driver, NO se recomienda NUNCA sobrevoltaje con las GTX 590 por parte de nvidia, tampoco con los parcheados o con el "enhancement"? En fín... ala, dejemos el tema que "no sé nada" pero tú sí, que te han devuelto dos gráficas y se las aceptaron para RMA el fabricante, "prueba" de que ¿nvidia reconocía su driver matatarjeta? y tal y cual... [tadoramo] [tadoramo]

PD: La cuestión es, deja de inventarte historietas (o creértelas, sea lo que sea por lo que s sigues erre que erre con lo de "driver matatarjeta"), no has puesto una puta evidencia, ésa es la verdad, más bien al contrario señalando el movimiento de nvidia via parcheo a base de cortar el OC via driver más que con otros modelos, y controlar mucho más el TDP por soft en las GTX 590. En serio, más cuando has comenzado tú con el tema de "supuestos mitos" sobre las AMD que no son ciertos, intentando desmentirlos (decías que no eran ciertos sus mayores RMAs, y eso que "vendes", anda que... también que no es cierto lo del driver de mejor calidad, y no sólo por lo que finalmente has admitido, hay mucho más), mientras a la vez dabas y das por bueno otro mito pero contra nvidia del que además no tienes pruebas. Eso es inventarse cuentos. Hasta lees en notas de prensa lo CONTRARIO de lo que pone.

Asunto ya aparcado, espero que aprendas a leer notas de prensa, que me has dejado alucinado con tu reinterpretación de la notita, seriosly. Aún sigo intentando ver dónde dice no se qué de drivers "matatarjetas". XD

Saludos.
Light Killuminati está baneado por "faltas de respeto"
Ya ves me rallao hasta yo que largo xDD pero hablando de KailKatarn con varias discusiones que ya tube con el pero que ya paso totalmente, aqui no! hacerlo en privado, que me llenais 50 paginas de poker!!! XD
wwwendigo escribió:Rollaco para KailKatarn:




No sólo estás negando lo relatado por páginas profesionales (6 links) con titulares como:

- "Old driver blows up GeForce GTX 590 cards"

Link:: http://www.bit-tech.net/news/hardware/2 ... -explode/1


- "Nvidia GeForce GTX 590 driver will kill your 3D card!"

Link:: http://hw-lab.com/nvidia-geforce-gtx-59 ... -card.html


- "NVIDIA Geforce GTX 590 Video Card Blows Up on Video – Forceware Drivers Blamed"

Link:: http://www.legitreviews.com/nvidia-gefo ... amed_10352

- "Driver causes geforce gtx 590 to burn"

Link:: http://www.ngohq.com/news/19650-driver- ... -burn.html


Aunque claro, entiendo que con el ego y los aires de superioridad que te gastas para ti páginas como bit-tech, hw-lab o legitreviews no son nada. Luego por descontado coges un comunicado oficial de nvidia (el cual, antes ni de verlo negabas completamente su existencia) sino que coges intentas darle la vuelta, intentar evitar a toda costa comentar cosas como "OR RUNNING STRESS APPS" que avisa claramente nvidia SIN MENCIONAR EN ALGUN MOMENTO NADA DE OVERCLOCK, CON SOLO STRESS APPs negando que petaban hasta de stock.

Está claro, tienes toooooooooda la razón. Discúlpeme, como pude atreverme si quiera a osar a llevarle la contraria.


Un saludo!


PD: Por lo menos podrías haberlo puesto todo sin SPOILER y seguir demostrando como hablas a las personas que encima te demuestran que estás equivocado.


De nada! [sonrisa]
Light Killuminati está baneado por "faltas de respeto"
http://www.muycomputer.com/2014/08/01/l ... septiembre

GTX 880 de NVIDIA verá la luz en septiembre de este año, esto es, en apenas un mes, aunque se tratará de un lanzamiento sobre papel.


seria lo mismo si dicen que sale en septiembre pero solo sobre papel, esto confirma lo de principios de octubre seria globalmente en tiendas, incluso antes si va tan bien XDDD

Es importante tener en mente que la GTX 880 no será el auténtico tope de gama de NVIDIA para la nueva generación, ya que ésta viene a ser un reemplazo del GK104 y no del GK110.

Con ese dato en mente podemos imaginar que la GTX 880 sería, probablemente, más potente que la GTX 770 y que la GTX 780, pero no superaría a las GTX TITAN ni a las GTX 780 Ti.

Finalmente se comenta que su precio podría rondar los 400 dólares, un precio que, francamente, se nos antoja demasiado bueno para ser verdad.


Vamos superiores a 780 y 400 dolares = 350€ por ahi, molaria no? quien sabe [carcajad]
Pues van a tener que precisar muy bien el tiro para que sea mas rapida que la 780 y mas lenta que la Titan, a no ser claro, que se refiera a las Titan Black, de todas formas demasiado rumor veo cuando aun ni se saben sus especificaciones.
Light Killuminati escribió:Ya ves me rallao hasta yo que largo xDD pero hablando de KailKatarn con varias discusiones que ya tube con el pero que ya paso totalmente, aqui no! hacerlo en privado, que me llenais 50 paginas de poker!!! XD



Oks, por eso lo puse ya con "spoiler", estilo último intento de raciocinio... XD

Es que me parece increíble que me diga que temas como éstos que tienen todas las cartas para un diseño muy "justito" del hard, son del soft porque lo dice nvidia en una nota.... donde no dice nada de eso. ¿?¿?

Y ya dejo el tema ahí, si tal privados pero si no nos hemos entendido hasta ahora, poco más se podrá hacer respecto a este tema.

----------------

De todas formas, de la serie GTX 800 mucho no se podrá hablar hasta pasado agosto, que es mes de poco o ningún movimiento, la verdad.

berez12 escribió:Habeis visto esto?
http://www.muycomputer.com/2014/08/01/l ... septiembre


Es un "rebote" de una noticia de videcardz, el cual a su vez es "rebotado" por wccftech, en el fondo son la misma noticia, no es que se haya "confirmado" por otra fuente lo de septiembre.

Aunque septiembre no es un mal mes para lanzamientos o anuncios, me parece un poco raro, igual adelantaron el tema (porque tarjetas fabricadas ya llevan tiempo andando por labs) por la salida de alguna gráfica nueva de AMD para septiembre, como los basados en Tonga y tal. De todas formas, no tengo claro cuándo AMD piensa sacar más artillería de "verdad", fuera de Tonga, así que... a saber.



Oyes KailKatarn:
Además de gustarte el insistir en enmierdar el hilo de las GTX 800, ¿hay alguna razón para que vengas con titulares de sites de baja calidad, y a la vez muestres ningún respeto no sólo por el hilo sino por la verdad al no molestarte en leerlos?

Mira qué he encontrado en el primero,:

However, the problem can only occur if you overclock or overvolt the card, and only if you use an older driver. The GeForce 267.52 driver that was originally given out to the press


¿Lo entiendes o necesitas que te lo traduzca? No tengo ningún problema, ¿eh? ¬_¬

Sólo con OC y OV, YYYYYYYY (operador lógico) con los drivers de salida. Que SI tenían protección de TDP pero INSUFICIENTE para una tarjeta tan sensible como la mencionada combinada con OC. Y lo que falla, que no te enteras, es que el TDP puede crecer ENORMEMENTE si se hace OC y la electrónica no está diseñada para aguantar. [beer]

In a statement, Nvidia explained that ‘in the web release driver of GeForce GTX 590, we have added some important enhancements to our overcurrent protection for overclocking. We recommend anyone doing overclocking or running stress apps to always use the latest web driver to get the fullest protection for your hardware.’

The company also stressed that the card is completely safe, saying that customers could 'rest assured that the GTX 590 operates reliably at default voltages.' You can see a video of the GTX 590 3GB failing below, although Nvidia claims that the damage was caused by a user overvolting the card's GPUs by as much as 1.2V; a huge increase over the default voltage of 0.91 to 0.96V.


Leer, leer.... esa cosa tan difícil!!!

Mira, esto me recuerda lo que te he dicho antes y te la suda, mira cómo lo señala nvidia también, el disparate del consumo, para que veas que no me lo invento:

http://en.wikipedia.org/wiki/CPU_power_dissipation#Sources

"The dynamic power consumed by a CPU is approximately proportional to the CPU frequency, and to the square of the CPU voltage"


Pues eso, parte de 0,91, subes a 1,2V, y tienes el equivalente de subir una GTX 580 a 1,4V, o sea, una fritanga que ni el control del TDP (estándar de los demás modelos) es capaz de evitar.

Ni lees lo que linkas, porque si lo leyeras en vez de quedarte con titulares, verías que unos son "rebotes" de lo que se inventan en swocers (foro) y otro por sensacionalista que fuera el titular, es una noticia que te contradice plenamente (de hecho el "problema" lo define claramente, no ya citando a nvidia, sino en general, con el OC con sobrevoltaje, esto es, que ME DA LA RAZON).

Pues eso, deja el tema, que estás enmierdando el hilo, y eres tú el que empezaste con el temita de "desmentir mitos" de AMD, mientras a la vez afirmabas otros de nvidia, tú, que eres así de neutral.
En el hilo de las GTX 800 además.

Ah, y si pongo spoiler es para enmierdar lo menos posible a quien no le interese con texto visible que igual no le interese, quien quiera "ver cómo le hablo al pobrecito ehh.. .¿cómo te llamas?" pues lo tiene fácil. No vayas de víctima porque no te guste que te pongan los puntos sobre las íes. Sólo haces perder el tiempo con fuentes que ni te molestas en leer, por favor. Eso es lamentable, no te das cuenta del nivel bajísimo de tus "fuentes" o ni siquiera las lees cuando no son repeticiones de una acusación "foreril" cualquiera.
wwwendigo escribió:Oyes KailKatarn:



En fin ... lo único decir que conste que no fui yo el primero en escribir tochos para negar la palabra de nadie y tratar de ningunear. Por descontado tampoco tengo intención de ensuciar el hilo.

Fin del tema por mi parte también, ya está todo escrito y que cada cual saque sus impresiones.
Light Killuminati está baneado por "faltas de respeto"
si segun mas o menos algo es cierto y es superior a 780 pero inferior a 780ti (cuando 780 ghz se pasa la 780ti)
"supongamos" que la 880 sera 5fps superior a 780, porque 10fps+ es ti. Con suerte en juegos cpu dependientes la serie 800 sacara 3-5fps mas por su desconocido chip ARM. despues de suponer volvemos a ver que seria
pasar de 700 a 800 va ser que no, Parece que tendran un precio y rendimiento cercano. Pero yo! viniendo desde 580 de cabeza voooy! que hasta la 780 rinde doble y calienta mitad [boing] y con suerte mas economico XD que aun asi 350-400€ de economico pa mi no mucho. Solo porque la media valgan esos precios, pa mi todas valen demasiado xD Que en 2 años valdra 50% XD o que jode mas, sacan una mejor y la venden a 150€...... XDDD
Light Killuminati escribió:si segun mas o menos algo es cierto y es superior a 780 pero inferior a 780ti (cuando 780 ghz se pasa la 780ti)
"supongamos" que la 880 sera 5fps superior a 780, porque 10fps+ es ti. Con suerte en juegos cpu dependientes la serie 800 sacara 3-5fps mas por su desconocido chip ARM. despues de suponer volvemos a ver que seria
pasar de 700 a 800 va ser que no, Parece que tendran un precio y rendimiento cercano. Pero yo! viniendo desde 580 de cabeza voooy! que hasta la 780 rinde doble y calienta mitad [boing] y con suerte mas economico XD que aun asi 350-400€ de economico pa mi no mucho. Solo porque la media valgan esos precios, pa mi todas valen demasiado xD Que en 2 años valdra 50% XD o que jode mas, sacan una mejor y la venden a 150€...... XDDD


Yo espero que si le llaman GTX 880, ésta sea aunque por poco más rápida que la GTX 780 Ti. Tiene que sacarle rendimiento. Yo hice cálculos respecto a una GTX 770 teniendo en cuenta mis cábalas de su estructura interna (GM204) y lo que he visto en su momento con una GTX 750 ti (tarjeta muy cumplidora, por cierto).

La GTX 750 Ti rinde algo así como el 55% de una GTX 770 (lo cual está muy bien), y yo estimo que en GPCs y otros puntos, dado el tamaño de la die del GM204 (que he medido a "ojímetro" usando elementos estándares de las imágenes robadas, como longitud del bus pci-e, y tras esto recalculando el tamaño del die expuesto), es de unos 460-470 mm2, ahí cabrían perfectamente 3X los transistores de un GM107 de la GTX 750 Ti. Así que debería haber por lo menos 3 GPCs en el chip, quizás 4 GPCs, (3x-4x la capacidad de cálculo, shaders, TMUs, de la GTX 750 Ti) y, dado que el bus es ya conocido, en este caso daría margen para los "extras" que lleve el GM204 (y/o el cuerto GPC).

En una situación muy positiva respecto a la GTX750Ti y la GTX 770, sería algo así como 3X o incluso 4X su rendimiento, esto daría 165% o 220% del rendimiento de una GTX 770. A mí me parece una bestiada el último punto y me cuesta creerlo en 28 nm, por eficiente que haya visto a Maxwell, quizás sí me creo con más facilidad eso del 165% como tope.

Una gráfica con esa potencia es de por sí más rápida y con cierto margen que la 780 Ti, el problema que veo difícil solucionar es cuando el rendimiento esté limitado por ROPs pura y duramente. Pero bueno, ya iremos viendo.


KailKatarn escribió:
wwwendigo escribió:Oyes KailKatarn:



En fin ... lo único decir que conste que no fui yo el primero en escribir tochos para negar la palabra de nadie y tratar de ningunear. Por descontado tampoco tengo intención de ensuciar el hilo.

Fin del tema por mi parte también, ya está todo escrito y que cada cual saque sus impresiones.


Pues vale, pero yo no te ninguneo, lo que no permito es que me digas que algo es cierto cachondeándote de mí con falsas fuentes "confirmando" cosas o interpretando al revés notas de prensa, no me hace ni pizca gracia que se me intente colar información que no es tal cual me la intentan pasar. Tú dijiste driver matatarjetas, y te pedí pruebas, no las hay, por mucho titular bonito, ergo te he desmontado todo lo que has "aportado", porque ni te lo lees aparentemente (que te digo que hay que LEER, que ponen cosas distintas si se lee PLENAMENTE las noticias). Es la diferencia entre leer titulares y creérselos a pies juntillas, y leer detenidamente la noticia y con espíritu crítico.

Si soy duro, es porque me has hecho perder el tiempo leyendo "noticias" y supuestas confirmaciones tuyas que no lo son, así de simple. En mi vida he visto morir una gráfica por drivers, NUNCA, y eso tras más de 20 años trasteando con todo tipo de material y de todas las marcas.

Lo más parecido que he visto a un auténtico fallo/muerte por driver es el tema de parada de ventiladores con un driver añejo de nvidia de hace años, pero ni eso justifica la muerte de una tarjeta (porque si se para un ventilador por culpa de un driver, y si quieres pruébalo, la tarjeta se apagará SOLA al cabo de un tiempo cuando supere un disparador de temperatura máxima, o simplemente colgando y apagando el equipo). De hecho, por este problema ninguna gráfica debería morirse. A mí alguna vez me pasó por problemas con un ventilador que una gráfica se pusiera "ardiendo" y sin fallo alguno más que un apagado o cuelgue, revisión de qué pasaba, y solución del problema y a tirar millas. La temperatura de trabajo de una gráfica puede ser bestial antes del fallo real, y los problemas de TDP excesivo quemando VRMs y similares, SIEMPRE son un problema de diseño, no de soft.
Me parece muy bonito soñar con 400 dolares, pero si las 780 están por 450€... Pues minimo las 880 estarán por 500/550 por novedad.

Q esto es españa señores ... Fijaros en los ultimos procesadores de Intel , los Devil Canion,en dolares salian al mismo precio q los anteriores , llegan aquí y salen entre 50/70€ mas caros...
Light Killuminati está baneado por "faltas de respeto"
evilkainn_ escribió:Me parece muy bonito soñar con 400 dolares, pero si las 780 están por 450€... Pues minimo las 880 estarán por 500/550 por novedad.

Q esto es españa señores ... Fijaros en los ultimos procesadores de Intel , los Devil Canion,en dolares salian al mismo precio q los anteriores , llegan aquí y salen entre 50/70€ mas caros...


Hay algunas 780 por unos euros menos pero lo tienes en cuenta como si la gtx780 valdra 450 durante todo el 2014, lo mas probable que pronto empezara a bajar de precio y mas aun cuando salga la 800. Siempre lo hacen.

No estamos soñando con 400$ para pagar que mal sueño! XD, esque los rumores ponen cifra y rumores lo hacen imaginar hasta que lo oficial diga lo contrario xD anque parece que no valdra 600€ como todas gama top geforce en su salida.

Saludos!
Pues mira q estoy esperando a la salida de estas tarjetas para renovar mi PC, pero como digo, dudo q salgan tan baratas como dicen..

Y sobre q bajaran las 780/770.. Si.. Después de bastantes meses.. Y bajaran 50€...

Al final pillo uno gama media para ir tirando y el año q viene pillo una top
¿Se sabe algo de si la serie GTX 8XX soportarã finalmente directX12..?
Teóricamente las series 700 soportan DX12 (http://blogs.nvidia.com/blog/2014/03/20/directx-12/), así que las 800 por supuesto que lo soportarán.
DaNi_0389 escribió:Pues van a tener que precisar muy bien el tiro para que sea mas rapida que la 780 y mas lenta que la Titan, a no ser claro, que se refiera a las Titan Black, de todas formas demasiado rumor veo cuando aun ni se saben sus especificaciones.


bueno la 780 tiene 2 SMX desactivados respecto a la Titan Imagen y la titan tiene 1 SMX desactivado respecto a la 780ti y a la Titan Black.. Imagen si ambas funcionan a la misma velocidad , 780 vs titan , esta claro que la Titan a secas es mas rápida , de ahí puede venir esa afirmación
R0NiN escribió:Teóricamente las series 700 soportan DX12 (http://blogs.nvidia.com/blog/2014/03/20/directx-12/), así que las 800 por supuesto que lo soportarán.


Es una media verdad, el soporte para DX12 primero empieza desde Fermi para arriba, TODAS las gráficas DX11 de nvidia, en AMD a partir de GCN.

Pero una cosa es soportar el API y otra que incluya algunas características nuevas para acelerar por hard que se suponen vendrán con DX12 (yo no recuerdo ni siquiera si se han mencionado por microsoft), esto no será así seguro con ninguna de las DX11 existentes de nvidia, ni tampoco con las basadas en Maxwell cuanto menos. En cierta forma es como la compatibilidad con DX11.1 o 11.2, realmente las novedades puramente basadas en hard son pocas, y muchas gpus de nvidia no las soportan directamente, pero sí a través de "emulación" de éstas. La mayoría de novedades de estas subversiones se centran más en cambios a nivel de capas de soft demasiado altas y lejanas a lo que es la pura aceleración de técnicas 3D en la gpu.

De todas formas, parece que el caso de DX12 va a ser incluso más exagerado en esta dirección, va a ser más un rediseño del API para hacerla más eficiente y con una gestión de recursos más novedades de técnicas a alto nivel, que otra cosa. Aún así, alguna cosa sí habrá que sólo funcionará a plena velocidad en chips puros DX12, pero a saber cuándo, de VERDAD, ambas marcas tendrán esos chips (o si representa alguna importancia, porque al final es más importante un soporte importante de características "basales" del API como el caso de las Command Lists de DX11, infrautilizadas en AMD a pesar de ser una característica de DX11 básica, que meter soporte de técnicas muy concretas y aisladas en el hard, cuando al final no van a tener un uso importante).

Yo no me rompería mucho la cabeza con el soporte DX12, aún queda mucho por pulir y programar correctamente, y a tope, con DX11.
Yo creo que 600 lereles no nos los quita nadie (hablo de la gama alta).

Nvidia se ha subido a la parra de los precios y dudo que se baje.

Un saludo
El soporte TOTAL(repito, total, de toda la API) se dice que la serie 800 no lo tendra y que en cambio la siguiente serie de AMD si, pero seguiran siendo GCN(y no se yo si GCN se puede estirar mas y ganar rendimiento, de hecho lo dudo).

Yo si tuviera una grafica actual(R9, 770 hacia arriba) no cambiaria este año, parece que ninguna de las opciones va a merecer la pena. De hecho la tengo y no voy a cambiarla vamos XD
Light Killuminati está baneado por "faltas de respeto"
Según el "graphics marketing manager" de Gigabyte, este septiembre llegarán las GeForce GTX 800 de NVIDIA bajo los modelos G1 Gaming Series de la compañía.

Estas tarjetas, entre las que posiblemente veamos las rumoreadas GTX 880 con arquitectura Maxwell, llegarán con una nueva versión del disipador WindForce de la compañía capaz de disipar 450W e incluso 650W con un nuevo modelo más grande para las tarjetas más potentes.

Según Gigabyte, las NVIDIA GeForce GTX 800 llegarán en septiembre, Imagen 1

En principio, esperan tenerlas en el mercado para finales de septiembre, aunque hay posibilidad de que se retrase hasta los primeros días de octubre, sea como sea, el lanzamiento es inminiente y parece que veremos movimiento en el mercado de tarjetas gráficas.

http://www.hispazone.com/Noticia/7072/S ... embre.html



Yo si piyo 870 esperare a la serie gtx900 o gtx1000, con la gtx870 tampoco hay prisa.
Si piyo gtx880 pasare de serie gtx900, todo depende del precio. Que aun no sabemos. Todo son rumores.

Pero en 1-2 meses ya tendremos info o datos y con suerte alguna prueba de estas gpus. Saludos, mientras pues usar la imaginacion y dejar la negartividad. [oki]


Por el API, se ha puesto de moda si pero no es lo mejor del pastel, pero yo ni lo probe ni me atrae. Aparte soy usuario de Nvidia y con estas me quedare. Vi fotos que API gana fps pero pierde calidad visual. Asi gana cualquiera. Aparte Nvidia dice que cuando se use directx12, api no va tener ni una ventaja.
Lo que no me gustaria esque si directx12 seria desde win8, prefiero el 7 mucho mas.
Sobre Dx 12... Sera compatible (Como todas las graficas compatibles con dx 11 xD), pero no aprovechara todas las posibilidades, se supone. Al parecer la primera serie de nvidia 100% preparada para Dx 12 sera la 900.
¿Creéis que la llegada de los modelos 800 provocaran una bajada de precio sobre los 700 nada mas salir al mercado?

PAZ
Nueva ''informacion'' esta vez de la GTX 870, unas supuestas especificaciones y unos resultados en 3dmark11
http://wccftech.com/geforce-gtx-870-specs-1664-cores-4gb/

3dmark11
Imagen


3dmark11 extreme
Imagen


Y esto es lo que saca una 780 de refrencia en extreme
Imagen
Entonces si los resultados son ciertos no suponen un salto significativo con respecto a la anterior generacion de graficas... la 880 sera mejor que la 780 pero no demasiado, y la 870 es mas o menos una 780
anikilador_imperial escribió:Entonces si los resultados son ciertos no suponen un salto significativo con respecto a la anterior generacion de graficas... la 880 sera mejor que la 780 pero no demasiado, y la 870 es mas o menos una 780



Como ha pasado siempre, además, si se mantienen los 28nm tampoco se puede sobrecargar ya mucho más ese nodo de fabricación.
DaNi_0389 escribió:Nueva ''informacion'' esta vez de la GTX 870, unas supuestas especificaciones y unos resultados en 3dmark11
http://wccftech.com/geforce-gtx-870-specs-1664-cores-4gb/

3dmark11
Imagen


3dmark11 extreme
Imagen


Y esto es lo que saca una 780 de refrencia en extreme
Imagen



Bueno, esto sólo confirma mis anteriores cábalas, de hace un mes, me autocito porque vamos... al dedillo todo:


wwwendigo escribió:Bueno, viendo las últimas fotos filtradas, y desarrollando mejor el tema en mi blog : http://bit.ly/TPG582, yo digo que para otoño seguramente veamos esta gráfica en versión final.

Así con todo, las especificaciones más posibles que hipotizo serían:


    458 mm2 (más de 3x el área del GM107). Rango entre 445-460 mm2.
    5200-5900 millones de transistores. Posiblemente más hacia arriba que a abajo.
    Bus de memoria de 256 bits (muy baja posibilidad de uno de 512 bits).
    Memorias de, por lo menos 7GHz, y configuraciones de memoria de hasta 8 GB (más que posiblemente el modelo típico sería de 4GB).
    Posiblemente sea una gráfica con unos 250W de TDP oficial.
    32 ROPs en relación al bus de datos usado.
    4 MB de caché L2 o nivel 2.
    3 GPCs.
    15 SMMs.
    1920 CUDA cores.
    120 TMUs.
    Rendimiento entre un 20% más rápido que una GTX 770, a un 60% más rápido, según la situación.


Que sería lo que viene saliendo en las últimas fotos, lo que en teoría saldrá entre otoño y finales de año, y que en teoría estará fabricado a 28 nm. No veo opción para un GM200 aún, y creo que se volverá a sacar un chip de gama media-alta, en este caso con un tamaño ya bastante respetable, pero siguiendo la tónica del GK104 y las GTX680/770, y que esos rumores de 3200 CU y demás no tienen ni puto sentido, en un chip de 256 bits y gama media-alta.

Que maxwell es mucho más eficiente, no veo yo 5 GPCs en un chip de 256 bits ni la utilidad de semejante atraganto de hard de ejecución.

Ya veremos, pero mi particular apuesta es ésta (el consumo he sido muy conservador hacia arriba, seguramente no llegará a 200W, pero por si acaso, por distintas razones como tipos de memoria usadas, posible afinamiento de voltajes para máximo rendimiento de maxwell, etc).

PD: Lo del ARM nos la suda a la hora de jugar, si los hay será más bien para temas de gpgpu.
Aprovecho para felicitarte @wwwendigo por tus excelentes artículos sobre Mantle y el GM204, disfrute muchísimo leyéndolos.
Light Killuminati está baneado por "faltas de respeto"
DaNi_0389 escribió:Nueva ''informacion'' esta vez de la GTX 870, unas supuestas especificaciones y unos resultados en 3dmark11
http://wccftech.com/geforce-gtx-870-specs-1664-cores-4gb/

3dmark11
Imagen


3dmark11 extreme
Imagen


Y esto es lo que saca una 780 de refrencia en extreme
Imagen


Iba a colgarlo ahora pero ya te adelantastes! XDDD [carcajad]

Pues se supon que son los datos de 870 que dicen que rendira como una 290.


En lo que respecta al rendimiento en 3DMark 11 la GTX 870 consigue superar a la GTX 780 con los ajustes en Extreme, y queda muy cerca del resultado que obtiene en la misma la R9 290 de AMD



Pues la gente que tiene 780/770 supongo que no les atrae 870/880. Pero teniendo 480/580/680 es otro tema [risita] las 680 deberian pronto salir del mercado como paso con las 580 se perdieron con salida de 700.

Ya queda 1 mes para saber que pasara en el septiembre! XDDD Saludos



[wwwendigo]Lo del ARM nos la suda a la hora de jugar, si los hay será más bien para temas de gpgpu.


Alomejor ati, ami no me la suda y menos sin saber lo que hara. Ami me interesa a ver que pasara en juegos cpu dependientes y con cpu AMD. Cuando Nvidia dice para juegos CPU dependientes quere decir justamente lo que dice, Porque ni tu ni nadie lo ha probado pa decir que no va ser nada o adivinar que es peor XD. Si no es pa jugar comprarse una Nvidia Tesla que ya llevan y llevaban chip ARM. xDDDD porque las gtx800 son g1= gaming.

(que es tesla? = Tesla: alta computación y supercomputación | NVIDIA)
Yo viendo a las frecuencias que viene de casa la supuesta 870 (1178Mhz con boost) me hace dudar si vienen apretadas de fabrica y no van a tener demasiado margen para ocear, o quiza por el contrario permiten subir con relativa facilidad otros 200Mhz por encima del Boost, la 780 de la captura que hace 993Mhz con boost es bastante probable que tenga unos 150/200Mhz de margen para ocear con relativa facilidad.

Veremos, pero como vengan ya subiditas de fabrica no seria muy descabellado que la 780ti oceada estuviese por encima de la 880 en rendimiento.
refloto un poquito esto ( [qmparto] )
nuestro gozo en un pozo... parece que no habrá serie 800, solo para pc premontados [buuuaaaa]

http://www.guru3d.com/news-story/nvidia ... x-990.html

ahora dicen que se llamarán 9xx XD
En español

elchapuzasinformatico.com/2014/08/nvidia-geforce-gtx-980-y-gtx-970-llegaran-el-19-de-septiembre/
O.o

¿Y esta serie 900 va a ser la que venga con DirectX12? ¿O tendremos que esperar a una hipotética serie 1000?

No me lo esperaba...
Según la noticia lo que se iba a llamar 800 se llamará 900. Nos quedamos como estamos XD
paconan escribió:refloto un poquito esto ( [qmparto] )
nuestro gozo en un pozo... parece que no habrá serie 800, solo para pc premontados [buuuaaaa]

http://www.guru3d.com/news-story/nvidia ... x-990.html

ahora dicen que se llamarán 9xx XD


Yo no le haría casos a rumores provenientes de videocardz si además se niegan a identificar fuentes. Han metido tantas veces la pata que sería una temeridad. Hasta que una fuente fiable diga lo contrario, para mí estas tarjetas siguen siendo la línea GTX 8xx.

Si les hiciera caso, me estaría creyendo que automágicamente nvidia iba a sacar gpus de 20 nm AHORA (rumor más reciente que las fotos del prototipo de GM204, y otros temas relacionados con algo "sustancial" que demuestra el uso de chips de 28 m), que el GM204 tendría 3200 cores y 5 GPCs además de otras disparatadas specs, me creería también que nvidia no va a usar el proceso de 20 nm y que saltaría directamente a 16 nm.... demasiadas cosas contradictorias.

Fiabilidad cero.

Senegio escribió:O.o

¿Y esta serie 900 va a ser la que venga con DirectX12? ¿O tendremos que esperar a una hipotética serie 1000?

No me lo esperaba...


El soporte de DX12 ya viene desde las Fermi en adelante. DX12 básicamente consiste más en un rediseño del API para hacerla más ligera que en un set de características nuevas concretas. Así que puedes estar tranquilo, que las cuatro chuminadas de "soporte hard" son muy específicas y existen "workarounds" en el soft del API para los chips que no lo soporten directamente.

Para lo que se ha diseñado DX12, la compatibilidad en nvidia viene desde Fermi, con AMD desde GCN. Y no hay más.
wwwendigo escribió:
Senegio escribió:O.o

¿Y esta serie 900 va a ser la que venga con DirectX12? ¿O tendremos que esperar a una hipotética serie 1000?

No me lo esperaba...


El soporte de DX12 ya viene desde las Fermi en adelante. DX12 básicamente consiste más en un rediseño del API para hacerla más ligera que en un set de características nuevas concretas. Así que puedes estar tranquilo, que las cuatro chuminadas de "soporte hard" son muy específicas y existen "workarounds" en el soft del API para los chips que no lo soporten directamente.

Para lo que se ha diseñado DX12, la compatibilidad en nvidia viene desde Fermi, con AMD desde GCN. Y no hay más.


Lo digo porque juraría haber leído hace unas semanas en este hilo que la serie 700 y 800 iban a tener soporte para DX12 pero no con todas las funcionalidades, cosa que sí haría la 900
Solo es un cambio de nombre, en vez de ser gtx800 serán gtx900, nada mas.
wwwendigo escribió:
paconan escribió:refloto un poquito esto ( [qmparto] )
nuestro gozo en un pozo... parece que no habrá serie 800, solo para pc premontados [buuuaaaa]

http://www.guru3d.com/news-story/nvidia ... x-990.html

ahora dicen que se llamarán 9xx XD


Yo no le haría casos a rumores provenientes de videocardz si además se niegan a identificar fuentes. Han metido tantas veces la pata que sería una temeridad. Hasta que una fuente fiable diga lo contrario, para mí estas tarjetas siguen siendo la línea GTX 8xx.

Si les hiciera caso, me estaría creyendo que automágicamente nvidia iba a sacar gpus de 20 nm AHORA (rumor más reciente que las fotos del prototipo de GM204, y otros temas relacionados con algo "sustancial" que demuestra el uso de chips de 28 m), que el GM204 tendría 3200 cores y 5 GPCs además de otras disparatadas specs, me creería también que nvidia no va a usar el proceso de 20 nm y que saltaría directamente a 16 nm.... demasiadas cosas contradictorias.

Fiabilidad cero.

Senegio escribió:O.o

¿Y esta serie 900 va a ser la que venga con DirectX12? ¿O tendremos que esperar a una hipotética serie 1000?

No me lo esperaba...


El soporte de DX12 ya viene desde las Fermi en adelante. DX12 básicamente consiste más en un rediseño del API para hacerla más ligera que en un set de características nuevas concretas. Así que puedes estar tranquilo, que las cuatro chuminadas de "soporte hard" son muy específicas y existen "workarounds" en el soft del API para los chips que no lo soporten directamente.

Para lo que se ha diseñado DX12, la compatibilidad en nvidia viene desde Fermi, con AMD desde GCN. Y no hay más.


hasta que no salgan son todo rumores, en algo nos tenemos que entretener [+risas]

sobre los dx12, esto es que que leí (enlace seleccionado al azar tras una busqueda google, tan solo me acordaba de "punta icerberg" y "soporte parcial")
http://techreport.com/news/26210/direct ... t-gen-gpus

edito: un par de enlaces en castellano
http://www.noticias3d.com/noticia.asp?idnoticia=60416
http://www.itsitio.com/detalleNota2.php ... net.com.ar
Viendo los resultados de la 870 en 3DMark, ¿por qué colocan a la 970 tan arriba?

Imagen

A ver si es que yo no me enterado de la noticia, pero ¿no seria más que un cambio de nombre, y aquí se habrian columpiado de lo lindo no?
Es eso, un cambio de nombre, lo que fuera la 870 sería la 970. Pero hay que fiarse poco como dice Wwwendigo.

Según el rumor:

870=970

880=980
No encuentro razones para dar veracidad al rumor, tan solo es uno mas entre todos los que han aparecido este mes.
paconan escribió:
wwwendigo escribió:
paconan escribió:refloto un poquito esto ( [qmparto] )
nuestro gozo en un pozo... parece que no habrá serie 800, solo para pc premontados [buuuaaaa]

http://www.guru3d.com/news-story/nvidia ... x-990.html

ahora dicen que se llamarán 9xx XD


Yo no le haría casos a rumores provenientes de videocardz si además se niegan a identificar fuentes. Han metido tantas veces la pata que sería una temeridad. Hasta que una fuente fiable diga lo contrario, para mí estas tarjetas siguen siendo la línea GTX 8xx.

Si les hiciera caso, me estaría creyendo que automágicamente nvidia iba a sacar gpus de 20 nm AHORA (rumor más reciente que las fotos del prototipo de GM204, y otros temas relacionados con algo "sustancial" que demuestra el uso de chips de 28 m), que el GM204 tendría 3200 cores y 5 GPCs además de otras disparatadas specs, me creería también que nvidia no va a usar el proceso de 20 nm y que saltaría directamente a 16 nm.... demasiadas cosas contradictorias.

Fiabilidad cero.

Senegio escribió:O.o

¿Y esta serie 900 va a ser la que venga con DirectX12? ¿O tendremos que esperar a una hipotética serie 1000?

No me lo esperaba...


El soporte de DX12 ya viene desde las Fermi en adelante. DX12 básicamente consiste más en un rediseño del API para hacerla más ligera que en un set de características nuevas concretas. Así que puedes estar tranquilo, que las cuatro chuminadas de "soporte hard" son muy específicas y existen "workarounds" en el soft del API para los chips que no lo soporten directamente.

Para lo que se ha diseñado DX12, la compatibilidad en nvidia viene desde Fermi, con AMD desde GCN. Y no hay más.


hasta que no salgan son todo rumores, en algo nos tenemos que entretener [+risas]

sobre los dx12, esto es que que leí (enlace seleccionado al azar tras una busqueda google, tan solo me acordaba de "punta icerberg" y "soporte parcial")
http://techreport.com/news/26210/direct ... t-gen-gpus

edito: un par de enlaces en castellano
http://www.noticias3d.com/noticia.asp?idnoticia=60416
http://www.itsitio.com/detalleNota2.php ... net.com.ar


Sí, pero los cambios son ridículamente mínimos, algo así como las novedades del hard DX11.1 y 11.2, formas de acelerar alguna operación muy concreta, nada de auténticas novedades, en el texto de techreport así lo indican:

So far, Microsoft has mentioned only two DX12 features that will need new hardware: new blend modes and something called conservative rasterization, which can apparently help with object culling and hit detection. Neither of those additions sounds hugely groundbreaking, but as Tamasi hinted, they may just be the tip of the iceberg. We'll probably have to wait for another announcement from Microsoft to find out more.


Esas novedades me suenan tan apasionantes como irme a un concierto de Bisbal con un grupo de adolescentes cargadas de acné, vamos. [triston] [triston]

Chuminadas, al final ni se usarán, y cuando se usen, acelerarán ligeramente en algunos casos el rendimiento, pero últimamente DX no ofrece novedades de relieve, es más importante que lo que se acelere hoy en día, de DX11 básico, se haga bien.

Aún seguimos usando la teselación de forma muy moderada, por culpa de implementaciones de esta técnica un poco... flojas. Si se usara el potencial visto desde las tarjetas Fermi en teselación, otro gallo nos cantaría (y eso que los chips actuales son más potentes, pero Fermi sigue sin ser batido en teselación pesada por el rival, las cosas están así).

Y quien dice teselación, dice cualquier otra característica que, sí o sí, una aplicación DX11 de pro vaya a usar. Que al final va a ser eso DX12, una forma de conseguir volver más ligera a DX12 y poco más. Hay mucho que explotar de las técnicas de DX11 para plantearse nuevas revisiones del API de relevancia, al programar. Por eso no hay básicamente chicha en las iteraciones de ahora de DX11, y parece que tampoco con DX12.
A mi lo que me preocupa de DX12 realmente es, que si, que a priori va a ser compatible por que se basa en hacer una API mas ligera, pero por otro lado se incluiran una serie de novedades graficas que las que no son nativas DX12 en la practica no puedan usar y no se por que los fabricantes estan a la espera de movimientos del rival para ver si permiten que finalmente sean compatibles o no, o acaban agarrándose a la excusa de que DX12 lleva mas mejoras bla bla bla.
6705 respuestas
1, 2, 3, 4, 5135