[Hilo Oficial] Nvidia Pascal

Beatwin escribió:
gothnux escribió:Cuando una gama o serie pasa a legacy (así hizo Nvidia con Kepler en cuanto salio Maxwell) dejan de darle soporte en los nuevos y próximos juegos. Por lo tanto, hasta esos últimos drivers esa arquitectura ha sido explotada, a raíz de ahí "que el cielo nos coja confesados".


La gama GTX 700 no ha pasado a legacy y te lo demuestro con información oficial dada por NVIDIA. Últimos drivers (365.10) publicados el 2 de Mayo de 2016:

Prior to a new title launching, our driver team is working up until the last minute to ensure every performance tweak and bug fix possible makes it into the Game Ready driver. As a result, you can be sure you’ll have the best day-1 gaming experience for your favorite new titles.

GeForce 900 Series:

GeForce GTX TITAN X, GeForce GTX 980 Ti, GeForce GTX 980, GeForce GTX 970, GeForce GTX 960, GeForce GTX 950

GeForce 700 Series:

GeForce GTX TITAN Z, GeForce GTX TITAN Black, GeForce GTX TITAN, GeForce GTX 780 Ti, GeForce GTX 780, GeForce GTX 770, GeForce GTX 760, GeForce GTX 760 Ti (OEM), GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 745, GeForce GT 740, GeForce GT 730, GeForce GT 720, GeForce GT 710, GeForce GT 705

GeForce 600 Series:

GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650, GeForce GTX 645, GeForce GT 645, GeForce GT 640, GeForce GT 635, GeForce GT 630, GeForce GT 620, GeForce GT 610, GeForce 605

GeForce 500 Series:

GeForce GTX 590, GeForce GTX 580, GeForce GTX 570, GeForce GTX 560 Ti, GeForce GTX 560 SE, GeForce GTX 560, GeForce GTX 555, GeForce GTX 550 Ti, GeForce GT 545, GeForce GT 530, GeForce GT 520, GeForce 510

GeForce 400 Series:

GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460 SE v2, GeForce GTX 460 SE, GeForce GTX 460, GeForce GTS 450, GeForce GT 440, GeForce GT 430, GeForce GT 420

http://www.nvidia.com/download/driverRe ... 2069/en-us



Por otra parte está el driver 341.95 publicado el 16 de Marzo de 2016 donde se limitan a realizar actualizaciones de seguridad o de mantenimiento, con los siguientes productos donde NO está la serie GTX 700:

Este controlador añade actualizaciones de seguridad para GPUs con arquitectura Tesla.

GeForce 400 Series:

GeForce 405

GeForce 300 Series:

GeForce GT 340, GeForce GT 330, GeForce GT 320, GeForce 315, GeForce 310

GeForce 200 Series:

GeForce GTX 295, GeForce GTX 285, GeForce GTX 280, GeForce GTX 275, GeForce GTX 260, GeForce GTS 250, GeForce GTS 240, GeForce GT 230, GeForce GT 240, GeForce GT 220, GeForce G210, GeForce 210, GeForce 205

GeForce 100 Series:

GeForce GT 140, GeForce GT 130, GeForce GT 120, GeForce G100

GeForce 9 Series:

GeForce 9800 GX2, GeForce 9800 GTX/GTX+, GeForce 9800 GT, GeForce 9600 GT, GeForce 9600 GSO, GeForce 9600 GSO 512, GeForce 9600 GS, GeForce 9500 GT, GeForce 9500 GS, GeForce 9400 GT, GeForce 9400, GeForce 9300 GS, GeForce 9300 GE, GeForce 9300 SE, GeForce 9300, GeForce 9200, GeForce 9100

GeForce 8 Series:

GeForce 8800 Ultra, GeForce 8800 GTX, GeForce 8800 GTS 512, GeForce 8800 GTS, GeForce 8800 GT, GeForce 8800 GS, GeForce 8600 GTS, GeForce 8600 GT, GeForce 8600 GS, GeForce 8500 GT, GeForce 8400 GS, GeForce 8400 SE, GeForce 8400, GeForce 8300 GS, GeForce 8300, GeForce 8200, GeForce 8200 /nForce 730a, GeForce 8100 /nForce 720a

ION (Desktops):

ION

ION LE (Desktops):

ION LE

http://www.nvidia.es/download/driverRes ... /100337/es


Y ya por último están los drivers legacy para tarjetas antiguas, desde la Geforce 2, hasta la serie 7, con soporte para Windows 98:

http://www.nvidia.com/object/wdm_drivers.html


Como ves, y así lo demuestra la documentación oficial de NVIDIA: ( http://us.download.nvidia.com/Windows/3 ... pdated.pdf ) las tarjetas GTX 700 disfrutan de las últimas actualizaciones y optimizaciones para los juegos más recientes lanzados al mercado.

Por lo cual ese despecho que sientes hacia NVIDIA no está justificado en el sentido de basarte en una afirmación falsa ("la anterior generación vea mermada su rendimiento con la no implementación de las mejoras necesarias en los lanzamientos de los juegos nuevos en los drivers").

Es falso por la información dada por NVIDIA, y es falso además por la información dada en multitud de páginas web como Noticias3D donde foreros que han hecho pruebas y testeos certifican que las tarjetas GTX 700 mejoran su rendimiento con los nuevos drivers, y además de forma muy notable:

Imagen


Viva la desinformación y viva el querer manipular lo que no se puede manipular:

¿Me podrías explicar justo en donde pone Nvidia que todo ese listado de gráficas tengan las mejoras correspondientes a los juegos?

Por que según tu Link, justo el mismo donde has querido copiar y pegar todo en uno, lo pone bien clarito:

Imagen
Imagen

Quedando claro que son dos imágenes diferentes en las que en la primera te especifica que hay mejoras para los juegos y en la segunda las gráficas que están soportadas por dicho driver. En ningún sitio dice que dichas gráficas lleven esas mejoras, cosa obvia porque solo se incluyen para Maxwell. Y cosa que tu has manipulado para simular que era real al agrupar dicha información en un mismo mensaje.

Por un momento, me has hecho hasta dudar de lo que yo he vivido, pero viendo comentarios de @KailKatarn donde os conoce y pertenecéis todos a la misma "tribu" ya me explico el porque de todo esto.

En fin, como me temía discutir esto con gente así es prácticamente imposible. Pero desde luego, deberíais de dejar de desinformar y manipular las cosas para que se lo crea la gente.
Beatwin está baneado por "Troll"
gothnux escribió:¿Me podrías explicar justo en donde pone Nvidia que todo ese listado de gráficas tengan las mejoras correspondientes a los juegos?

Por que según tu Link, justo el mismo donde has querido copiar y pegar todo en uno, lo pone bien clarito:

Imagen
Imagen

Quedando claro que son dos imágenes diferentes en las que en la primera te especifica que hay mejoras para los juegos y en la segunda las gráficas que están soportadas por dicho driver. En ningún sitio dice que dichas gráficas lleven esas mejoras, cosa obvia porque solo se incluyen para Maxwell. Y cosa que tu has manipulado para simular que era real al agrupar dicha información en un mismo mensaje.

Por un momento, me has hecho hasta dudar de lo que yo he vivido, pero viendo comentarios de @KailKatarn donde os conoce y pertenecéis todos a la misma "tribu" ya me explico el porque de todo esto.

En fin, como me temía discutir esto con gente así es prácticamente imposible. Pero desde luego, deberíais de dejar de desinformar y manipular las cosas para que se lo crea la gente.


En Derecho existe un viejo aforismo de derecho que expresa que «lo normal se entiende que está probado, lo anormal se prueba». Por tanto, quien invoca algo que rompe el estado de normalidad, debe probarlo («affirmanti incumbit probatio»: ‘a quien afirma, incumbe la prueba’). Básicamente, lo que se quiere decir con este aforismo es que la carga o el trabajo de probar un enunciado debe recaer en aquel que rompe el estado de normalidad (el que afirma poseer una nueva verdad sobre un tema).

Cuando tú, aunque reconozcas (porque no te queda más remedio ante la documentación oficial de NVIDIA) que lo últimos drivers dan soporte a la serie GTX 700, afirmas que no dan mejoras a los juegos, lo haces sin aportar ninguna prueba sobre ello, y con desprecio temerario a la verdad. Lo haces llevado por tu despecho a la marca NVIDIA por tu sensación de haber sido "estafado", igual que mucha gente también hecha pestes en los foros de AMD por haberse sentido "estafados" con AMD.

A pesar de que la carga de la prueba no recaía sobre mí, te he hecho un ZASCA con la siguiente gráfica que demuestra la mejora de rendimiento de la GTX 780 con los últimos drivers 35X.XX del momento:

Imagen

Imagen

http://foro.noticias3d.com/vbulletin/sh ... p?t=446555

Las pruebas hablan por sí solas [rtfm]

No nos merecemos que ciertos usuarios nos mientan, llevados por el despecho personal hacia determinadas marcas, diciéndonos que los últimos drivers dejan de llevar mejoras y optimizaciones para las tarjetas GTX 700, porque eso es simple y llanamente MENTIRA.
Beatwin escribió:
gothnux escribió:¿Me podrías explicar justo en donde pone Nvidia que todo ese listado de gráficas tengan las mejoras correspondientes a los juegos?

Por que según tu Link, justo el mismo donde has querido copiar y pegar todo en uno, lo pone bien clarito:

Imagen
Imagen

Quedando claro que son dos imágenes diferentes en las que en la primera te especifica que hay mejoras para los juegos y en la segunda las gráficas que están soportadas por dicho driver. En ningún sitio dice que dichas gráficas lleven esas mejoras, cosa obvia porque solo se incluyen para Maxwell. Y cosa que tu has manipulado para simular que era real al agrupar dicha información en un mismo mensaje.

Por un momento, me has hecho hasta dudar de lo que yo he vivido, pero viendo comentarios de @KailKatarn donde os conoce y pertenecéis todos a la misma "tribu" ya me explico el porque de todo esto.

En fin, como me temía discutir esto con gente así es prácticamente imposible. Pero desde luego, deberíais de dejar de desinformar y manipular las cosas para que se lo crea la gente.


En Derecho existe un viejo aforismo de derecho que expresa que «lo normal se entiende que está probado, lo anormal se prueba». Por tanto, quien invoca algo que rompe el estado de normalidad, debe probarlo («affirmanti incumbit probatio»: ‘a quien afirma, incumbe la prueba’). Básicamente, lo que se quiere decir con este aforismo es que la carga o el trabajo de probar un enunciado debe recaer en aquel que rompe el estado de normalidad (el que afirma poseer una nueva verdad sobre un tema).

Cuando tú, aunque reconozcas (porque no te queda más remedio ante la documentación oficial de NVIDIA) que lo últimos drivers dan soporte a la serie GTX 700, afirmas que no dan mejoras a los juegos, lo haces sin aportar ninguna prueba sobre ello, y con desprecio temerario a la verdad. Lo haces llevado por tu despecho a la marca NVIDIA por tu sensación de haber sido "estafado", igual que mucha gente también hecha pestes en los foros de AMD por haberse sentido "estafados" con AMD.

A pesar de que la carga de la prueba no recaía sobre mí, te he hecho un ZASCA con la siguiente gráfica que demuestra la mejora de rendimiento de la GTX 780 con los últimos drivers 35X.XX del momento:

Imagen

Imagen

http://foro.noticias3d.com/vbulletin/sh ... p?t=446555

Las pruebas hablan por sí solas [rtfm]

No nos merecemos que ciertos usuarios nos mientan, llevados por el despecho personal hacia determinadas marcas, diciéndonos que los últimos drivers dejan de llevar mejoras y optimizaciones para las tarjetas GTX 700, porque eso es simple y llanamente MENTIRA.


Efectivamente, no te aporto ninguna prueba porque yo me baso en las mías propias, no en las de 3 o 4 webs vendidas como estáis vosotros, que os puede el fanboyismo.

Y yo por suerte, vendí mi 770 antes de que se devalue más de lo que ya está devaluada, y espero que el comprador sepa aprovecharla mejor que yo.

La documentación oficial que tu aportas (yo no voy a entrar en tus gilipolleces pedantes de aforismos) no demuestra en ningún momento lo que yo estoy expresando, ni siquiera lo contrario de lo que yo expongo, que se basa en mi experimentación con mi propia gráfica. Y como yo, tienes cientos de personas en los foros oficiales diciendo lo mismo.

NVIDIA dijo que su arquitectura Kepler pasó a Legacy, y ahí en sus listados lo tienes, y su soporte nulo para los nuevos juegos donde no implementan absolutamente nada, sólo lo hacen para la arquitectura más joven. Eso si, no les queda más cojones que dar un soporte básico para la utilización con sistemas operativos y nuevas tecnologías, porque sino ya sería de chiste.

Y te repito, no es que vayan ni mejor ni peor, con los nuevos drivers simplemente van igual que los últimos oficiales que sacaron cuando lo pasaron a Legacy. No optimizan nada y seguirán sin hacerlo, y Maxwell correrá la misma suerte que el resto de sus anteriores generaciones.

Puedes venderme la mierda de la forma que tu quieras, que seguirá siendo la misma mierda. Y al igual que tu, yo no tengo ningún interés en desmentir lo que hace una compañía que ni me da de comer ni me interesa lo más mínimo, o a lo mejor tu si lo tienes...

Cuando cuiden a sus clientes y no los dejen tirados en la cuneta como gente que se compró la 780 Ti y vieron como una gama "media/alta" como es la 970 les iguala en rendimiento por su pésima ética y política, entonces es cuando se podrá hablar bien de esa marca, porque 3 o 4 fanboys quieran defenderla a capa y espada, te diré lo que suele suelo decir en esellas casos "Tu a mi no me vas a vender la moto".

Y aún así ahí tienes capturas demostrando que lo que tu has puesto en Spoiler es mentira, desinformando y haciendo básicamente lo que te da la gana por defender una empresa que por lo menos espero te de de comer, porque entonces ya si que esto no tendría ningún sentido.

Y no te creas que tiene la verdad absoluta, en esta vida jamás la tendrás y siempre habrá alguien que esté por encima tuya, que veo por este hilo mucha gente con un ego bastante altito. Supongo que es como todo, esto es Internet y aquí yo soy el prota de mi película.

En definitiva, y resumiendo, porque aquí muchos podemos escribir tochos y ladrillos sin decir absolutamente nada.

Que te vaya muy bien y que consigáis convencer a muchos chavales de lo que no hace está compañía, y hablo de esta porque este es el hilo de una de ellas, pero a mi personalmente no me vas a demostrar nada por muy bien que te expreses o eso quieras aparentar.

Que te vaya bien la vida, ¡campeón!
Chicos, no soy moderador pero me atrevo a daros un consejo, no merece la pena discutir por Hard en un foro [beer]

2 días para tener algo de info!!
Para los que nos interesan las Pascal, quereis dejar de una vez, de hacer esto un recreo para vuestras absurdas peleas?

Crearos un hilo para tal fin, o, habladlo por privado, el hilo este es para lo que es, para información de PASCAL, no de si el driver de esta el driver de aquella o mi AMD es mejor que tu NVIDIA y viceversa.

Lo dicho, dejad ya estas tonterías porque entra uno a buscar info y solo encuentra 3 páginas de 4 fanboys despotricando de tal o cual marca.
Los de AMD no sueltan prenda?

Yo ando detrás de lo mas parecido a una 980ti por 350€ o por 200 a una 390...me da igual como si se denomina pollamen 4000 de marca la pava
adriano_99 escribió:Puedes hacer un pequeño resumen para los sucios mortales que no sabemos lo que son los SM? xD


Bueno, lo intentaré, aunque @Rivroner no tenga mucha fe en ello [+risas] . Cuando nos venden gráficas siempre nos comentan el número de unidades de shader que llevan, TMUs, ROPs y demás tecnicismos, supongo que te sonarán, sobre todo los primeros.

Las unidades de shader son las unidades de ejecución donde se van a ejecutar las operaciones sobre los píxeles o vertex que sean necesarios para renderizar un triángulo, con las texturas necesarias y toda la tostá.

El problema está en que cuando nos venden este número, las unidades de shader, en realidad nos hacen pensar que la gpu tiene una cantidad ingente de pequeños microprocesadores "tontos" funcionando en paralelo, pero independientes, cuando esto no es así. Estos trabajan en grupos.

En el caso de nvidia, estos grupos de unidades de shader se reúnen en un conjunto llamado SM, SMX, SMM, dependiendo del chip concreto que mires, pero que tienen en común lo mismo: Es la unidad de ejecución mínima donde se ejecuta un shader dado (de hecho varios a la vez, pero dejémoslo como si sólo fuera uno). Esto es, un SM es como una cpu con un proceso, por comparar con algo más familiar, donde hay un flujo de instrucciones y éstas se van enviando a las unidades de ejecución, en este caso shaders, que ejecutan el mismo shader sobre pixeles consecutivos (dado que en render 3D es fácil que muchos de estos píxeles realmente necesiten ejecutar dicho shader, si no es así, el resultado es rechazado antes de enviarse a la VRAM y por tanto nunca aparecerá un pixel "pintado" con un shader que no le correponda, aunque en realidad sí haya sido calculado).

Un SM es un análogo a una cpu, porque tiene sus propios planificadores de shaders, sus propias cachés y registros, y va usando las distintas unidades que tiene (shaders, TMUs, LD/ST). Es la base sobre la que se ejecuta en realidad lo que ves en la pantalla.

Es imposible acceder a una unidad shader de forma única y discreta, sí puedes acceder a una batería de éstos a través del SM.

Luego, con varios SMs juntos nvidia crea un GPC, que es por así decirlo una "cuasigpu" completa, ya que hace básicamente todas las operaciones de rasterización necesarios, sólo quedando las operaciones de ROPs y los controladores de memoria fuera de la ecuación.

unidad de shader->SM->GPC->GPU. Siendo los SMs la unidad mínima que "corre" un código shader, realmente.

gothnux escribió:......
En fin, como me temía discutir esto con gente así es prácticamente imposible. Pero desde luego, deberíais de dejar de desinformar y manipular las cosas para que se lo crea la gente.


Vamos a ver, unos cuantos comentarios atrás he puesto unos cuantos hechos que demuestran que lo que dices no es cierto, que sí hay soporte del driver actual para las Kepler en juegos modernos, porque.....


LO HE COMPROBADO YO, sí, he cogido drivers antiguos y drivers modernos (de diciembre del 2015) y he probado con 6 juegos, 2 de ellos que habían salido casi un año después que maxwell (TW3 y F4), juegos de finales del 2014 o principios del 2015 (Dying Light, F4) y juegos del 2013 más o menos (FC3 y Crysis3).

Y existe una MEJORA de rendimiento en estos drivers CON KEPLER.

Ahora si quieres sigues diciendo que quieres discutir en serio y demás, pero como entenderás leyendo tu primer párrafo y último, donde dices que los demás desinformamos, pues como que no.

Los que INFORMAMOS y comentamos en SERIO somos los que nos mojamos el culo, nos tiramos varias horas durante varios días, varias personas, testando esto que dices que no hay, y comprobamos que sí hay soporte (el test se hizo para comprobar que no había boicot en drivers para kepler, y acabó demostrándose que había MEJOR soporte para las kepler que para maxwell).

Las cifras están atrás, en el link de N3D, no voy a volver a discutir sobre esto a estas alturas. Si quieres créete que legacy product es igual a legacy driver, no es mi problema y ya te he dado datos de sobra para que veas que no es así. El chorro que has dicho por el medio del primer y último párrafo, como entenderás, ni lo he leído. Porque... ¿para qué? Si me estás discutiendo hechos que yo he comprobado.
wwwendigo escribió:
adriano_99 escribió:Puedes hacer un pequeño resumen para los sucios mortales que no sabemos lo que son los SM? xD


Bueno, lo intentaré, aunque @Rivroner no tenga mucha fe en ello [+risas] . Cuando nos venden gráficas siempre nos comentan el número de unidades de shader que llevan, TMUs, ROPs y demás tecnicismos, supongo que te sonarán, sobre todo los primeros.

Las unidades de shader son las unidades de ejecución donde se van a ejecutar las operaciones sobre los píxeles o vertex que sean necesarios para renderizar un triángulo, con las texturas necesarias y toda la tostá.

El problema está en que cuando nos venden este número, las unidades de shader, en realidad nos hacen pensar que la gpu tiene una cantidad ingente de pequeños microprocesadores "tontos" funcionando en paralelo, pero independientes, cuando esto no es así. Estos trabajan en grupos.

En el caso de nvidia, estos grupos de unidades de shader se reúnen en un conjunto llamado SM, SMX, SMM, dependiendo del chip concreto que mires, pero que tienen en común lo mismo: Es la unidad de ejecución mínima donde se ejecuta un shader dado (de hecho varios a la vez, pero dejémoslo como si sólo fuera uno). Esto es, un SM es como una cpu con un proceso, por comparar con algo más familiar, donde hay un flujo de instrucciones y éstas se van enviando a las unidades de ejecución, en este caso shaders, que ejecutan el mismo shader sobre pixeles consecutivos (dado que en render 3D es fácil que muchos de estos píxeles realmente necesiten ejecutar dicho shader, si no es así, el resultado es rechazado antes de enviarse a la VRAM y por tanto nunca aparecerá un pixel "pintado" con un shader que no le correponda, aunque en realidad sí haya sido calculado).

Un SM es un análogo a una cpu, porque tiene sus propios planificadores de shaders, sus propias cachés y registros, y va usando las distintas unidades que tiene (shaders, TMUs, LD/ST). Es la base sobre la que se ejecuta en realidad lo que ves en la pantalla.

Es imposible acceder a una unidad shader de forma única y discreta, sí puedes acceder a una batería de éstos a través del SM.

Luego, con varios SMs juntos nvidia crea un GPC, que es por así decirlo una "cuasigpu" completa, ya que hace básicamente todas las operaciones de rasterización necesarios, sólo quedando las operaciones de ROPs y los controladores de memoria fuera de la ecuación.

unidad de shader->SM->GPC->GPU. Siendo los SMs la unidad mínima que "corre" un código shader, realmente.


Entonces si no te he entendido mal a lo que te referías antes es que pascal ordena esas unidades de procesamiento de un modo parecido o que le envía las lineas de ordenes de u modo parecido a como lo hace en maxwell ?
adriano_99 escribió:Entonces si no te he entendido mal a lo que te referías antes es que pascal ordena esas unidades de procesamiento de un modo parecido o que le envía las lineas de ordenes de u modo parecido a como lo hace en maxwell ?


Bueno, me refería a que los nuevos SMs de Pascal, que parecen "distintos" a los SM de Maxwell, en realidad no lo son tanto si te fijas en un par de SMs de Pascal juntos (que además van así, en una nueva estructura que se llama TPC).


Que cuando los observas así y comparas ese TPC (con 2 SM) de Pascal con un SM de Maxwell, se ven parecidos razonables (un SM de Maxwell se parece a esos 2 SM "pegados"). Y que la nueva estructura llamada TPC bien puede ser la parte donde iba el Polymorph engine que había antes por cada SM, como en maxwell y chips anteriores.

Creo que he acabado liando más la explicación... [+risas]

Esto es un SM de Maxwell:

Imagen

Y esto uno de Pascal:

Imagen

Ahora coge e imagina dos de estos uno encima del otro, y compara con lo que ves en el SM de Maxwell, ¿a que ya se parecen así?, pues en lo que ahora nvidia llama un TPC, hay dos SMs así mismamente colocados, y comparten algún hard que no tiene que ver con los shaders ni tmus y demás. Si te fijas en el esquema del SM de Maxwell verás que hay algo llamado Polymorph engine arriba, que es el que hace todo el trabajo relacionado con procesar la geometría que entra en el SM para renderizar un triángulo, o para generar triángulos nuevos con teselación.

Pues bien, yo lo que dije es que es posible que lo que se comparta a nivel de TPC sea sólo ese tipo de hard dedicado a procesar geometría, ya sea un polymorph engine igual, más potente o como si son dos. Lo que sea, pero es lo único que veo que tiene sentido compartir a ese nivel, el TPC.

Bueno, que si es como digo, por los parecidos que observo, es que con Pascal han acabado de separar los dos grandes bloques de shaders que ya empezaron a separar con Maxwell si comparamos con Kepler, al ya no compartir estructuras como la memoria compartida, caché de instrucciones, etc. Así que en ese sentido, más que una revolución del diseño haciendo SMs mucho más compactos, en realidad no sería más que una evolución de lo visto en Maxwell, por llamarlo de alguna forma, una especie de Maxwell 4.0.

Si te apetece ver y comparar un SM de kepler, aquí tienes uno bajo el spoiler:

Imagen

Si te fijas verás que además de tener muchas más unidades, no parece estar compartimentado como sí está el de maxwell, y ya con Pascal se separarían de facto los dos grandes compartimentos en el SM de un maxwell.

Sí, son parecidos pero hay mejoras varias sobre todo en tamaño de registros, cachés, memoria compartida, etc, lo que hará que los SMs de Maxwell sean más eficientes sobre todo con computación, pero también algo con juegos.

Pero creo que conviene pensar que 2 SMs de Pascal se podrían comparar con 1 SMM de Maxwell, y sumarle un % de mejora, digamos un 10%, como mucho un 20% más rápido comparando shader a shader en 3D, pero eso me parece bastante optimista ya.

Fuera de la mejora que tendrán por frecuencia, que parece que será lo más importante para aumentar el rendimiento con Pascal, por lo poco visto con la gráfica Tesla que presentaron hace ya casi un mes. Para mí la frecuencia de funcionamiento será tan clave como la nueva arquitectura.

Eso es lo que intentaba decir antes, y no sé si ahora estará más claro. [+risas]
Telita... Gracias por info @wwwendigo

Tomo capturas para enciarselas a mi sobrino que me preguntó estas cosas el otro día [oki]
Estoy pendiente de las nuevas pascal para renovar mi hd7950, que me ha dado un rendimiento brutal todos estos años. Espero que salgan el mes que viene y que la 1070 tenga consumo sostenido, buen rendimiento y no se dispare de precio.

¿Está confirmado que la presentación es mañana? ¿o solo se sabe que hay la cuenta atrás esa?

Un saludo!
wwwendigo escribió:
adriano_99 escribió:Entonces si no te he entendido mal a lo que te referías antes es que pascal ordena esas unidades de procesamiento de un modo parecido o que le envía las lineas de ordenes de u modo parecido a como lo hace en maxwell ?


Bueno, me refería a que los nuevos SMs de Pascal, que parecen "distintos" a los SM de Maxwell, en realidad no lo son tanto si te fijas en un par de SMs de Pascal juntos (que además van así, en una nueva estructura que se llama TPC).


Que cuando los observas así y comparas ese TPC (con 2 SM) de Pascal con un SM de Maxwell, se ven parecidos razonables (un SM de Maxwell se parece a esos 2 SM "pegados"). Y que la nueva estructura llamada TPC bien puede ser la parte donde iba el Polymorph engine que había antes por cada SM, como en maxwell y chips anteriores.

Creo que he acabado liando más la explicación... [+risas]

Esto es un SM de Maxwell:

Imagen

Y esto uno de Pascal:

Imagen

Ahora coge e imagina dos de estos uno encima del otro, y compara con lo que ves en el SM de Maxwell, ¿a que ya se parecen así?, pues en lo que ahora nvidia llama un TPC, hay dos SMs así mismamente colocados, y comparten algún hard que no tiene que ver con los shaders ni tmus y demás. Si te fijas en el esquema del SM de Maxwell verás que hay algo llamado Polymorph engine arriba, que es el que hace todo el trabajo relacionado con procesar la geometría que entra en el SM para renderizar un triángulo, o para generar triángulos nuevos con teselación.

Pues bien, yo lo que dije es que es posible que lo que se comparta a nivel de TPC sea sólo ese tipo de hard dedicado a procesar geometría, ya sea un polymorph engine igual, más potente o como si son dos. Lo que sea, pero es lo único que veo que tiene sentido compartir a ese nivel, el TPC.

Bueno, que si es como digo, por los parecidos que observo, es que con Pascal han acabado de separar los dos grandes bloques de shaders que ya empezaron a separar con Maxwell si comparamos con Kepler, al ya no compartir estructuras como la memoria compartida, caché de instrucciones, etc. Así que en ese sentido, más que una revolución del diseño haciendo SMs mucho más compactos, en realidad no sería más que una evolución de lo visto en Maxwell, por llamarlo de alguna forma, una especie de Maxwell 4.0.

Si te apetece ver y comparar un SM de kepler, aquí tienes uno bajo el spoiler:

[spoiler]Imagen

Si te fijas verás que además de tener muchas más unidades, no parece estar compartimentado como sí está el de maxwell, y ya con Pascal se separarían de facto los dos grandes compartimentos en el SM de un maxwell.

Sí, son parecidos pero hay mejoras varias sobre todo en tamaño de registros, cachés, memoria compartida, etc, lo que hará que los SMs de Maxwell sean más eficientes sobre todo con computación, pero también algo con juegos.

Pero creo que conviene pensar que 2 SMs de Pascal se podrían comparar con 1 SMM de Maxwell, y sumarle un % de mejora, digamos un 10%, como mucho un 20% más rápido comparando shader a shader en 3D, pero eso me parece bastante optimista ya.

Fuera de la mejora que tendrán por frecuencia, que parece que será lo más importante para aumentar el rendimiento con Pascal, por lo poco visto con la gráfica Tesla que presentaron hace ya casi un mes. Para mí la frecuencia de funcionamiento será tan clave como la nueva arquitectura.

Eso es lo que intentaba decir antes, y no sé si ahora estará más claro. [+risas][/spoiler]

Entonces a ver si no lo he entendido mal cada gráfica tiene unas pequeñas unidades que son las SM que se encargan del calculo mas pequeño, con maxwell cambiaron la manera en que funcionan para optimizarlas mas y en pascal han evolucionado ese cambio parece, no?
Gracias por tomarte el tiempo en responderme.
adriano_99 escribió:Entonces a ver si no lo he entendido mal cada gráfica tiene unas pequeñas unidades que son las SM que se encargan del calculo mas pequeño, con maxwell cambiaron la manera en que funcionan para optimizarlas mas y en pascal han evolucionado ese cambio parece, no?
Gracias por tomarte el tiempo en responderme.


Sí, básicamente es así, la unidad de trabajo real son los SMs, las unidades de shaders van juntas en varias baterías y es el SM el que les envía el trabajo a ejecutar (código shader) a esas baterías de unidades shader (que van en grupos de 32 en 32).

En AMD hay algo parecido, son los CUs (compute units) que son grupos de 64 unidades de shaders que trabajan juntos, comparten cachés, memoria compartida, etc:

Imagen

No son exactamente iguales, porque carecen de la lógica del planificador y la gestión de los "shaders" que sí tiene el SM, pero es lo más parecido en AMD (la gestión de qué shader se ejecuta y cómo en cada CU de AMD la hace un planificador general para varias unidades CUs, ojo, no para todas las CUs de la gpu, hay varios de estos planificadores).
wwwendigo escribió:
adriano_99 escribió:Entonces a ver si no lo he entendido mal cada gráfica tiene unas pequeñas unidades que son las SM que se encargan del calculo mas pequeño, con maxwell cambiaron la manera en que funcionan para optimizarlas mas y en pascal han evolucionado ese cambio parece, no?
Gracias por tomarte el tiempo en responderme.


Sí, básicamente es así, la unidad de trabajo real son los SMs, las unidades de shaders van juntas en varias baterías y es el SM el que les envía el trabajo a ejecutar (código shader) a esas baterías de unidades shader (que van en grupos de 32 en 32).

En AMD hay algo parecido, son los CUs (compute units) que son grupos de 64 unidades de shaders que trabajan juntos, comparten cachés, memoria compartida, etc:

Imagen

No son exactamente iguales, porque carecen de la lógica del planificador y la gestión de los "shaders" que sí tiene el SM, pero es lo más parecido en AMD (la gestión de qué shader se ejecuta y cómo en cada CU de AMD la hace un planificador general para varias unidades CUs, ojo, no para todas las CUs de la gpu, hay varios de estos planificadores).

Ah pues mola saberlo, muchas gracias por la clase ^^.
Supuesto primer benchmark de la 1080... http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks

Imagen
Imagen

Aproximadamente un 20% mejor que la 980ti http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_980_ti_review,24.html. Pero claro, sin drivers para Pascal, imagino que sera un poco mas. Dicen que a igualdad de frecuencias la 980ti rinde mas que la 1080, pero claro parece ser que solo cuenta con 2560 por 2816 cores de la 980ti. Se rumorea tambien un aumento de IPC del 10% con la nueva arquitectura y que las frecuencias van a ser unos 500 mhz mas altas que lo visto en Maxwell. Ahi ya se ven 1860mhz, asi que es muy posible que acaben rondando los 2ghz con OC. La diferencia con la 1070 imagino que sera bastante mayor que la que hay entre 970 y 980, pero puede que la 1070 este un poco por encima de la 980ti.
Boris I escribió:Supuesto primer benchmark de la 1080... http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks

Imagen
Imagen

Aproximadamente un 20% mejor que la 980ti http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_980_ti_review,24.html. Pero claro, sin drivers para Pascal, imagino que sera un poco mas. Dicen que a igualdad de frecuencias la 980ti rinde mas que la 1080, pero claro parece ser que solo cuenta con 2560 por 2816 cores de la 980ti. Se rumorea tambien un aumento de IPC del 10% con la nueva arquitectura y que las frecuencias van a ser unos 500 mhz mas altas que lo visto en Maxwell. Ahi ya se ven 1860mhz, asi que es muy posible que acaben rondando los 2ghz con OC. La diferencia con la 1070 imagino que sera bastante mayor que la que hay entre 970 y 980, pero puede que la 1070 este un poco por encima de la 980ti.


¿Una 1070 a la altura de una 980ti? O no me creo tanto salto o los precios no van a ser 400-600 (1070-1080) si no 5XX-7XX€ Además, si la entrada a la gama alta de Nvidia puede con 4K ¿a qué potencia se va a ir la 1080ti?

Además, ya está bastante confirmadete que Polaris busca más el rendimiento por w, y VEGA será la que intente superar a las Fury, por lo que AMD se iría a la cola otra vez... Desde el anuncio de que nadie va a montar HBM2 de momento las noticias/novedades no hacen más que desconcertarme.
Boris I escribió:Supuesto primer benchmark de la 1080... http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks

Imagen
Imagen

Aproximadamente un 20% mejor que la 980ti http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_980_ti_review,24.html. Pero claro, sin drivers para Pascal, imagino que sera un poco mas. Dicen que a igualdad de frecuencias la 980ti rinde mas que la 1080, pero claro parece ser que solo cuenta con 2560 por 2816 cores de la 980ti. Se rumorea tambien un aumento de IPC del 10% con la nueva arquitectura y que las frecuencias van a ser unos 500 mhz mas altas que lo visto en Maxwell. Ahi ya se ven 1860mhz, asi que es muy posible que acaben rondando los 2ghz con OC. La diferencia con la 1070 imagino que sera bastante mayor que la que hay entre 970 y 980, pero puede que la 1070 este un poco por encima de la 980ti.

Yo creo que cuando estén exprimidas al máximo por drivers la 1080 será mas o menos un 30% superior a la 980ti y la 1070 entre un 5 y un 10% superior a la 980ti.
A esperar a la 1080ti.....
Muy prometedor ese benchmark,pero estareis de acuerdo conmigo en que el aumento de rendimiento sera proporcional al aumento de precio.
supernafamacho escribió:Muy prometedor ese benchmark,pero estareis de acuerdo conmigo en que el aumento de rendimiento sera proporcional al aumento de precio.

No, no lo estamos.
No hay ninguna filtración del posible precio de la 1070?? que opináis?? unos 399$/€ así de entrada??

Un saludo!
399 la 1070 y 499 la 1080 digo yo jeje
yameli escribió:399 la 1070 y 499 la 1080 digo yo jeje


Yo descartaría por completo una diferencia de precio tan pequeña entre dos modelos que no son los mainstream en principio. Si la 1070 vale 399 la 1080 se irá a 599 (que viendo la potencia que se rumorea sería un chollo a ese precio) A 499 soy capaz de pensar en un sli.
Yo apostaría por 4XX-6XX
Si la 1070 pasa de 399 creo que pasa una barrera psicológica importante... con la 970 sobre 350 les ha ido muy muy bien en ventas, espero que no se les vaya la olla con el precio.

Un saludo!
Krain escribió:
yameli escribió:399 la 1070 y 499 la 1080 digo yo jeje


Yo descartaría por completo una diferencia de precio tan pequeña entre dos modelos que no son los mainstream en principio. Si la 1070 vale 399 la 1080 se irá a 599 (que viendo la potencia que se rumorea sería un chollo a ese precio) A 499 soy capaz de pensar en un sli.
Yo apostaría por 4XX-6XX


Totalmente de acuerdo, no creo que veamos una 1080 de salida por menos de 599€.

Lo que me preocupa es que si la 3ª gráfica que van a presentar es una 1060ti esta vendria a ocupar seguramente la franja de 300-350€, por lo que mi esperanza de ver la 1070 a 399 se va esfumando, seguramente se vaya por encima de 450€ de salida, ya se me pasa de presupuesto.

Al final, con mi presupuesto de 350-400€ espero poder pillar algo parecido en rendimiento a una 980ti, me da igual si es rojo o verde, pero si no hay nada en esa franja de precios con un rendimiento similar vaya puff de cambio de nodo y arquitectura [triston]

A ver si filtran algun bench de la 1070 ya!
@stan01 Yo lo tengo claro, si la sacan a 450 euros, se lo ponen en bandeja de plata a amd para sacar un pepino de tarjeta por 350 (que está visto que es el precio máximo que la mayoría gente esta dispuesta a gastar)... a ver en que queda todo esto.

Un saludo!
adriano_99 escribió:
supernafamacho escribió:Muy prometedor ese benchmark,pero estareis de acuerdo conmigo en que el aumento de rendimiento sera proporcional al aumento de precio.

No, no lo estamos.


Espero por el bien de mi bolsillo que tengas razon,pero Nvidia sabe de su posicion en el mercado,casi monopolio y del hype creado.
@jordi1986 el problema es que amd parece que de salida se va a centrar en la gama de 350€ para abajo, con lo que lo unico que entraría en conflicto seguramente seria con la 1060ti, y me da que se están colocando para repartirse bien el pastel, es decir una hipotetica 480 con un rendimiento minimamente inferior a una 1060ti pero costando 30-40€ menos y siendo más pequeña, fresca y con menos consumo.

Ojalá entren al barro, pero me da en la narizota que de momento no. En la últimas declaraciones de AMD ya dijeron que ellos se van a centrar en aumentar la gama de entrada a la VR a un precio más accesible (al menos de momento) y que según los rumores que tienen sobre las nueva Nvidia estas se estaban posicionando para refrescar la gama alta/entusiasta, dejaba bastante claro que tenian estrategias a corto plazo muy distintas.

Cuando estemos en otoño y con la campaña de navidades en vista creo que será cuando empiece la verdadera competencia.
a que hora es la presentación mañana? y desde donde se puede ver?
yameli escribió:a que hora es la presentación mañana? y desde donde se puede ver?


https://www.twitch.tv/nvidia

A las 6pm PST
Yo lo de las horas sigo sin entenderlo. Se han creado rangos horarios universales(UTC) que se usan todos los días en aeropuertos porque si no aquí no se entera ni el tato de cuando coger el avión. Y después para este tipo de eventos cogen el mas raro para que tengas que ir mirando la hora de tu región.

En fin, para que no tenga que mirarlo el siguiente es a las 3:00 de la madrugada del viernes al sábado. Una hora menos en canarias ;).
la clave sera el precio [hallow]
futuro mad max escribió:la clave sera el precio [hallow]


gtx 1070 por 350€ [tomaaa]
Para los que tengamos la Gigabyte G1 Gaming GTX 970 OC y similares, podemos saltarnos esta generación o tengo que ir preparando el bolsillo.
lwordl escribió:
futuro mad max escribió:la clave sera el precio [hallow]


gtx 1070 por 500[tomaaa]


Fixed [hallow] [hallow] [hallow]

Nah, ahora enserio, si Nvidia tiene algo realmente fuerte preparáos para soltar la pasta, más aún sabiendo el marketshare que tiene ahora mismo, en un pseudomonopolio puede permitirse lo que quiera.
Boris I escribió:Supuesto primer benchmark de la 1080... http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks

Imagen
Imagen

Aproximadamente un 20% mejor que la 980ti http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_980_ti_review,24.html. Pero claro, sin drivers para Pascal, imagino que sera un poco mas. Dicen que a igualdad de frecuencias la 980ti rinde mas que la 1080, pero claro parece ser que solo cuenta con 2560 por 2816 cores de la 980ti. Se rumorea tambien un aumento de IPC del 10% con la nueva arquitectura y que las frecuencias van a ser unos 500 mhz mas altas que lo visto en Maxwell. Ahi ya se ven 1860mhz, asi que es muy posible que acaben rondando los 2ghz con OC. La diferencia con la 1070 imagino que sera bastante mayor que la que hay entre 970 y 980, pero puede que la 1070 este un poco por encima de la 980ti.



Yo con lo que me quedo del benchmark es con todo menos con la puntuación (lo siento, pero nunca me ha gustado 3dmark para evaluar gráficas, no desde el 2003 que ya la cagaron bien, aunque después hayan tenido sus luces y sombras, considero que desde entonces no representan el estado del momento de los motores gráficos reales para juegos).

El dato útil, el de la memoria. 5 GHz dice, siendo como es GDDR5X lo que lleva, tendría sentido ya que sería en realidad 2X ese valor, esto es, los 10 GHz en la GDDR5X que lleva montada.

Lo de las frecuencias, hombre, otra cosilla que también he dicho, jajaja, aunque fui muy conservador y dije que serían mínimo 1700 MHz, veo que la rumorología va en ese sentido. Y el OC de 2 GHz, otra vez, lo que hipoticé hace días.

Un 20% de diferencia contra la 980 Ti se me queda un poco escaso, dada la frecuencia que tiene, y eso del IPC menor (resultados a la misma frecuencia), bueno, a cogerlo con pinzas porque en teoría debería haber una mejora de rendimiento gracias a las mejoras en los SMs introducidas (básicamente, una mejora en todo lo relacionado con registros, cachés, etc, que facilita alcanzar puntas de rendimiento por Cuda core más altas). Aunque si por otro lado dicen que el IPC debería ser más alto, quién sabe. No dejan de ser filtraciones que igual son falsas, o verdaderas, pero que no sabemos cómo de afinado está el driver.

Con la 1070, yo firmo ya si obtiene el mismo rendimiento que la 980 Ti, sobre todo si es al mismo precio que las GTX 970.

Bueno, el evento se va a hacer público por lo que parece a través de Twitch.com:

Imagen

A las 6 de la tarde del pacífico este. Si no me equivoco aquí a las 2 de la mañana, así que... la mayoría sabrán lo que se cuece el sábado. xD
KingCube escribió:Para los que tengamos la Gigabyte G1 Gaming GTX 970 OC y similares, podemos saltarnos esta generación o tengo que ir preparando el bolsillo.


Esperemos a ver el rendimiento y los precios,porque como rindan un 25% mas y no pase de 400€ esa 1070,va a haber sobreoferta en el mercado de ocasión.
Pfffff 400€ no me gasto en una GPU ni loco, mi tope son 250-300, a ver la 1060 que tal o la 1060ti
Pues no esta mal el resultado de esa supuesta 1080, mas o menos lo que se venia rumoreando, un 25% por encima de la 980Ti esta bastante bien para el gp104.

Ademas tiene pinta que van a ocear la mar de bien, 1800Mhz a stock no esta mal, los 1600Mhz de mi 980ti ya me empiezan a saber a poco, vaya empujon ha metido el nuevo nodo. [sati]


juanmahl9 escribió:Pfffff 400€ no me gasto en una GPU ni loco, mi tope son 250-300, a ver la 1060 que tal o la 1060ti


hace unos dias se hablaba de una tercera variante del gp104(GP104-150) con 6GB y un bus de 192bits, contando que la 1080 monte el chip completo(gp104-400) y la 1070 una version algo recortada(gp104-200) este seria la 1060ti, habria que ver precio tendria esta pero imagino que mas cerca de los 300€ que de los 250€
Yo me piro a dormir que al final no aguanto, mañana me levantare con las noticias :D
DaNi_0389 escribió:Pues no esta mal el resultado de esa supuesta 1080, mas o menos lo que se venia rumoreando, un 25% por encima de la 980Ti esta bastante bien para el gp104.

Ademas tiene pinta que van a ocear la mar de bien, 1800Mhz a stock no esta mal, los 1600Mhz de mi 980ti ya me empiezan a saber a poco, vaya empujon ha metido el nuevo nodo. [sati]



1800 suena muy bien, pero no quiere decir nada. Seguramente será incluso un poco más. Pero un dato, ¿qué pasa si no suben apenas nada, digamos que 100 MHz? U otra posibilidad, suben, pero digamos que 200 o 250 MHz como mucho. ¿Te sigue pareciendo tanto, o es la barrera psicológica de los 2 GHz la que te está ofuscando?

Imagina, frecuencia base 1800 MHz. + 200 MHz-> 2000 MHz, muy bonito todo. ¿Ganancia máxima de rendimiento por la gpu? -> un 11%.

NO es lo mismo subir 100 MHz a un chip de 1 GHz que a uno a 2 GHz, y que salga el GP104 a tanta frecuencia, además de la espectacularidad de las cifras y logro técnico, no quiere decir que vaya a ser un buen chip para OC o que con OC lo que suba sea más que chips anteriores.

Para hablar de eso, habrá que esperar a verlo en acción. No nos ofusquemos con su terror tecnológico (MHz for everyone).
wwwendigo escribió:
DaNi_0389 escribió:Pues no esta mal el resultado de esa supuesta 1080, mas o menos lo que se venia rumoreando, un 25% por encima de la 980Ti esta bastante bien para el gp104.

Ademas tiene pinta que van a ocear la mar de bien, 1800Mhz a stock no esta mal, los 1600Mhz de mi 980ti ya me empiezan a saber a poco, vaya empujon ha metido el nuevo nodo. [sati]



1800 suena muy bien, pero no quiere decir nada. Seguramente será incluso un poco más. Pero un dato, ¿qué pasa si no suben apenas nada, digamos que 100 MHz? U otra posibilidad, suben, pero digamos que 200 o 250 MHz como mucho. ¿Te sigue pareciendo tanto, o es la barrera psicológica de los 2 GHz la que te está ofuscando?

Imagina, frecuencia base 1800 MHz. + 200 MHz-> 2000 MHz, muy bonito todo. ¿Ganancia máxima de rendimiento por la gpu? -> un 11%.

NO es lo mismo subir 100 MHz a un chip de 1 GHz que a uno a 2 GHz, y que salga el GP104 a tanta frecuencia, además de la espectacularidad de las cifras y logro técnico, no quiere decir que vaya a ser un buen chip para OC o que con OC lo que suba sea más que chips anteriores.

Para hablar de eso, habrá que esperar a verlo en acción. No nos ofusquemos con su terror tecnológico (MHz for everyone).


buenas señor wendigo, buenos aportes los tuyos, das muy buenas explicaciones, se agradece.

comparto la misma manera de ver el tema, aunque hay que reconocer que esos resultados son una buena presentación.

seguramente son los primeros modelos de referencia, por lo tanto seguramente los modelos custon ya subirán algo mas su frecuencia... y hay va a estar el tema que tratas, cuando salgan los modelos custon con una frecuencias mas elevadas veremos si son igual de oceras que las maxell y lo mas importante aún, como escalan según frecuencias, esta claro que maxwell es pata negra en términos de subir frecuencias con OC, pero no así en relación de mhz por rendimiento, en este aspecto las kepler exprimen mas los mhz extras.... vamos que 50 mhz de kepler tenían el empuje de unos 80, 90 mhz en kepler. ( eso respetando el rendimiento total de gamas, donde la maxwell gana por ser tecnología mas eficiente y moderna, como es normal)

el precio final dará el veredicto de lo buena que es... sobre lo oceras que sean, pues ya veremos cuando la analicen o suelten algún dato ellos mismos por su cuenta.

saludos.
KAISER-77 escribió:Yo me piro a dormir que al final no aguanto, mañana me levantare con las noticias :D

5 Horas sres,no me llega la camisa al cuello.
supernafamacho escribió:
KAISER-77 escribió:Yo me piro a dormir que al final no aguanto, mañana me levantare con las noticias :D

5 Horas sres,no me llega la camisa al cuello.

De 5 nada quedan 14.
adriano_99 escribió:
supernafamacho escribió:
KAISER-77 escribió:Yo me piro a dormir que al final no aguanto, mañana me levantare con las noticias :D

5 Horas sres,no me llega la camisa al cuello.

De 5 nada quedan 14.


Finalmente a que hora española es la presentacion ¿? Tengo ya el gin tonic y las palomitas esperando..
adriano_99 escribió:
supernafamacho escribió:
KAISER-77 escribió:Yo me piro a dormir que al final no aguanto, mañana me levantare con las noticias :D

5 Horas sres,no me llega la camisa al cuello.

De 5 nada quedan 14.


[qmparto] Se le ha pasado al hombre que eran las 18h hora del pacífico.
wwwendigo escribió:
DaNi_0389 escribió:Pues no esta mal el resultado de esa supuesta 1080, mas o menos lo que se venia rumoreando, un 25% por encima de la 980Ti esta bastante bien para el gp104.

Ademas tiene pinta que van a ocear la mar de bien, 1800Mhz a stock no esta mal, los 1600Mhz de mi 980ti ya me empiezan a saber a poco, vaya empujon ha metido el nuevo nodo. [sati]



1800 suena muy bien, pero no quiere decir nada. Seguramente será incluso un poco más. Pero un dato, ¿qué pasa si no suben apenas nada, digamos que 100 MHz? U otra posibilidad, suben, pero digamos que 200 o 250 MHz como mucho. ¿Te sigue pareciendo tanto, o es la barrera psicológica de los 2 GHz la que te está ofuscando?

Imagina, frecuencia base 1800 MHz. + 200 MHz-> 2000 MHz, muy bonito todo. ¿Ganancia máxima de rendimiento por la gpu? -> un 11%.

NO es lo mismo subir 100 MHz a un chip de 1 GHz que a uno a 2 GHz, y que salga el GP104 a tanta frecuencia, además de la espectacularidad de las cifras y logro técnico, no quiere decir que vaya a ser un buen chip para OC o que con OC lo que suba sea más que chips anteriores.

Para hablar de eso, habrá que esperar a verlo en acción. No nos ofusquemos con su terror tecnológico (MHz for everyone).



No te negare que los 2Ghz serian una barrera psicologica, pero claro, si supuestamente se parte de 1,8Ghz pues puede saber a poco [+risas] [+risas]
@DaNi_0389

A mi los 10Ghz de la vram y los 2 de la cpu me hacen gracia, pero yo lo que quiero son pirámides comparativas de FPS (bueno, y el precio XD ).
Krain escribió:
[qmparto] Se le ha pasado al hombre que eran las 18h hora del pacífico.


Pero según la web quedan poco más de 5h, ¿al final es a las 6:00 de la mañana?

http://orderof10.com/humanityshallbeenlightened
17221 respuestas