Intel avanza su primer chip gráfico dedicado, DG1, y desvela los nuevos procesadores para portáti...

La conferencia de Intel durante el CES 2020 ha servido para dar a conocer su nueva generación de chips para ordenadores portátiles y ofrecer un primer, somero y casi furtivo vistazo a sus esfuerzos para lanzar sus primeras tarjetas gráficas dedicadas desde las infaustas i740 de los años 90. Esta vez las quinielas no iban del todo desacertadas, aunque sorprende en cualquier caso la falta de información técnica en detalle sobre ambos productos.

Comenzando por Tiger Lake, que estuvo mucho mejor documentada y hasta presente con hardware funcional durante el evento, esta nueva familia de procesadores para ordenadores portátiles, tabletas y convertibles llegará basada en un nuevo proceso de 10 nm perfeccionado o 10 nm+. Ni siquiera podemos hablar todavía de núcleos o rendimiento concreto, pero desde Intel se afirma que gozará con soporte para Thunderbolt 4 y Wi-Fi 6 de serie.

ImagenTiger Lake (centro) integrado en una placa.

Más notable es sin embargo el hecho de que Tiger Lake servirá para abandonar la antigua arquitectura iGPU de Intel. En su lugar se utilizarán núcleos gráficos derivados de la nueva familia Xe, aunque todavía se desconoce si su integración se realizará a nivel de chiplet o como elemento electrónico independiente del procesador central.

Según Intel, Tiger Lake llegará a lo largo de 2020 (fecha aún por determinar) y se convertirá en el mayor lanzamiento de la compañía dentro del mercado portátil en muchos, muchos años. Entre otros motivos por una diferencia en materia de procesamiento gráfico e IA "de dos dígitos" con respecto a soluciones contemporáneas.

Durante la conferencia del CES 2020 Intel mostró muy someramente sus capacidades con un prototipo desarrollado por Quanta. El portátil ejecutaba Warframe con aparente soltura y también parecía brindar una aceleración notable en trabajos de IA aplicados a retoque fotográfico. Lamentablemente, ni siquiera tenemos benchmarks para establecer comparaciones o hacernos una idea de las mejoras que deberíamos esperar.

La demostración de DG1 comienza en el minuto 7:00.

En cuanto a las tarjetas gráficas Xe, lo que único que sabemos es que todavía siguen lejos del consumidor. El primer producto comercial recibirá el nombre DG1 y es descrito como un "chip", ni siquiera una tarjeta al uso, lo que despierta dudas en materia de integración. No se sabe si Intel se encargará de comercializarlo en forma de tarjeta completa como hace con sus chips y unidades SSD o si por el contrario se asociará con otras firmas para ello.

Sea como sea, DG1 tendrá un marcado énfasis en el mercado de consumo, y prueba de ello han sido las referencias a los videojuegos. Tal vez tengamos más información sobre Xe, su integración en Tiger Lake y DG1 durante la Computex (2 al 6 de junio) o el E3 (9 al 11 de junio), sin descartar posibles referencias al mercado profesional en la Siggraph 2020 (19 al 23 de julio).
Pues ojalá el chip gráfico sea bueno y permita hacerle competencia a Nvidia / AMD.
Espero que no acaben cancelando la tarjeta gráfica como hicieron en su día con Larrabee, prometian un rendimiento superior a sus competidores y al final quedó en nada.
De momento, esto y nada es lo mismo. El juego en movimiento es Warframe y eso funciona hasta en calculadoras. O más específicamente, las iGPU de Intel de los últimos 10 años lo pueden mover.
ramulator escribió:De momento, esto y nada es lo mismo. El juego en movimiento es Warframe y eso funciona hasta en calculadoras. O más específicamente, las iGPU de Intel de los últimos 10 años lo pueden mover.

Me preocupa que mucho power y mucha mejora de doble dígito, pero te sacan la demo con Warframe y hablan de "juego en HD".

Me veo a Nvidia sacándose la chorra y haciendo el molinillo durante todo 2020.
Yo quiero CPUs Tiger Lake para portátiles tochos, gama H. Y no hablan de PCIE 4.0, habrá que esperar a los 10nm++++++++++
Decir que las i740 fueron infaustas es faltar completamente a la verdad. En su día eran una opción muy económica a las de nVidia y 3DFX, por no hablar que no estaban muy lejos en rendimiento. nVidia tuvo que sacar las Riva TNT para poder marcar la diferencia, y las i740 fueron de las primeras tarjetas en usar el puerto AGP.

Aún recuerdo lo bien que tiraban los juegos, como el Need For Speed Hot Pursuit. Una puñetera maravilla.
Y AMD saco una APU de 7nm que tiene mejor grafica que casi cualquier cosa de Intel, y no la hacen mas grande por que la DDR4 no da para mas. Y el TDP limita tb. En fin AMD es normal que esté en record históricos de valoración bursátil.

Eso si tardo 10 años en conseguir fusionar lógica con fabricación y drivers, pero estas APUs de 7 nm han demostrado que las buenas ideas siempre ganan!
radastan escribió:Decir que las i740 fueron infaustas es faltar completamente a la verdad. En su día eran una opción muy económica a las de nVidia y 3DFX, por no hablar que no estaban muy lejos en rendimiento. nVidia tuvo que sacar las Riva TNT para poder marcar la diferencia, y las i740 fueron de las primeras tarjetas en usar el puerto AGP.

Aún recuerdo lo bien que tiraban los juegos, como el Need For Speed Hot Pursuit. Una puñetera maravilla.

Infausto no quiere decir malo, sino desafortunado o con mala suerte :)
Alejo I escribió:
ramulator escribió:De momento, esto y nada es lo mismo. El juego en movimiento es Warframe y eso funciona hasta en calculadoras. O más específicamente, las iGPU de Intel de los últimos 10 años lo pueden mover.

Me preocupa que mucho power y mucha mejora de doble dígito, pero te sacan la demo con Warframe y hablan de "juego en HD".

Me veo a Nvidia sacándose la chorra y haciendo el molinillo durante todo 2020.


Me espero cualquier cosa. Nvidia puede llevarse el gato al agua con el paso a 7nm+ de su serie 3000, pero también AMD tiene que estrenar sus tarjetas "Full RDNA" (porque las actuales todavía usan cosas de GCN) y habrá que ver qué tal funciona su hardware para raytracing. Y el DG1 suena a poca cosa pero pinta a que se merendará la gama baja de dedicadas para ultrabooks (las Nvidia MX).
ramulator escribió:
Alejo I escribió:
ramulator escribió:De momento, esto y nada es lo mismo. El juego en movimiento es Warframe y eso funciona hasta en calculadoras. O más específicamente, las iGPU de Intel de los últimos 10 años lo pueden mover.

Me preocupa que mucho power y mucha mejora de doble dígito, pero te sacan la demo con Warframe y hablan de "juego en HD".

Me veo a Nvidia sacándose la chorra y haciendo el molinillo durante todo 2020.


Me espero cualquier cosa. Nvidia puede llevarse el gato al agua con el paso a 7nm+ de su serie 3000, pero también AMD tiene que estrenar sus tarjetas "Full RDNA" (porque las actuales todavía usan cosas de GCN) y habrá que ver qué tal funciona su hardware para raytracing. Y el DG1 suena a poca cosa pero pinta a que se merendará la gama baja de dedicadas para ultrabooks (las Nvidia MX).


El problema es que en cuanto AMD saque las full RDNA tiene que sacar drivers nuevos si o si (o sea, desde 0, y lo que ha hecho con todos los anteriores no les sirve de nada) y después de el trabajazo que se han dado para poder sacarle chicha a todo lo anterior, de que quieran sacar otra vez drivers pulidos nVidia se habra sacado la chorra ya varias veces y seguiran en las mismas.
radastan escribió:Decir que las i740 fueron infaustas es faltar completamente a la verdad. En su día eran una opción muy económica a las de nVidia y 3DFX, por no hablar que no estaban muy lejos en rendimiento. nVidia tuvo que sacar las Riva TNT para poder marcar la diferencia, y las i740 fueron de las primeras tarjetas en usar el puerto AGP.

Aún recuerdo lo bien que tiraban los juegos, como el Need For Speed Hot Pursuit. Una puñetera maravilla.

Yo también tuve una i740 y la verdad que funcionaba bastante bien.

El problema vino después, que intentaron hacer la i810 y les salió como el culo, que al final la tuvieron que integrar en los chipsets como GPU para equipos más modestos.

Y bueno, a partir de aquí, pues despropósitos cada vez que querían hacer una dGPU, básicamente siempre intentaban meter soluciones, a veces, un poco imaginativas, mientras el mercado va en otra dirección, como fue con Larrabee.

A ver qué pasa con Xe, porque hay cosas que tienen buena pinta, como el integrar varios chips de GPU y escalar sin necesidad de perfiles, como con el SLI o el Crossfire, y que, el sistema y cualquier juego, la vea como si de una misma GPU.
PilaDePetaca escribió:
ramulator escribió:
Alejo I escribió:Me preocupa que mucho power y mucha mejora de doble dígito, pero te sacan la demo con Warframe y hablan de "juego en HD".

Me veo a Nvidia sacándose la chorra y haciendo el molinillo durante todo 2020.


Me espero cualquier cosa. Nvidia puede llevarse el gato al agua con el paso a 7nm+ de su serie 3000, pero también AMD tiene que estrenar sus tarjetas "Full RDNA" (porque las actuales todavía usan cosas de GCN) y habrá que ver qué tal funciona su hardware para raytracing. Y el DG1 suena a poca cosa pero pinta a que se merendará la gama baja de dedicadas para ultrabooks (las Nvidia MX).


El problema es que en cuanto AMD saque las full RDNA tiene que sacar drivers nuevos si o si (o sea, desde 0, y lo que ha hecho con todos los anteriores no les sirve de nada) y después de el trabajazo que se han dado para poder sacarle chicha a todo lo anterior, de que quieran sacar otra vez drivers pulidos nVidia se habra sacado la chorra ya varias veces y seguiran en las mismas.


Realmente, al haber hecho un medio paso a RDNA con la serie 5000 ya tienen la mayor parte del trabajo en drivers hecho, que además de lanzamiento tuvieron pegas pero no tardaron en solucionarlo. Y seguramente sigan sin hacer frente a Nvidia en consumo, pero si no competían en gamas altas era por limitaciones de la arquitectura, pero con las Full RDNA ya pueden sacar tarjetas de esas gamas.

Si miras atrás, hasta ahora sólo podían tener cuatro shader engines en una GPU, pero eso ya se acabó. El límite físico en unidades de cómputo y shader processors estaba en 64 CUs y 4096 SPs que puedes ver en la Vega 64. Su die es de 495mm² mientras que el de la 2080Ti es de nada menos que de 775mm². Por ahora hemos visto la gama media de la series 5000 con RDNA1 (parte GCN, parte RDNA) cuya 5700XT con 40CUs y 2560SPs te rinde igual que la Vega 64, y eso es un notición. Su die es de apenas 251mm², así que imagínate las bestias pardas que vamos a ver este año.
ramulator escribió:
PilaDePetaca escribió:El problema es que en cuanto AMD saque las full RDNA tiene que sacar drivers nuevos si o si (o sea, desde 0, y lo que ha hecho con todos los anteriores no les sirve de nada) y después de el trabajazo que se han dado para poder sacarle chicha a todo lo anterior, de que quieran sacar otra vez drivers pulidos nVidia se habra sacado la chorra ya varias veces y seguiran en las mismas.


Realmente, al haber hecho un medio paso a RDNA con la serie 5000 ya tienen la mayor parte del trabajo en drivers hecho, que además de lanzamiento tuvieron pegas pero no tardaron en solucionarlo. Y seguramente sigan sin hacer frente a Nvidia en consumo, pero si no competían en gamas altas era por limitaciones de la arquitectura, pero con las Full RDNA ya pueden sacar tarjetas de esas gamas.


No, de hecho, han lanzado las RDNA todavía con partes GCN por aprovechar los drivers que tenian antes, pero el cambio a RDNA2 es directamente un cambio de paradigma en la arquitectura, y los drivers los tienen que hacer desde 0. Y el problema que tienen de competencia en gamas altas es precisamente porque la arquitectura RDNA hace que se disparen los consumos (sólo hace falta ver que aunque haya habido un aumento de rendimiento con el cambio de nodo, los consumos siguen siendo una barbaridad). No habrá competencia de AMD en gamas altas hasta que no hagan el cambio de arquitectura total para poder tener mas CU's con unas velocidades contenidas (el "sweet spot" de las series 5000 está entre 1600-1700MHz) y que los consumos no se disparen.
PilaDePetaca escribió:
ramulator escribió:
PilaDePetaca escribió:El problema es que en cuanto AMD saque las full RDNA tiene que sacar drivers nuevos si o si (o sea, desde 0, y lo que ha hecho con todos los anteriores no les sirve de nada) y después de el trabajazo que se han dado para poder sacarle chicha a todo lo anterior, de que quieran sacar otra vez drivers pulidos nVidia se habra sacado la chorra ya varias veces y seguiran en las mismas.


Realmente, al haber hecho un medio paso a RDNA con la serie 5000 ya tienen la mayor parte del trabajo en drivers hecho, que además de lanzamiento tuvieron pegas pero no tardaron en solucionarlo. Y seguramente sigan sin hacer frente a Nvidia en consumo, pero si no competían en gamas altas era por limitaciones de la arquitectura, pero con las Full RDNA ya pueden sacar tarjetas de esas gamas.


No, de hecho, han lanzado las RDNA todavía con partes GCN por aprovechar los drivers que tenian antes, pero el cambio a RDNA2 es directamente un cambio de paradigma en la arquitectura, y los drivers los tienen que hacer desde 0. Y el problema que tienen de competencia en gamas altas es precisamente porque la arquitectura RDNA hace que se disparen los consumos (sólo hace falta ver que aunque haya habido un aumento de rendimiento con el cambio de nodo, los consumos siguen siendo una barbaridad). No habrá competencia de AMD en gamas altas hasta que no hagan el cambio de arquitectura total para poder tener mas CU's con unas velocidades contenidas (el "sweet spot" de las series 5000 está entre 1600-1700MHz) y que los consumos no se disparen.


¿De dónde sacas eso de los drivers? Lo de las gamas altas ya he explicado que era por limitaciones de la distribución del hardware de la arquitectura GCN, ¿de dónde leches sacas lo de los consumos? La Vega 64 está entre 285 y 295W en carga mientras que la 5700XT (que ya he dicho que consigue el mismo rendimiento) se sitúa en 215-220W. La 2080Ti está en esos 280W y de cualquier modo históricamente las AMD siempre han consumido más para ofrecer el mismo resultado a cambio de otros puntos a favor. Es más... La rival directa de la 5700XT es la 2070 Super, que tiene un rendimiento idéntico, y esta consume 210-215W. ¿Qué "barbaridad" es entonces si es la primera vez en diez o quince años que AMD está pareja en consumos por rendimiento con AMD?

Hablar por hablar.
Pues creo recordar que las tarjetas graficas de Intel se vendian bastante bien en los 90, aunque yo nunca tuve una de esas, siempre fui de 3dfx :)
Respecto a la noticia pues cuanta mas competencia mejor pero dudo mucho que en la gama gaming Intel pueda hacer mucho ruido.
ramulator escribió:
PilaDePetaca escribió:
ramulator escribió:Realmente, al haber hecho un medio paso a RDNA con la serie 5000 ya tienen la mayor parte del trabajo en drivers hecho, que además de lanzamiento tuvieron pegas pero no tardaron en solucionarlo. Y seguramente sigan sin hacer frente a Nvidia en consumo, pero si no competían en gamas altas era por limitaciones de la arquitectura, pero con las Full RDNA ya pueden sacar tarjetas de esas gamas.


No, de hecho, han lanzado las RDNA todavía con partes GCN por aprovechar los drivers que tenian antes, pero el cambio a RDNA2 es directamente un cambio de paradigma en la arquitectura, y los drivers los tienen que hacer desde 0. Y el problema que tienen de competencia en gamas altas es precisamente porque la arquitectura RDNA hace que se disparen los consumos (sólo hace falta ver que aunque haya habido un aumento de rendimiento con el cambio de nodo, los consumos siguen siendo una barbaridad). No habrá competencia de AMD en gamas altas hasta que no hagan el cambio de arquitectura total para poder tener mas CU's con unas velocidades contenidas (el "sweet spot" de las series 5000 está entre 1600-1700MHz) y que los consumos no se disparen.


¿De dónde sacas eso de los drivers? Lo de las gamas altas ya he explicado que era por limitaciones de la distribución del hardware de la arquitectura GCN, ¿de dónde leches sacas lo de los consumos? La Vega 64 está entre 285 y 295W en carga mientras que la 5700XT (que ya he dicho que consigue el mismo rendimiento) se sitúa en 215-220W. La 2080Ti está en esos 280W y de cualquier modo históricamente las AMD siempre han consumido más para ofrecer el mismo resultado a cambio de otros puntos a favor. Es más... La rival directa de la 5700XT es la 2070 Super, que tiene un rendimiento idéntico, y esta consume 210-215W. ¿Qué "barbaridad" es entonces si es la primera vez en diez o quince años que AMD está pareja en consumos por rendimiento con AMD?

Hablar por hablar.


Pues todo eso se saca de haber leído el porque de los problemas de arquitectura con GCN y Vega, el porque del aumento de IPC con RDNA, el porque del consumo y las velocidades y el porque los drivers tienen que ser de 0. Se llama informarse (que el google está para todos y hay una tonelada de información y de gente que ha hablado del cambio de arquitectura y de que supone full RDNA), el resto, como tu lo dices (y haces) es hablar por hablar.
PilaDePetaca escribió:
ramulator escribió:
PilaDePetaca escribió:No, de hecho, han lanzado las RDNA todavía con partes GCN por aprovechar los drivers que tenian antes, pero el cambio a RDNA2 es directamente un cambio de paradigma en la arquitectura, y los drivers los tienen que hacer desde 0. Y el problema que tienen de competencia en gamas altas es precisamente porque la arquitectura RDNA hace que se disparen los consumos (sólo hace falta ver que aunque haya habido un aumento de rendimiento con el cambio de nodo, los consumos siguen siendo una barbaridad). No habrá competencia de AMD en gamas altas hasta que no hagan el cambio de arquitectura total para poder tener mas CU's con unas velocidades contenidas (el "sweet spot" de las series 5000 está entre 1600-1700MHz) y que los consumos no se disparen.


¿De dónde sacas eso de los drivers? Lo de las gamas altas ya he explicado que era por limitaciones de la distribución del hardware de la arquitectura GCN, ¿de dónde leches sacas lo de los consumos? La Vega 64 está entre 285 y 295W en carga mientras que la 5700XT (que ya he dicho que consigue el mismo rendimiento) se sitúa en 215-220W. La 2080Ti está en esos 280W y de cualquier modo históricamente las AMD siempre han consumido más para ofrecer el mismo resultado a cambio de otros puntos a favor. Es más... La rival directa de la 5700XT es la 2070 Super, que tiene un rendimiento idéntico, y esta consume 210-215W. ¿Qué "barbaridad" es entonces si es la primera vez en diez o quince años que AMD está pareja en consumos por rendimiento con AMD?

Hablar por hablar.


Pues todo eso se saca de haber leído el porque de los problemas de arquitectura con GCN y Vega, el porque del aumento de IPC con RDNA, el porque del consumo y las velocidades y el porque los drivers tienen que ser de 0. Se llama informarse (que el google está para todos y hay una tonelada de información y de gente que ha hablado del cambio de arquitectura y de que supone full RDNA), el resto, como tu lo dices (y haces) es hablar por hablar.


Te lo vuelvo a preguntar: ¿De dónde sacas eso? Lo que yo he comentado son cosas que , la mitad de las cosas que comentas como el tema de los consumos son directamente mentira y te estoy pidiendo las fuentes de las cosas que no sé porque yo no las he visto en ningún sitio.
17 respuestas