Intel reorganiza su departamento de tarjetas gráficas y reduce el papel de Raja Koduri

Que las tarjetas gráficas de Intel no han tenido el lanzamiento esperado es lo que se dice un secreto a voces. A pesar de que el fabricante estadounidense no ha facilitado cifras de ventas concretas, sabemos que han llegado con una demora considerable y que su rendimiento, sin ser terrible para su precio, dista del que están dando los últimos productos de Nvidia y AMD. Tal vez por eso no sorprenda la noticia de que la compañía ha decidido reestructurar su departamento de diseño de GPU.

Según señala Bloomberg a partir de fuentes oficiales, Intel reorganizará la división de tarjetas gráficas, conocida internamente como Accelerated Computing Systems and Graphics Group (AXG), para englobarla dentro del departamento de informática de consumo, Client Compute Group (CCG). No es una jugada menor. Intel había depositado tantas esperanzas en sus GPU que incluso les había concedido su propio status diferenciado dentro del organigrama de la empresa, y mal han tenido que ir las cosas (o pobres ser los pronósticos) para ser absorbida por Client.

Por su parte, las soluciones de aceleración profesional para grandes clientes (Accelerated Computing Systems and Graphics Group) migrarán a la división Data Center & AI.

Intel ha estado actualizando el software de las tarjetas Arc para mejorar su rendimiento.

Con todo, Intel manifiesta que las tarjetas gráficas y la aceleración de procesamiento mediante GPU sigue siendo una prioridad para la empresa, para lo cual "evolucionará" su estructura para "acelerar y escalar su impacto" usando "estrategias con una voz unificada para los clientes". Según señala Tom's Hardware, Intel sigue planeando lanzar una segunda generación de sus tarjetas, y de hecho, su hoja de ruta no se habría visto alterada por los cambios, así que al menos no hay riesgo de cancelación.

Sea como fuere, el Accelerated Computing Systems and Graphics Group ha pasado a mejor vida, y Raja Koduri, que abandonó la división Radeon de AMD para liderarlo en lo que se consideró poco menos que una traición, "regresará a su rol como Arquitecto Jefe de Intel", el mismo con el que se incorporó a Intel en 2007).
Raja es como la cruzcampo, donde va, triunfa.
No se si el hombre es un meme andante o que siempre le dan pocos recursos, tarde y mal.
Buenas.

Nunca me han gustado, igual que sus micros, se pagan mucho y no dan lo que prometen.

Un saludo
Jhonny escribió:Raja es como la cruzcampo, donde va, triunfa.
No se si el hombre es un meme andante o que siempre le dan pocos recursos, tarde y mal.


Ojo porque bajo el mando de este tío se han hecho cosas muy interesantes. Por ejemplo, estuvo en ATI durante el desarrollo de las series X100, X1000, HD 2000, HD 3000, etc. También trabajó en Apple y luego en AMD desde la serie RX 5xx a Vega.

Yo apuesto a que es más una cuestión de recursos. Aunque nunca se podrá saber bien a ciencia cierta.
Es esto cierto?
https://wccftech.com/intel-arc-a770-a750-a580-graphics-cards-official-specs-unveiled-up-to-32-xe-cores-16-gb-gddr6-2-1-ghz-clocks/
Pinchad en los enlaces de RT performance y test de los 48 juegos.
Porque de ser así no está pero que nada mal, la Arc 770 16GB algo más barata que la RTX 3060 de 12GB y no va pero que nada mal.
De hecho hasta me gustan si son realmente así, y me pintaría más a problema de retrasos y mala comunicación, porque la verdad es que ni sabía que existían esas tarjetas.
darksch escribió:Es esto cierto?
https://wccftech.com/intel-arc-a770-a750-a580-graphics-cards-official-specs-unveiled-up-to-32-xe-cores-16-gb-gddr6-2-1-ghz-clocks/
Pinchad en los enlaces de RT performance y test de los 48 juegos.
Porque de ser así no está pero que nada mal, la Arc 770 16GB algo más barata que la RTX 3060 de 12GB y no va pero que nada mal.
De hecho hasta me gustan si son realmente así, y me pintaría más a problema de retrasos y mala comunicación, porque la verdad es que ni sabía que existían esas tarjetas.

Han sacado bastantes benchmarks y da buenos resultados en algunos juegos en dx12 con windows 11.
El problema es que no tienen un rendimiento constante y tienen varios problemas con muchos juegos, para mi son tarjetas "early access" y se han anticipado al sacar un producto que no esta listo, pero me imagino que una vez metidos en el asunto pues retrasar las tarjetas solo habria aumentado mas la diferencia tecnológica con la competencia, veremos con el paso del tiempo o con su siguiente generación.
Pues parece que degradan su división destinada a GPUs, no deben haber ido bien las cosas.

Han llegado en un momento en el que hay gráficas de sobra por todas partes. Si hubiesen salido cuando debían, antes del desplome de las criptos, los jugadores se las hubiesen quitado de las manos.

Aunque sigan pensando en sacar una segunda generación de gráficas dedicadas (supongo que porque ya tendrán mucho trabajo avanzado) la verdad es que estas GPUs no transmiten mucha confianza de cara a su suporte a medio-largo plazo.
Pues ya sabeis lo que significa esto: Adios a las GPUs de Intel, proximamente en sus noticias.
Ojalá Intel se pusiera las pilas fabricando GPUs y acabase siendo una alternativa real a AMD y NVIDIA.

Pero no tiene pinta :(
Me parece a mi q el problema real es que llegaron tarde a la burbuja de la minería de criptomonedas.

Y que el objetivo de Intel era ofrecer una alternativa a los mineros, aprovechando la falta de stock de tarjetas nvidia y amd, mas q competir en el mundo gamer.


Vamos, digo yo q alguien en Intel sabría que muy dificil iba a ser derrocar a Nvidia en el mundo gamer. Y mas asi a las primeras de cambio.

Y si ya en la primera batalla, en la guerra gamer, ya estan retirando recursos para evitar mas bajas. Pues sinceramente, más motivos para creer q su objetivo no era entrar en esa guerra.

En Intel vieron como Nvidia y Amd se llenaban los bolsillos con la mineria via GPUs. Y quisieron sumarse a la fiesta. Pero para cuando llegaron ya no habia fiesta, y así q digeron 'hola sólo pasabamos a saludar, pero ya nos vamos, q nos esta esperando el taxi'.
almuela escribió:Me parece a mi q el problema real es que llegaron tarde a la burbuja de la minería de criptomonedas.

Y que el objetivo de Intel era ofrecer una alternativa a los mineros, aprovechando la falta de stock de tarjetas nvidia y amd, mas q competir en el mundo gamer.


Vamos, digo yo q alguien en Intel sabría que muy dificil iba a ser derrocar a Nvidia en el mundo gamer. Y mas asi a las primeras de cambio.

Y si ya en la primera batalla, en la guerra gamer, ya estan retirando recursos para evitar mas bajas. Pues sinceramente, más motivos para creer q su objetivo no era entrar en esa guerra.

En Intel vieron como Nvidia y Amd se llenaban los bolsillos con la mineria via GPUs. Y quisieron sumarse a la fiesta. Pero para cuando llegaron ya no habia fiesta, y así q digeron 'hola sólo pasabamos a saludar, pero ya nos vamos, q nos esta esperando el taxi'.


Estas gráficas no servían para minar. Al menos era así hace unos meses. A día de hoy ni idea porque ya no interesa minar criptos xD
Cuando las empresas las rigen accionistas que en general no tienen ni puta idea y solo buscan beneficios... es lo que pasa.
Al menos aquí en México aun no he visto ninguna tarjeta de Intel a la venta, ni siquiera en Amazon, eso dice mucho de lo que Intel confiaba en sus tarjetas graficas.
buronix escribió:
darksch escribió:Es esto cierto?
https://wccftech.com/intel-arc-a770-a750-a580-graphics-cards-official-specs-unveiled-up-to-32-xe-cores-16-gb-gddr6-2-1-ghz-clocks/
Pinchad en los enlaces de RT performance y test de los 48 juegos.
Porque de ser así no está pero que nada mal, la Arc 770 16GB algo más barata que la RTX 3060 de 12GB y no va pero que nada mal.
De hecho hasta me gustan si son realmente así, y me pintaría más a problema de retrasos y mala comunicación, porque la verdad es que ni sabía que existían esas tarjetas.

Han sacado bastantes benchmarks y da buenos resultados en algunos juegos en dx12 con windows 11.
El problema es que no tienen un rendimiento constante y tienen varios problemas con muchos juegos, para mi son tarjetas "early access" y se han anticipado al sacar un producto que no esta listo, pero me imagino que una vez metidos en el asunto pues retrasar las tarjetas solo habria aumentado mas la diferencia tecnológica con la competencia, veremos con el paso del tiempo o con su siguiente generación.


Efectivamente, también hay muchas quejas con su software, tanto drivers (con artefactos en varios juegos) como con su propio equivalente al Nvidia experience (poca usabilidad, Bugs molestos...)

Pero bueno, eso va a mejorar y tener mas competencia en la gama baja está bien, todo el mundo habla de su capacidad para el códec av1, que incluso la más baja de su gama tiene las capacidades... Que si es el códec del futuro streaming y tal...
Es que el precio al que salieron en relación a lo que ofrecían con respecto a la competencia no tenía sentido ninguno.
Si las hubieran lanzado cuando una 3060 costaba 500 eurazos hubieran tenido algo de sentido ...
Pues es el segundo intento de Intel de adentearse en el jugoso mercado de las graficas pero parece que no aprendieron de sus errores de los 90 y el Raja ese menudo judas.
Veo que lo pusieron a Raja
Las GPU intel han sufrido una especie de "efecto internet explorer".
¿Que es el efecto internet explorer?, a grandes rasgos se puede decir que a dia de hoy, prácticamente nadie que sepa un mínimo de ordenadores usa como navegador el microsoft edge, y eso es por la malísima fama que tienen los navegadores de microsoft, y que es principalmente heredada del infame internet explorer.
Pues a intel le pasa eso con sus GPUs, independientemente de si son buenas o no, la mala fama amasada por intel durante años con sus integradas de mierda le pesa demasiado como para que la gente se arriesgue a comprar sus GPUs.
Aparte, el mercado gamer está compuesto por gente con un mínimo de idea, por lo que el efecto se acentúa.
osodato escribió:Las GPU intel han sufrido una especie de "efecto internet explorer".
¿Que es el efecto internet explorer?, a grandes rasgos se puede decir que a dia de hoy, prácticamente nadie que sepa un mínimo de ordenadores usa como navegador el microsoft edge, y eso es por la malísima fama que tienen los navegadores de microsoft, y que es principalmente heredada del infame internet explorer.
Pues a intel le pasa eso con sus GPUs, independientemente de si son buenas o no, la mala fama amasada por intel durante años con sus integradas de mierda le pesa demasiado como para que la gente se arriesgue a comprar sus GPUs.
Aparte, el mercado gamer está compuesto por gente con un mínimo de idea, por lo que el efecto se acentúa.

Pero por qué el odio al Edge? Yo es que lo uso desde hace años y sin ningún problema, solo va mejorando, desde que se ha convertido en una variante de Chromium, solo mejora, además con 3 o 4 extensiones que uso, nunca tuve problemas.
C.992 escribió:
osodato escribió:Las GPU intel han sufrido una especie de "efecto internet explorer".
¿Que es el efecto internet explorer?, a grandes rasgos se puede decir que a dia de hoy, prácticamente nadie que sepa un mínimo de ordenadores usa como navegador el microsoft edge, y eso es por la malísima fama que tienen los navegadores de microsoft, y que es principalmente heredada del infame internet explorer.
Pues a intel le pasa eso con sus GPUs, independientemente de si son buenas o no, la mala fama amasada por intel durante años con sus integradas de mierda le pesa demasiado como para que la gente se arriesgue a comprar sus GPUs.
Aparte, el mercado gamer está compuesto por gente con un mínimo de idea, por lo que el efecto se acentúa.

Pero por qué el odio al Edge? Yo es que lo uso desde hace años y sin ningún problema, solo va mejorando, desde que se ha convertido en una variante de Chromium, solo mejora, además con 3 o 4 extensiones que uso, nunca tuve problemas.

Acabo de explicarlo, y es porque la gente ve el icono con la "e" y piensa en internet explorer.
20 respuestas