AMD "está lista" para fabricar chips ARM

La arquitectura ARM se está abriendo camino en más segmentos y mercados. Si antiguamente era sinónimo de teléfono móvil, los progresos en eficiencia y capacidad de procesamiento está llevando a la aparición de sistemas domésticos, industriales y de supercomputación que anteriormente estaban reservados a sistemas x86 de alto rendimiento, lo que supone un cambio fundamental en la industria. Y AMD no quiere quedarse tirada en la cuneta.

Así lo ha indicado Devinder Kumar, jefe de finanzas del fabricante de procesadores. Según una información publicada por Tom's Hardware, Kumar habría indicado que "si fuera necesario" y los clientes de AMD así lo pidieran, la compañía estaría dispuesta a desarrollar productos personalizados basados en ARM exactamente igual que hace lo mismo con la arquitectura x86.

Según habría declarado el ejecutivo en la Deutsche Bank Technology Conference, "Sabemos de computación [compute]. Incluso como ARM, como has señalado, tenemos una muy buena relación con ARM. Y entendemos que nuestros clientes quieren trabajar con nosotros con ese producto en particular [...] Estamos listos para dar el paso y hacerlo aunque no es x86, aunque creo que x86 es la fuerza dominante".

El hecho de que Kumar hable específicamente de "compute" da a entender que AMD habría recibido alguna clase de solicitud o muestra de interés acerca de procesadores de alto rendimiento para centros de datos, donde AMD se está haciendo fuerte gracias a la familia Epyc.

Aunque AMD es desde los inicios de la microinformática moderna la alternativa x86 a Intel, es necesario recordar que en su momento ya apostó con fuerza por ARM. Allá por el año 2016 la firma lanzó el Opteron A1100 como opción profesional, pero su impacto ha sido relativamente marginal.

Actualmente AMD sigue trabajando con la arquitectura ARM, pero principalmente en el desarrollo de microcontroladores. La compra de Xilinx, sin embargo, podría abrirle nuevas puertas, permitiendo unificar sistemas heterodoxos x86+ARM mediante FPGA de alto rendimiento.

Fuente: Tom's Hardware
En 2015 ya anunciaron un hibrido que se quedo en agua de borrajas:

Imagen
654321 escribió:En 2015 ya anunciaron un hibrido que se quedo en agua de borrajas:

Imagen

La época de "AMD anuncia cosas" fue tan larga como triste.
Yo creo que a la larga terminaremos usando ordenadores ARM. Apple ya lo ha hecho, pero el avance en ARM está siendo mayor que el de x86. Seguro que un ARM con un TDP de 65W tendría un rendimiento cojonudo. Por supuesto tendrían que adaptarle las tecnologías de seguridad de los PC, pero diría que Intel lo va a tener complicado en el futuro si no espabila y actúa ya.

Alejo I escribió:[...]

Aunque AMD es desde los inicios de la microinformática moderna la alternativa x86 a Intel, es necesario recordar que en su momento ya apostó con fuerza por AMD. Allá por el año 2016 la firma lanzó el Opteron A1100 como opción profesional, pero su impacto ha sido relativamente marginal.
[...]

Me parece que tienes una errata ahí. Creo que querías decir que AMD apostó por ARM, no que AMD apostó por AMD.
Alejo I escribió:
654321 escribió:En 2015 ya anunciaron un hibrido que se quedo en agua de borrajas:

Imagen

La época de "AMD anuncia cosas" fue tan larga como triste.


Creo que es mas triste la historia de Intel. AMD tiene mucho merito lo que ha hecho, sabiendo como Intel se la gastaba. Yo tengo dos productos de esa época de anunciar cosas y son productos muy dignos que a dia de hoy siguen funcionando mejor que sus i3 equivalentes...
konosoke escribió:Yo creo que a la larga terminaremos usando ordenadores ARM. Apple ya lo ha hecho, pero el avance en ARM está siendo mayor que el de x86. Seguro que un ARM con un TDP de 65W tendría un rendimiento cojonudo. Por supuesto tendrían que adaptarle las tecnologías de seguridad de los PC, pero diría que Intel lo va a tener complicado en el futuro si no espabila y actúa ya.

Alejo I escribió:[...]

Aunque AMD es desde los inicios de la microinformática moderna la alternativa x86 a Intel, es necesario recordar que en su momento ya apostó con fuerza por AMD. Allá por el año 2016 la firma lanzó el Opteron A1100 como opción profesional, pero su impacto ha sido relativamente marginal.
[...]

Me parece que tienes una errata ahí. Creo que querías decir que AMD apostó por ARM, no que AMD apostó por AMD.


Fuera coñas, tengo un MacBook Pro 13" con el chip M1 y me va de puta madre, sobretodo el tener +12h bateria fijo, nunca he llegado a gastarla del todo

Para ordenadores de sobremesa lo veo los ARM, sobretodo faenas cotidianas, pero para juegos... a ver como irá
Kleshk escribió:
konosoke escribió:Yo creo que a la larga terminaremos usando ordenadores ARM. Apple ya lo ha hecho, pero el avance en ARM está siendo mayor que el de x86. Seguro que un ARM con un TDP de 65W tendría un rendimiento cojonudo. Por supuesto tendrían que adaptarle las tecnologías de seguridad de los PC, pero diría que Intel lo va a tener complicado en el futuro si no espabila y actúa ya.

Alejo I escribió:[...]

Aunque AMD es desde los inicios de la microinformática moderna la alternativa x86 a Intel, es necesario recordar que en su momento ya apostó con fuerza por AMD. Allá por el año 2016 la firma lanzó el Opteron A1100 como opción profesional, pero su impacto ha sido relativamente marginal.
[...]

Me parece que tienes una errata ahí. Creo que querías decir que AMD apostó por ARM, no que AMD apostó por AMD.


Fuera coñas, tengo un MacBook Pro 13" con el chip M1 y me va de puta madre, sobretodo el tener +12h bateria fijo, nunca he llegado a gastarla del todo

Para ordenadores de sobremesa lo veo los ARM, sobretodo faenas cotidianas, pero para juegos... a ver como irá


Yo todavía los veo verdes porque están pensados para móviles y otros dispositivos ligeros, pero aumenta el TDP y el rendimiento crecerá una barbaridad. Hazlos para que puedan ir a 4~5GHz y verás lo que aumenta el rendimiento.

En cuanto a los juegos, en general la CPU no suele ser el cuello de botella porque casi todo lo pesado se calcula en la gráfica. Claro que hay casos como Crysis que lo que piden es CPU y, si juegas a 1080p la CPU suele poner el límite porque la gráfica suele ir sobrada para esa resolución hoy en día. De todas formas, los móviles ya tienen gráficos bastante decentes y no los tienen mejores por las limitaciones de memoria y el llegar a todos los clientes posibles, que pueden tener móviles cutres. Ponlos en un PC y seguro que la pueden hacer cosas bastante similares a los juegos de x86. Algunos no porque serán pesados para la CPU, pero la mayoría no tendrían ese problema.
konosoke escribió:Yo todavía los veo verdes porque están pensados para móviles y otros dispositivos ligeros, pero aumenta el TDP y el rendimiento crecerá una barbaridad. Hazlos para que puedan ir a 4~5GHz y verás lo que aumenta el rendimiento.

En cuanto a los juegos, en general la CPU no suele ser el cuello de botella porque casi todo lo pesado se calcula en la gráfica. Claro que hay casos como Crysis que lo que piden es CPU y, si juegas a 1080p la CPU suele poner el límite porque la gráfica suele ir sobrada para esa resolución hoy en día. De todas formas, los móviles ya tienen gráficos bastante decentes y no los tienen mejores por las limitaciones de memoria y el llegar a todos los clientes posibles, que pueden tener móviles cutres. Ponlos en un PC y seguro que la pueden hacer cosas bastante similares a los juegos de x86. Algunos no porque serán pesados para la CPU, pero la mayoría no tendrían ese problema.


En el PC tengo un i7 6700, una 1070 8GB, 16GB RAM y varios discos duros SSD
el Macbook pro le puse 16GB de RAM

Es más rápìdo el MacBook pro renderizando videos 4K en Adobe Premiere, exportar fotografías RAW en Lightroom que el PC... pensaba que no se irían de mucho, pero el cabrito casi lo hace a mitad de tiempo

También pensé al inicio que estarían verdes, pero al probar uno de primera mano ( en un iMac de los nuevos ) y el otro macbook pro tenía ya 12 años ( mid-2009 ) hice el cambio
Perfecto, que se dejen de mierdas de bajo consumo y que fabriquen mas GPUs
A ver qué tal...el tiempo lo dirá.
Lo guay del asunto que creo que nadie se ha dado cuenta es que AMD estará pagandole a Nvidia royalties.

Bromas aparte, creo que es beneficioso para todos aunque como aficionado espero que siempre haya CPUs punteras como las que llevamos toda la vida disfrutando.
Kleshk escribió:
konosoke escribió:Yo todavía los veo verdes porque están pensados para móviles y otros dispositivos ligeros, pero aumenta el TDP y el rendimiento crecerá una barbaridad. Hazlos para que puedan ir a 4~5GHz y verás lo que aumenta el rendimiento.

En cuanto a los juegos, en general la CPU no suele ser el cuello de botella porque casi todo lo pesado se calcula en la gráfica. Claro que hay casos como Crysis que lo que piden es CPU y, si juegas a 1080p la CPU suele poner el límite porque la gráfica suele ir sobrada para esa resolución hoy en día. De todas formas, los móviles ya tienen gráficos bastante decentes y no los tienen mejores por las limitaciones de memoria y el llegar a todos los clientes posibles, que pueden tener móviles cutres. Ponlos en un PC y seguro que la pueden hacer cosas bastante similares a los juegos de x86. Algunos no porque serán pesados para la CPU, pero la mayoría no tendrían ese problema.


En el PC tengo un i7 6700, una 1070 8GB, 16GB RAM y varios discos duros SSD
el Macbook pro le puse 16GB de RAM

Es más rápìdo el MacBook pro renderizando videos 4K en Adobe Premiere, exportar fotografías RAW en Lightroom que el PC... pensaba que no se irían de mucho, pero el cabrito casi lo hace a mitad de tiempo

También pensé al inicio que estarían verdes, pero al probar uno de primera mano ( en un iMac de los nuevos ) y el otro macbook pro tenía ya 12 años ( mid-2009 ) hice el cambio


Pero eso que dices se hace con la gráfica, no con la CPU. Su uso es mínimo pues solo tiene que abastecer y controlar la GPU.
konosoke escribió:Pero eso que dices se hace con la gráfica, no con la CPU. Su uso es mínimo pues solo tiene que abastecer y controlar la GPU.


Pues aún más, que el chip M1 pueda con la Nvidia 1070...
Ahora solo falta que tengan algo para fabricar y que vaya a tener tirada dentro del mercado. Porque la situación ahora tampoco está para muchos experimentos. Aunque tampoco estoy diciendo que se tenga que parar la evolución por ello.
Igual digo una locura, pero creo que éste es el camino, la arquitectura x86 la veo obsoleta, ya no no sólo por la eficiencia energética, también por la seguridad, y viendo cómo viene arm y que cada vez las grandes empresas de software están apostando más por ella y, el software, que hasta ahora era uno de los grandes limitadores, cada vez lo es menos… creo que a esa maravillosa pero ya vieja arquitectura de los años 70 cada vez le queda menos tiempo entre nosotros.
Llevan diciendo eso años y años XD
Cuando Apple saco los equipos con arm en EOL echando pestes y ahora es la panacea jeejej
DualSensei escribió:Igual digo una locura, pero creo que éste es el camino, la arquitectura x86 la veo obsoleta, ya no no sólo por la eficiencia energética, también por la seguridad, y viendo cómo viene arm y que cada vez las grandes empresas de software están apostando más por ella y, el software, que hasta ahora era uno de los grandes limitadores, cada vez lo es menos… creo que a esa maravillosa pero ya vieja arquitectura de los años 70 cada vez le queda menos tiempo entre nosotros.


La arquitectura x86 no esta obsoleta para nada en seguridad, de hecho, se le invierte mas I+D porque es muy usada sobretodo en servidores. Cuando se descubrieron los fallos de seguridad que afectaban primariamente a intel, resulta que tambien afectaron a ARM y a AMD.

En cuanto eficiencia energetica, hay que tener encuenta, si lo comparas contra un M1 de apple, que un x86 no se le han incorporado subprocesadores para tareas especificas, asi cualquiera puede ganar rendimiento.

A muchos se les olvida que los M1 de apple tienen una burrada de transistores, que comparados con un x86 pues asi cualquiera va a obtener rendimiento "extra".
ARM no había sido comprada por nvidia? O entendí algo mal??-
GrimFregando escribió:ARM no había sido comprada por nvidia? O entendí algo mal??-

Está en proceso, pero posiblemente no podría cerrar su arquitectura al resto de la industria ni aunque quisiera por razones legales. Para que las autoridades aprueben la compra primero deberán prometer que no van a abusar así del mercado.
<<AMD "ESTA LISTA" PARA FABRICAR CHIPS ARM>>


¿Es que han montado una fundicion de chips y yo no me habia enterado?
Que bueno ahora casi todo se está migrando a arm.
CrazyV escribió:Que bueno ahora casi todo se está migrando a arm.


¿Que es "casi todo"?
Porque yo debo de vivir en una realidad paralela, y lo que siempre fue x86 sigue siendo x86 y lo que siempre fue ARM sigue siendo ARM. Excepto los portatiles de apple, y los all-in-one de apple (mal-llamados ahora imac), que no dejan de ser el mismo portatil pero montado en otro chasis, sin bateria, y con pantalla grande
Kleshk escribió:
konosoke escribió:Pero eso que dices se hace con la gráfica, no con la CPU. Su uso es mínimo pues solo tiene que abastecer y controlar la GPU.


Pues aún más, que el chip M1 pueda con la Nvidia 1070...


https://elchapuzasinformatico.com/2021/ ... ndimiento/

Puede hasta con la RTX 3090.

Logico y normal, tiene soporte nativo, las nvidia no se ponen ni al 20% de consumo, es totalmente imposible que en esas condiciones rindan igual.

Es como si a un Ferrari le metes por una pista forestal, un Seat Arosa to warro se lo merienda, que bien va el Seat Arosa!!! [+risas] [+risas] [+risas]

Saludos.
Pues seria interesante tener un micro hibrido Arm/x86. Para tareas de ofimatica, navegar, ver pelis que tire de Arm, mientras para tareas pesadas x86. No hay que olvidar que la arquitectura RISC estaba presente en los miticos Commodore Amiga o las estaciones graficas de Silicon Graphics. Creo que RISC podria a volver a dar guerra si esto evoluciona en buena direccion (ahi esta Apple con sus M1).
No lo ha comentado nadie, pero actualmente los Amd Ryzen ya llevan un mini core Arm en su interior encargado de temas de seguridad (tpm y varias cosas mas), osea que algo de experiencia tienen.
Kleshk escribió:En el PC tengo un i7 6700, una 1070 8GB, 16GB RAM y varios discos duros SSD
el Macbook pro le puse 16GB de RAM

Es más rápìdo el MacBook pro renderizando videos 4K en Adobe Premiere, exportar fotografías RAW en Lightroom que el PC... pensaba que no se irían de mucho, pero el cabrito casi lo hace a mitad de tiempo


La cpu que usas, creo que es del 2015 y estamos en el 2022. Son varios años de diferencia en lo mismo. Ademas, los ordenadores de apple, estan echos exclusivamente para video y audio profesional y el software esta mas depurado.

habria que ver el m1 de apple, en windows y usando su OS en muchas configuraciones de hardware diferente. Seguro que seria una castaña.
sev45lora escribió:
Kleshk escribió:En el PC tengo un i7 6700, una 1070 8GB, 16GB RAM y varios discos duros SSD
el Macbook pro le puse 16GB de RAM

Es más rápìdo el MacBook pro renderizando videos 4K en Adobe Premiere, exportar fotografías RAW en Lightroom que el PC... pensaba que no se irían de mucho, pero el cabrito casi lo hace a mitad de tiempo


La cpu que usas, creo que es del 2015 y estamos en el 2022. Son varios años de diferencia en lo mismo. Ademas, los ordenadores de apple, estan echos exclusivamente para video y audio profesional y el software esta mas depurado.

habria que ver el m1 de apple, en windows y usando su OS en muchas configuraciones de hardware diferente. Seguro que seria una castaña.


y es normal, por eso me compré un macbook pro para trabajo ( foto y video ) porque aún con las aplicaciones de Adobe... joder como tira, para faenas de CM en un equipo de baloncesto voy que tiro.

¿Y para jugar? Pues por eso tengo el PC también ( a ver si cae una 3070 )
30 respuestas