Intel promete tener maduro su proceso de 7 nm para 2023 y advierte de una merma de ingresos tras ...

Estamos en fechas de rendir cuentas, e Intel no podía pasar por alto su reunión con los accionistas. En especial considerando que el cuarto trimestre de 2020 fue realmente positivo a pesar de las dificultades. Así lo evidencian unas cuentas que durante los últimos tres meses del año pasado arrojan unos ingresos brutos de aproximadamente 20.000 millones de dólares, con un beneficio de 5.900 millones de dólares.

El año 2020 dejó resultados de récord, con casi 78.000 millones de dólares en ingresos (lo que supone un aumento interanual del 8 %) y unos beneficios de 23.700 millones (una reducción del 1 %). Si nos fijamos estrictamente en los ingresos brutos, se trata del quinto año consecutivo rompiendo los registros anteriores, aunque esa minúscula merma de beneficios deja entrever un 2021 que se prevé más complicado.

Según ha señalado Intel en su reunión con prensa y accionistas, el próximo trimestre los ingresos brutos caerán un 12 % con respecto al mismo periodo de 2020, proyectando un descenso general para todo 2021 del 6 %. Gran parte de esta merma debería producirse a raíz del enfriamiento de las ventas para centros de datos y servidores.

Más interesante para el consumidor puede ser el hecho de que Intel espera que su división Client (informática personal) vaya a tener que reforzar las cuentas de la empresa con un catálogo de productos que al menos a corto y medio plazo seguirán basados en progresivas actualizaciones de su nuevo proceso de SuperFin de 10 nm.

Sin ser el nodo más pequeño, Intel cuenta con que el rediseño de sus transistores y el trabajo de mejora de las iGPU le ayudarán a mantener su competitividad no ya ante AMD, sino también ante productos como los chips ARM de Apple.

¿Hasta cuándo durarán estos recién estrenados 10 nm? Esa es una pregunta para la que no hay respuesta, puesto que Intel tiende a "estirar" sus arquitecturas tanto como puede para maximizar su rentabilidad. Sin embargo, Intel cuenta con que su nodo de 7 nm habrá alcanzado la madurez para el año 2023. Pat Gelsinger, nuevo CEO de Intel, parece estar particularmente satisfecho con los trabajos de migración, a pesar de que no hace tanto 2023 se consideraba una proyección tardía, por no decir pesimista.

Otro detalle a tener en cuenta es que Gelsinger no quiso hablar sobre la posible externalización de sus procesadores. Al parecer Intel aún está valorando subcontratar parte de la producción y todavía no hay nada que anunciar oficialmente, aunque según señala AnandTech, la meta es que para el año 2023 la mayoría de los productos de Intel sean fabricados por la propia compañía. Esta circunstancia básicamente tira por tierra cualquier posibilidad de que la firma esté pensando en deshacerse de sus fundiciones, tal y como aventuraban algunos rumores.

Fuente: AnandTech
Puf... van un poco lentos estos de intel. Llevan unos años que deberían de mejorar mucho
Yo no entiendo esta mania de los fabricantes por hacer las cpus cada vez mas "pequeñas".
Si luego en los sobremesa tienes un disipador que es 50 veces mas grande que la cpu y ya del tamaño de la grafica ya ni hablamos.
Bajo mi punto de vista el tamaño no importa ( :-| ), deberian ser mas grandes y supongo que serian mas frescos. Y mas baratos por ser mas faciles de fabricar. A ver si algun fabricante se entera que no importaria que fuesen mas grandes si nos costaran menos y fuesen mas frescos y se acaba ya la tonteria de lo "micro".... Y posiblemente ese fabricante se forre.
¿a alguien le importaria que el micro fuera del tamaño de un disipador si fuera mucho mas barato y mas fresco rindiendo lo mismo?
javivi-2007 escribió:Yo no entiendo esta mania de los fabricantes por hacer las cpus cada vez mas "pequeñas".
Si luego en los sobremesa tienes un disipador que es 50 veces mas grande que la cpu y ya del tamaño de la grafica ya ni hablamos.
Bajo mi punto de vista el tamaño no importa ( :-| ), deberian ser mas grandes y supongo que serian mas frescos. Y mas baratos por ser mas faciles de fabricar. A ver si algun fabricante se entera que no importaria que fuesen mas grandes si nos costaran menos y fuesen mas frescos y se acaba ya la tonteria de lo "micro".... Y posiblemente ese fabricante se forre.
¿a alguien le importaria que el micro fuera del tamaño de un disipador si fuera mucho mas barato y mas fresco rindiendo lo mismo?


El cambio de litografía no solo produce componentes más pequeños sino también menor consumo energético y mayor rendimiento, entre otras cosas debido ese menor consumo y su consecuente menor temperatura.
Intel debería estar acojonado tras conocerse el nuevo procesador de Apple. No porque Apple vaya a dominar el mercado mundial, sino que ARM es más grande que nunca y acabará sustituyendo por completo los X86.
zulykat escribió:
javivi-2007 escribió:Yo no entiendo esta mania de los fabricantes por hacer las cpus cada vez mas "pequeñas".
Si luego en los sobremesa tienes un disipador que es 50 veces mas grande que la cpu y ya del tamaño de la grafica ya ni hablamos.
Bajo mi punto de vista el tamaño no importa ( :-| ), deberian ser mas grandes y supongo que serian mas frescos. Y mas baratos por ser mas faciles de fabricar. A ver si algun fabricante se entera que no importaria que fuesen mas grandes si nos costaran menos y fuesen mas frescos y se acaba ya la tonteria de lo "micro".... Y posiblemente ese fabricante se forre.
¿a alguien le importaria que el micro fuera del tamaño de un disipador si fuera mucho mas barato y mas fresco rindiendo lo mismo?


El cambio de litografía no solo produce componentes más pequeños sino también menor consumo energético y mayor rendimiento, entre otras cosas debido ese menor consumo y su consecuente menor temperatura.


No del todo cierto... Se hacen más pequeños los transistores... cosa que NO implica que sus conexiones sean más pequeñas. Pasan cosas extrañísimas, se hacen más pequeños los trasistores, sus conexiones no, luego hay que hacer crecer la corriente en el transistor... consume más entonces.. eso sí, es más rápido.

Si se logra minorar el transistor y sus conexiones, efectivamente, por lo general se reduce el consumo por transistor, pero aparece la temida unidad de potencia por unidad de area. Luego al meter más transistores en menos espacio, pues resulta que hay más calor que en la generación anterior... SOLUCION... super disipador....

Y esa es la razón última de porqué, a nuevas tecnologías, casi siempre, nuevo tocho disipador.... Que un PC de casa no lo ves, pero en un portátil o un móvil jode y no veas...
Ya hace tiempo que van tarde a todos sitios.
Hay un abismo entre la percepcion que desde los medios se tiene de la compañia y los resultados economicos de la compañia.

Sigue teniendo musculo de sobra.
jose1024 escribió:Hay un abismo entre la percepcion que desde los medios se tiene de la compañia y los resultados economicos de la compañia.

Sigue teniendo musculo de sobra.

Quién cogiera la "miseria" de Intel.
javivi-2007 escribió:Yo no entiendo esta mania de los fabricantes por hacer las cpus cada vez mas "pequeñas".
Si luego en los sobremesa tienes un disipador que es 50 veces mas grande que la cpu y ya del tamaño de la grafica ya ni hablamos.
Bajo mi punto de vista el tamaño no importa ( :-| ), deberian ser mas grandes y supongo que serian mas frescos. Y mas baratos por ser mas faciles de fabricar. A ver si algun fabricante se entera que no importaria que fuesen mas grandes si nos costaran menos y fuesen mas frescos y se acaba ya la tonteria de lo "micro".... Y posiblemente ese fabricante se forre.
¿a alguien le importaria que el micro fuera del tamaño de un disipador si fuera mucho mas barato y mas fresco rindiendo lo mismo?


Les podrías escribir un correo, lo mismo no lo han pensado.
pirtugan escribió:
zulykat escribió:
javivi-2007 escribió:Yo no entiendo esta mania de los fabricantes por hacer las cpus cada vez mas "pequeñas".
Si luego en los sobremesa tienes un disipador que es 50 veces mas grande que la cpu y ya del tamaño de la grafica ya ni hablamos.
Bajo mi punto de vista el tamaño no importa ( :-| ), deberian ser mas grandes y supongo que serian mas frescos. Y mas baratos por ser mas faciles de fabricar. A ver si algun fabricante se entera que no importaria que fuesen mas grandes si nos costaran menos y fuesen mas frescos y se acaba ya la tonteria de lo "micro".... Y posiblemente ese fabricante se forre.
¿a alguien le importaria que el micro fuera del tamaño de un disipador si fuera mucho mas barato y mas fresco rindiendo lo mismo?


El cambio de litografía no solo produce componentes más pequeños sino también menor consumo energético y mayor rendimiento, entre otras cosas debido ese menor consumo y su consecuente menor temperatura.


No del todo cierto... Se hacen más pequeños los transistores... cosa que NO implica que sus conexiones sean más pequeñas. Pasan cosas extrañísimas, se hacen más pequeños los trasistores, sus conexiones no, luego hay que hacer crecer la corriente en el transistor... consume más entonces.. eso sí, es más rápido.

Si se logra minorar el transistor y sus conexiones, efectivamente, por lo general se reduce el consumo por transistor, pero aparece la temida unidad de potencia por unidad de area. Luego al meter más transistores en menos espacio, pues resulta que hay más calor que en la generación anterior... SOLUCION... super disipador....

Y esa es la razón última de porqué, a nuevas tecnologías, casi siempre, nuevo tocho disipador.... Que un PC de casa no lo ves, pero en un portátil o un móvil jode y no veas...


Eso es parcialmente cierto, a menor tamaño del transistor, en la misma superficie, se meten muchos más transistores (de ahí "la potencia bruta de cálculo" [ojo a las comillas]) por lo que, a mismas tareas de generación anterior, menor consumo. El ejemplo más claro de esto es PS5 o XSX moviendo juegos retrocompatibles, consume sustancialmente menos que sus respectivas consolas de generación anterior. De ahí que se den las cifras de rendimiento/Watio_consumido



Minuto 6:42 dónde comparan Tomb Raider
Pa cuando esté el Pragmata oye!
pirtugan escribió:
zulykat escribió:
javivi-2007 escribió:Yo no entiendo esta mania de los fabricantes por hacer las cpus cada vez mas "pequeñas".
Si luego en los sobremesa tienes un disipador que es 50 veces mas grande que la cpu y ya del tamaño de la grafica ya ni hablamos.
Bajo mi punto de vista el tamaño no importa ( :-| ), deberian ser mas grandes y supongo que serian mas frescos. Y mas baratos por ser mas faciles de fabricar. A ver si algun fabricante se entera que no importaria que fuesen mas grandes si nos costaran menos y fuesen mas frescos y se acaba ya la tonteria de lo "micro".... Y posiblemente ese fabricante se forre.
¿a alguien le importaria que el micro fuera del tamaño de un disipador si fuera mucho mas barato y mas fresco rindiendo lo mismo?


El cambio de litografía no solo produce componentes más pequeños sino también menor consumo energético y mayor rendimiento, entre otras cosas debido ese menor consumo y su consecuente menor temperatura.


No del todo cierto... Se hacen más pequeños los transistores... cosa que NO implica que sus conexiones sean más pequeñas. Pasan cosas extrañísimas, se hacen más pequeños los trasistores, sus conexiones no, luego hay que hacer crecer la corriente en el transistor... consume más entonces.. eso sí, es más rápido.

Si se logra minorar el transistor y sus conexiones, efectivamente, por lo general se reduce el consumo por transistor, pero aparece la temida unidad de potencia por unidad de area. Luego al meter más transistores en menos espacio, pues resulta que hay más calor que en la generación anterior... SOLUCION... super disipador....

Y esa es la razón última de porqué, a nuevas tecnologías, casi siempre, nuevo tocho disipador.... Que un PC de casa no lo ves, pero en un portátil o un móvil jode y no veas...


Yo estoy hablando lo que implica el cambio de litografía sobre el papel. Lo que hagan las marcas ya son cosas distintas, pero en el campo de la telefonía móvil hemos visto en los últimos años como el paso de los 10nm a 7nm ha reducido el consumo y en menor medida la temperatura y ha habido un aumento de rendimiento. Los nuevos socs ARM de Apple son un buen ejemplo.
Intel es la nueva Nokia.
Vamos que los 7nm son los nuevos 10nm, el problema es que Intel se ha dormido en los laureles y no descartemos que esos famosos 7nm no sean en realidad los famosos 5nm que supuestamente fabricaria TSMC.
@zulykat en el papel pasa lo que te digo. Si bajas tamaño, bajas lo que consume el transistor en cuestión (nunca más de un 25%), pero como puedes meter más transistores por unidad de area, el consumo total sube y por tanto la potencia total a disipar sube.

La verdad es que me alucinan los comentarios de la peña... Parece que pasar de 10 nm a 7 nm es como el que va a mear al baño y no lo hace por que no le da la gana.... Voy a intentar explicarlo fácil.

ARM NO está en 7nm propio... Porque NO tienen foundry.
AMD NO está en 7nm propio... Porque NO tienen foundry.
Apple NO está en 7nm propio... Porque NO tienen foundry.
Microsoft NO está en 7nm propio... Porque NO tienen foundry.
Sony NO está en 7nm propio... Porque NO tienen foundry.

La mayoría tira de TSMC...

Sólo queda Samsung con 7nm... Porque Intel tira la toalla hasta 2023.

Estamos en el límite de lo conocido... a partir de ahora, toca renovar TODO...

Luego que Intel no tenga 7 nm es MALO, malo MALO..... Para todos... pufff
Para 2023 ya estaran trabajando en 5nm o menos la competencia ... ahí lo dejo.
Edy escribió:Para 2023 ya estaran trabajando en 5nm o menos la competencia ... ahí lo dejo.


Los nm hace años que no son indicativo de nada. Ahí lo dejo
Edy escribió:Para 2023 ya estaran trabajando en 5nm o menos la competencia ... ahí lo dejo.

Según tengo entendido, los 7nm de Intel equivaldrían a unos 5nm de TSMC. Asi que estarán a la par.
drumtronicpw01011110 escribió:
Edy escribió:Para 2023 ya estaran trabajando en 5nm o menos la competencia ... ahí lo dejo.


Los nm hace años que no son indicativo de nada. Ahí lo dejo


Si claro .... ahora resulta que llevamos AÑOS con los 14nm .... a coño ... si, Intel lleva AÑOS y por eso ahora se come una mierda. Resumen: Tienen un nivel de rendimiento/consumo tan desmedido, que directamente es ridiculo ni compararlo con la competencia.
Son 7nm pero no son 7nm, la verdad es que es confuso para algo que en un principio solo es un submultiplo del metro y que indica el tamaño de un transistor.

¿Alguien podria explicarlo?

Tengo entendido que es solo una campaña de marquetin y mientras Intel dice la verdad, o se acerca mas a ella, los otros mienten de forma descarada.
Al final , tambien puedes tener mas nanometros , pero hacer CPUs que hagan un uso inteligente de la energia.

Intel , despues de una DECADA (al menos 10 años) apoltronada en la comodidad de vendernos lo mismo una y otra vez , acaba de verle las orejas al lobo. Se acabo el refrito iX...

Los Ryzen son buenos, muy buenos y prometen ser una delicia en portatiles , en sobremesa son espectaculares y lso chips de Apple me parecen fantasticos y un gran avance.

Ahora quieren dar un volantazo a la situacion y va a tener que pasar por ALIARSE e IMITAR, ademas requerira tiempo.

Puedo imaginar hibridos X86 con ARM y sus nuevas unidades graficas en pastillas muy eficientes fabricadas por terceros. No hay otra. Tiene que converger el mercado movil/sobremesa y para eso es necesario controlar consumos, temperatura y ofrecer saltos grandes en rendimiento.

La pieza que les faltara , es Windows. Microsoft lleva años de fracasos en la convergencia...si no es capaz de entenderse con intel y lanzar un ordago de tecnologia a Apple , la plataforma x86 esta acabada. Sinceramente lo veo asi.

Los de Appple lo han hecho muy bien. Han abierto un nuevo mundo de posibilidades. Esos chips , los veo en coches, cascos de vr, estaciones de trabajo , telefonos, consolas y servidores en 5 años . Y encima con un SDK jodidamente maduro..en fin. Deseo suerte a Intel , aunque dudo mucho que sea capaz de nada.

Dejo este analisis del M1 que me tiene flipado y deja bastante claro el camino que deberan seguir otros
(mensaje borrado)
Os recomiendo el canal Coreteks en youtube
cambios escribió:
La pieza que les faltara , es Windows. Microsoft lleva años de fracasos en la convergencia...si no es capaz de entenderse con intel y lanzar un ordago de tecnologia a Apple , la plataforma x86 esta acabada. Sinceramente lo veo asi.

Los de Appple lo han hecho muy bien. Han abierto un nuevo mundo de posibilidades. Esos chips , los veo en coches, cascos de vr, estaciones de trabajo , telefonos, consolas y servidores en 5 años . Y encima con un SDK jodidamente maduro..en fin. Deseo suerte a Intel , aunque dudo mucho que sea capaz de nada.

Dejo este analisis del M1 que me tiene flipado y deja bastante claro el camino que deberan seguir otros


Windows no va a ir a ningún lado por win32 y su compatibilidad, macOS es una minoría comparado con el universo de gente que usa Windows. Emulación de x86 no es una solución porque los qué usamos x86 sabemos que es la emulación de otras plataformas, y a menos que sea fluida y sin bugs no nos gusta.
Pero que tienen que ver los 7nm de Intel para el 2023 con el chip de Apple?? De verdad que flipo con los fanáticos de Apple.
Apple no fabrica ni desarrolla ni avanza en la litografía de 5nm de TSMC que es su fabricante. Los únicos que compiten aquí es Samsung que le fabrica a Qualcomm y a Nvidia sus chips, igual TSMC le fabrica el chip de Apple pero en diseño a modo. La tecnología en miniaturización es desarrollo de cada empresa de semiconductores, aquí la competencia en miniaturización que es el problema que tiene Intel es de Samsung y TSMC.
jose1024 escribió:Son 7nm pero no son 7nm, la verdad es que es confuso para algo que en un principio solo es un submultiplo del metro y que indica el tamaño de un transistor.

¿Alguien podria explicarlo?

Tengo entendido que es solo una campaña de marquetin y mientras Intel dice la verdad, o se acerca mas a ella, los otros mienten de forma descarada.


Si claro, es bastante sencillo.

Esto viene de la epoca en la que el tamaño de las celdas de ram se media en nanometros. Las mismas fundiciones que hacian las celdas de ram tambien hacian los procesadores. Aunque el tamaño del nodo del procesador no tuviese nada que ver con el tamaño de la celda de ram, utilizaban el mismo proceso de fabricacion. Por tanto, se empezo a decir que los procesadores eran de "x" nanometros, en referencia a que utilizaban el mismo proceso de fabricacion que la celda de ram equivalente.

Llegado un punto determinado, el proceso de fabricacion de las celdas de ram y los procesadores cogieron caminos diametralmente opuestos. Pero por temas de "marketing", las fundiciones siguieron usando la nomenclatura de "nanometros" para los procesadores.

Realmente, hoy dia, dentro de un procesador no hay NADA construido a 7nm ni a 10nm ni nada parecido. Pero nada de nada. Ni nodos, ni nada.

Las fundiciones que existen en el mundo, basicamente INTEL, TSMC y SAMSUNG, aunque hay un par de ellas mas poco relevantes, utilizan las MAQUINAS (procesos de fotolitografia) que desarrolla la empresa ASML. Basicamente es la unica empresa del mundo que desarrolla las maquinas necesarias para fabricar los procesadores. Y TSMC, INTEL y SAMSUNG le compra las maquinas, las mismas maquinas para luego ellos en sus fabricas poder "construir" los procesadores. Asi que utilizan la misma maquinaria, por tanto pueden obtener los mismos resultados.

Como lo de los nanometros, por culpa de las fundiciones, ya no son indicativo de nada mas que de marketing, fue ASML, la fabricante de las maquinas, la que decidio sacar un "standard" para poder comparar los procesos de fabricacion de cada fundicion, que llamaron "tamaño de NODO ESTANDAR".

Nodo Estandar = 0.14 x (CPHP x MMHP)^0.67
Donde CPHP es la mitad de la distancia conectada entre la tira de silicio, la puerta logica y los extremos en cada transistor. MMHP es la distancia minima que se consigue entre las conexiones de un transistor y el siguiente, u otras partes del chip.
Como se puede ver, lo que ASML llama "nodo estandar", que vendria a ser lo que deberiamos usar en lugar de hablar de nanometros, poco o nada tiene que ver con el tamaño del transistor en si.
Llevando la formula a lo que las fundiciones llaman "nanometros" obtendriamos algo asi como que, en el proceso de 16-14nm, Samsung tiene un nodo estandar de 17, TSMC de 18 e Intel de 13.
Cuando el departamento de marketing de las fundiciones habla de 10nm tenemos un nodo estandar de, TSM 12, Samsung 12, Intel 9.5

Y ya esta, ya se puede comparar de manera fiable el proceso de fabricacion de cada fundicion:

cuando Intel habla de 14nm , su nodo estandar es de 13, y cuando habla de 10nm su nodo estandar es de 9,5
Mientras que cuando TSMC habla de 14nm, su nodo estandar es de 18, y cuando habla de 10 es de 12.
Es por esto que se lee por ahi que "los 14nm de intel son equivalentes a los 10nm de TSMC y los 10nm de intel son equivalentes a los 7nm de TSMC".
Es basicamente TSMC y sus socios los que se esmeran en mantener este "nombramiento". Nadie quiere asumir y decirle al mundo que trabajando con la misma maquina y el mismo proceso fotolitofrafico el rendimiento que consigues sacar a los transistores que fabricas es entre un 25% y un 30% inferior.
De ahi que TSMC tenga que estar trabajando con un proceso fotolitografico de 10nm cuando intel lo hace con uno de 14nm... o de ahi que TSMC se este esmerando muy mucho en sacar adelante los procesos de 5nm y 6nm... porque intel el de 7nm lo tiene muy avanzado, aunque ahora esten empezando con el de 10nm, que es de esperar ofrezca rendimientos por transistor igual o superior a los obtenidos por TSMC en el proceso de 7nm. Y cuando saquen el de 7nm es probable que el tamaño de nodo estandar sea equivalente al proceso de 5nm de TSMC

Dejo aqui un enlace a otro hilo de lo mismo, que hablamos lo mismo ya hace un tiempo:
hilo_intel-retrasa-el-lanzamiento-de-sus-procesadores-de-7-nm-a-finales-de-2022-o-incluso-comienzos-de_2386684_s50#p1749774686
chicobaby escribió:Pero que tienen que ver los 7nm de Intel para el 2023 con el chip de Apple?? De verdad que flipo con los fanáticos de Apple.
Apple no fabrica ni desarrolla ni avanza en la litografía de 5nm de TSMC que es su fabricante. Los únicos que compiten aquí es Samsung que le fabrica a Qualcomm y a Nvidia sus chips, igual TSMC le fabrica el chip de Apple pero en diseño a modo. La tecnología en miniaturización es desarrollo de cada empresa de semiconductores, aquí la competencia en miniaturización que es el problema que tiene Intel es de Samsung y TSMC.


Este tipo de comentarios "fanaticos de Apple" creo que sobra. Soy tan fanatico de Apple , como puedo serlo de RedHat o de Intel. Conozco bien todas estas plataformas , por que forma parte de mi trabajo y como me gusta mi trabajo , puedo apreciar y disfrutar de sus avances "sin frenos de fanboy ni prejuicios"

No es solo una cuestion de Nm. Ahi es donde esta pinchando la mayor parte de la gente. Y ahora Apple no solo encarga y paga (fabrica) bajo sus especificaciones....tambien innova. Ese chip no es solo espectacular por como rinde , es espctacular por es encaja perfectamente con el software y ademas aporta ideas nuevas como la parte de IA que incorpora para ser mas eficiente. Y aparentemente no estan ni sacando el 20% del jugo inicial que le pueden sacar con nucleos ARM mas modernos , en mayor cantidad y con mas frecuencia...

El enfoque que ya hizo con Rosseta en el salto de PowerPC a X86 y que esta haciendo de nuevo , no solo es ejemplar , es que va a ser la unica alternativa que vamos a tener los usuarios de windows , si queremos dar un salto importante...pero es que no veo yo mucho a Microsoft con este tema y mira que soy usuario a full de windows...pero no...los prolbemas siempre son los mismos.

En las epocas prehistoricas , lo achacaba a que el mercado de los PCs era como esos gatos mil-leches de 100 colores....pero ahora mismo... Ahora mismo , sigue siendo una mierda. Updates de mierda , cambios que no llegan o llegan a medias. Parches y mas parches. Y llega Apple y hace boom y te sale con esto...

En mi vida he visto el nivel de PERFECCION ni de METICULOSA PREPARACION y RESPETO por el usuario que tiene Apple , y eso como usuario habitual de Windows no me produce ni RECHAZO ni ODIO , mas bien una PROFUNDA ENVIDIA.

Ahora no vengas a convencerme de que si Apple es caro por que no es necesario , es caro de cojones...tuve Iphones hasta que dejaron de ser buenos en relacion calidad/precio . Pero mientras no tenian competencia , eran incluso mas economicos en comparacion que ahora.

Si entiendes un poco , mas alla de ponerte o no una pegatina con una manzana en el coche, puedes intuir por donde van los tiros... APPLE lo ha petado y hay que aplaudir y aprender de sus moviemientos. Intuir e imaginar lo que va a venir por que puede ser un salto GLORIOSO para todos , estoy seguro . No se como , pero puedo intuir maquinas con bajo consumo y un alto grado de potencia en la que haya partes dedicadas a procesos criticos y parte del SO este en el hardware...maquinas que sean capaces de evolucionar de forma polimorfica en funcion de las necesidades del usuario...no se , pero no solo soy yo el que esta literalmente ante algo que parece una revolucion.

Mientras en Intel , que vayan depurando responsabilidades. Son un gigante , puro nervio , pero ahora mismo , es como que empiezan de cero por que les acaban de dar por todos lados , no tienen capacidad de fundir para seguir explotando el refrito de siempre, sus mejores ingenieros estan seguramente en otros sitios y la leccion de humildad que les acaban de dar con la mano abierta es EPICA.

No se como esto , no hace que directamente la gente no sude de ellos, yo por lo pronto apuesto por hacerlo.
@cambios
yo creo que te has excedido un poco en ensalzar a apple y a ese M1.

Es un gran procesador, si, pero para ordenadores portatiles. No tiene otro sentido que para portatiles. Y en ordenadores portatiles han creado algo disruptivo para el mercado.
Para pc's de sobremesa gama alta, un i9-10700k o un ryzen 7 5800x se lo pasan por la piedra 150mil veces. Y los procesadores de apple en este sector ni estan ni se les espera a medio plazo.

De hecho, es tal lo limitado que esta que te deberias de preguntar porque los portatiles con M1 tienen unicamente un puerto USB-C, o porque solamente tiene salida para un monitor externo. Te lo digo como "bonus track" para que puedas indagar un poco. Si empiezas a tirar del hilo un poco por ahi, empezaras a ver todas las limitaciones importantisimas que tienen estos procesadores, y porque estan pensados por y para un portatil, y ademas un portatil muy limitado en muchos aspectos.

Como todo fan de apple sabe, la primera generacion de un nuevo dispositivo de apple es solo para early adopters porque suelen venir con carencias y limitaciones muy importantes. Y el caso de estos portatiles con M1 no es diferente al resto de lanzamientos de nuevo dispositivo de apple.


Si de aqui a unos años conseguen sacar un procesador mastodonticamente grande, con 100 coprocesadores para tareas especificas, con un consumo energito muy muy muy superior al de este M1 que pueda hacer frente a los procesadores CISC esta por ver. De momento esta muy lejos.
Y yo, personalmente, no tengo ningun interes en que asi sea. Si lo consiguen, bienvenido sea, porque todo lo que sea mas opciones para el usuario final y competencia entre grandes corporaciones es genial para nosotros. Pero personalmente, me da igual. Yo estoy muy contento con el actual desarrollo de procesadores y la guerra entre intel y amd, que esta haciendo bajar precios y mejorar prestaciones mes tras mes desde hace bastante tiempo.


Recomiendo este analisis generalista hecho por Linus Tech: https://www.youtube.com/watch?v=4MkrEMjPk24



Por cierto, yo tengo un iphone 11 pro de 512gb, un ipad pro 3ªgen de 1TB con el magic keyboard, apple watch 5, imac 27", airpods... mi mujer iphone 11, ipad pro 256gb, airpods... Tambien tenemos un apple TV para una TV viejuna... y estos dispositivos sustituyeron a otros anteriores. Lo digo para que no se me tache de anti-apple o algo asi, porque determinados productos de apple me encantan. Pero lo que es ordenadores... pffff.... y mira que ya he tenido dos macbook pro diferentes, un air y ahora un imac.
Con AMD como reina es difícil
29 respuestas