Intel presenta su nueva generación de procesadores Kaby Lake

Intel ha anunciado el lanzamiento de los procesadores de séptima generación Kaby Lake. Se trata de una renovación de los Skylake con la misma tecnología de 14nm, pero con algunas mejoras en la eficiencia y rendimiento. El chip está destinado a ser un puente hasta que lleguen los 10nm con los Cannonlake previstos para el 2017.

El principal mercado de los primeros Kaby Lake son los ordenadores portátiles y los 2-en-1 que podrán equiparlo a partir de septiembre. Se trata de una buena oportunidad para que Apple renueve sus MacBook Pro o para que sean la elección de Microsoft en su próxima Surface, que en su anterior versión con Skylake tuvo (al igual que otros fabricantes) algunos problemas con la administración de energía. La versión para equipos de escritorio o portátiles para jugar de los Kaby Lake no se espera hasta inicios del próximo año.

La ventaja de Kaby Lake se encuentra especialmente en la eficiencia. Intel afirma que estos procesadores son 10 veces más eficientes, en términos de rendimiento por vatio, que los de la primera generación. También ofrecen un rendimiento de procesado un 12% mayor que sus predecesores. Falta ver si los números de Intel se trasladan a algo tangible para el usuario.


Los procesadores Kaby Lake cuentan con soporte nativo para Thunderbolt 3, mejoran el rendimiento al reproducir vídeos 4K UHD y según Intel también ayudarán a mejorar la duración de la batería. Seguramente la mayoría de dispositivos portátiles que veamos a partir de septiembre equipen un procesador Core M3, Core i3, Core i5 y Core i7 de la generación Kaby Lake. Es posible que entre ellos veamos un portátil con un grosor menor de 10 milímetros.

Fuente: The Verge
Quiero una GPD-Win2 YA! XD
WOW un 12% de mejora!
No tires la casa por la ventana por favor intel.
adriano_99 escribió:WOW un 12% de mejora!
No tires la casa por la ventana por favor intel.


mas importante que el rendimiento, es el consumo energético que segun comenta la nota, es 10% mas eficiente.
Deen0X escribió:
adriano_99 escribió:WOW un 12% de mejora!
No tires la casa por la ventana por favor intel.


mas importante que el rendimiento, es el consumo energético que segun comenta la nota, es 10% mas eficiente.


no no, segun lanota no es 10% es 10 veces mas
Deen0X escribió:
adriano_99 escribió:WOW un 12% de mejora!
No tires la casa por la ventana por favor intel.


mas importante que el rendimiento, es el consumo energético que segun comenta la nota, es 10% mas eficiente.

Eso de que es lo mas importante es relativo, incluso en tema portatiles hay gente que quiere potencia para jugar.
Y segundo que ese 10% de mejora sigue siendo un mierdazo como un piano de grande.
Mira las diferencias en graficas entre una generación y la otra y compáralo con esto.
Los temas de físicas y fluidos llevan años estancados por que intel no tiene competencia y suda de hacer mejoras reales.

AlbertX escribió:
Deen0X escribió:
adriano_99 escribió:WOW un 12% de mejora!
No tires la casa por la ventana por favor intel.


mas importante que el rendimiento, es el consumo energético que segun comenta la nota, es 10% mas eficiente.


no no, segun lanota no es 10% es 10 veces mas

Diez veces mas que su primera generación de procesadores, no que la generación anterior.
Mmmm parece buena alternativa para cambiar mi FX8350 que vaya que consume energia el maldito [carcajad]
@adriano_99

No lo habia visto asi, gracias. [oki]
adriano_99 escribió:
Deen0X escribió:
adriano_99 escribió:WOW un 12% de mejora!
No tires la casa por la ventana por favor intel.


mas importante que el rendimiento, es el consumo energético que segun comenta la nota, es 10% mas eficiente.

Eso de que es lo mas importante es relativo, incluso en tema portatiles hay gente que quiere potencia para jugar.
Y segundo que ese 10% de mejora sigue siendo un mierdazo como un piano de grande.
Mira las diferencias en graficas entre una generación y la otra y compáralo con esto.
Los temas de físicas y fluidos llevan años estancados por que intel no tiene competencia y suda de hacer mejoras reales.


Pero chico, estás criticando un aumento del 12% como si fuese despreciable. Y no lo es para nada. Cada mejora en los procesadores cuesta cada vez más porque estamos muy cerca del límite físico del transistor. Actualmente reducir dimensiones implica nuevas ideas y nuevas tecnologías. Las nuevas ideas no se le ocurren a uno cada día, y las nuevas tecnologías son muy difíciles de implementar.
vik_sgc escribió:
Pero chico, estás criticando un aumento del 12% como si fuese despreciable. Y no lo es para nada. Cada mejora en los procesadores cuesta cada vez más porque estamos muy cerca del límite físico del transistor. Actualmente reducir dimensiones implica nuevas ideas y nuevas tecnologías. Las nuevas ideas no se le ocurren a uno cada día, y las nuevas tecnologías son muy difíciles de implementar.

Siguen siendo aumentos minúsculos, en las graficas hay aumentos mucho ams grandes sin reducir el tamaño.
Llevan muchos años relajados por no tener competencia no tienen excusa.
Yo me dejé 350 euros en un procesador para no notar mejoría alguna... Prefiero gastarme 350 euros
más en una gráfica que sí que se notan...
A ver, entre que Intel siempre hace dos guarradas en sus ultimas generaciones, la primera es la de cambiar el socket del micro (en eso amd siempre ha sido mejor en sus placas a la larga), pero la segunda es la peor, ya que tienes que elegir entre si quieres un I7 de cuatro o mas nucleos, porque en sus dos ultimas generaciones encima si te decantabas por un I7 no podias hacer el upgrade sin cambiar de placa porque para colmo los i7 de seis-ocho o diez nucleos van con placas aparte.
Prefiero que vayan aumentando el rendimiento y el consumo un 10% cada año y no que tarden más de 4 años en sacar algo nuevo con todo el aumento de golpe....

Nadie nos obliga a comprarlo y el que tenga que comprar algo nuevo agradecerá la mejora, sobre todo en consumo para los ultrabooks y tablets.

La cuestión es quejarse siempre.
stan01 escribió:Prefiero que vayan aumentando el rendimiento y el consumo un 10% cada año y no que tarden más de 4 años en sacar algo nuevo con todo el aumento de golpe....

Nadie nos obliga a comprarlo y el que tenga que comprar algo nuevo agradecerá la mejora, sobre todo en consumo para los ultrabooks y tablets.

La cuestión es quejarse siempre.

exacto, prefiero cambiar procesador y placa base cada 5 años, que cada 1-2 años (como ocurre con las graficas..)
Fie escribió:
stan01 escribió:Prefiero que vayan aumentando el rendimiento y el consumo un 10% cada año y no que tarden más de 4 años en sacar algo nuevo con todo el aumento de golpe....

Nadie nos obliga a comprarlo y el que tenga que comprar algo nuevo agradecerá la mejora, sobre todo en consumo para los ultrabooks y tablets.

La cuestión es quejarse siempre.

exacto, prefiero cambiar procesador y placa base cada 5 años, que cada 1-2 años (como ocurre con las graficas..)

Claro, vuestra comodidad por encima del avance.
Yo alucino con la gente....
adriano_99 escribió:
vik_sgc escribió:
Pero chico, estás criticando un aumento del 12% como si fuese despreciable. Y no lo es para nada. Cada mejora en los procesadores cuesta cada vez más porque estamos muy cerca del límite físico del transistor. Actualmente reducir dimensiones implica nuevas ideas y nuevas tecnologías. Las nuevas ideas no se le ocurren a uno cada día, y las nuevas tecnologías son muy difíciles de implementar.

Siguen siendo aumentos minúsculos, en las graficas hay aumentos mucho ams grandes sin reducir el tamaño.
Llevan muchos años relajados por no tener competencia no tienen excusa.



Ya, y en las memorias ram tambien, y en los motors electricos tambien.
Pero como son cosas distintas, pues no se pueden comparar.

Date cuenta del absurdo... estas comparando CPUS con GPUS, que se parecen lo mismo que un huevo a una castaña.
Estas comparando una arquitectura de 4 o 6 nucleos, con una de casi 4000 nucleos... [hallow] [hallow] , en las que, en una arquitectura el procesador hace decenas de millones de calculos, y en la otra hace unas pocas operaciones simples.
Vamos, que es como el que compara un raton con un teclado... si, ambos sin dispositivos de entrada de datos al pc, pero son totalmente diferentes... aunque en ambos casos se pueda compartir el uso de switchs, no se parecen en nada.

Para mas inri, estamos hablando de que Intel lleva con los 14nm una bueeena temporada ya, y empezando las pruebas de los 10nm... mientras que los procesadores CUDA de nvidia acaban de estrenar los 14nm.

Como todo lo anterior no es suficiente, pues introduzcamos mas diferencias.
Una GPU no se mide por su potencia en solitario. Siempre va montada sobre un PCB que lleva un monton de cosas mas, a parte, claro esta, de una memoria propia, GDDR5X actualmente... una CPU no tiene nada ni siquiera parecido... utiliza un par de memorias cache para operaciones rapidas, y luego tira de otras memorias conectadas a traves de un bus, DDR4 en estos momentos MUCHIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIISIMO mas lentas que las GDDR5X...

en fin, espero que te quede claro porque no son comparables ambos "procesadores", aunque en ambos casos compartan la nomenclatura de "microprocesadores".

Como ya han indicado, un aumento de un 10% de potencia frente a skylake, que apenas tienen un año en el mercado, y sin reducir tamaño de fabricacion, es un gran incremento.

Y mirandolo en perspectiva se ha incrementado la potencia en un 170%, y el consumo se ha reducido de 18w hasta 4,5w.... resumiendo, en apenas 5-8 años se ha incrementado un 170% la potencia y reducido el consumo en un 450%




Por otro lado, tenemos quien no sabe ni a cuanto % funciona su micro.
La inmensa mayoria de gente no veran su micro al 100% NUNCA.
Unos pocos (pocos pocos) veran su micro alguna vez (pocas) aal 100%
Un portentaje irrisorio de usuarios veran su micro habitualmente al 100%.

¿Que nos indica esto? Que la gente compra ferraris para circular por su pueblo de carreteras de tierra, y a los 3 o 4 años cambian su ferrari que usan para circular a 40 por hora por su pueblo, por el siguiente modelo de ferrari.


Quien cambia el micro buscando una mejora de rendimiento, y resulta que habitualmente su micro funciona al 40%, pues que quieres que te diga... absurdo.


Porque me gustaria que alguien me dijese, de por aqui, con un micro de hace 2 o 3 años, como un i7-4770k... ?cuando a visto su micro al 100%?
¿Que espera ver de mejoria cambiando un 4770k por un 6700k?
Esto ultimo es la clave.

Un saludo
Esto ya es lo que me faltaba que me negasen.
En fin, a ignorados y paso de discutir.
adriano_99 escribió:Esto ya es lo que me faltaba que me negasen.
En fin, a ignorados y paso de discutir.


[+risas] [+risas] eres comedia pura
al ritmo que vas, al final te tocara sortar tus declaraciones dogmaticas para que te lean los bots de google y bing [carcajad] [carcajad]

P.D.: entenderas que a la gente le da igual que los pongas en ignorados, y que poner a alguien en ignorados porque argumente algo contrario a lo que tu OPINAS (porque no has dado arguementos, solo opiniones) es tipico de los crios pequeños cuando les dices "eso no es asi", y el niño se pone de morros, se cruza de brazos, se sienta en una esquina y no quiere hablar con nadie, ¿verdad?
Lo normal en un adulto (mentalmente quiero decir) seria argumentar el porque el considera que eso si es asi, dando razones justificadas. A lo que el otro interlocutor tambien puede rebatir argumentando...
se llama "debate", "discusion" (por aquello de FOROS DE DEBATE o DISCUSION), "retorica", etc
adriano_99 escribió:
vik_sgc escribió:
Pero chico, estás criticando un aumento del 12% como si fuese despreciable. Y no lo es para nada. Cada mejora en los procesadores cuesta cada vez más porque estamos muy cerca del límite físico del transistor. Actualmente reducir dimensiones implica nuevas ideas y nuevas tecnologías. Las nuevas ideas no se le ocurren a uno cada día, y las nuevas tecnologías son muy difíciles de implementar.

Siguen siendo aumentos minúsculos, en las graficas hay aumentos mucho ams grandes sin reducir el tamaño.
Llevan muchos años relajados por no tener competencia no tienen excusa.


No son la misma tecnología y no sirven para lo mismo.

Una GPU ejecuta tareas muy específicas y sirve para procesar enormes conjuntos de datos en paralelo. Se basan en juntar muchos núcleos de baja frecuencia. Las GPUs no integran núcleos complejos con millones de transistores, por lo que la tecnología requiere otros avances distintos.

Una CPU es un elemento de propósito general, de ahí que sea el cerebro del ordenador, y necesita agrupar transistores cada vez más pequeños que corren a frecuencias cada vez mayores (esto ya no, porque se llegó al límite hace mucho). Una CPU requiere millones de transistores en muy poco espacio. Si se quiere integrar más transistores y aumentar las capacidades de la CPU se necesita reducir el tamaño de cada para reducir la temperatura generada por tantos transistores funcionando a la vez. Actualmente reducir aún más el tamaño de un transistor es dificilísimo porque estamos rozando los límites físicos de los materiales y las tecnologías con las que se trabaja. Hablamos de límites impuestos por la naturaleza, de ahí que sea tan díficil seguir aumentando el rendimiento. Fíjate las dimensiones con las que se trabaja actualmente: ¿11 nm?. ¿Cuántos átomos caben en 11 nm?. ¿Sabes acaso cómo cambian las propiedades de los materiales a dichas escalas en las que se trabaja con un puñado de átomos?.

Por las cosas que comentas parece que crees que el desarrollo tecnológico lo llevan a cabo magos. Te animo a que te metas tú a ello, a ver si es tan sencillo.
El día que los procesadores hagan obsoletas a las tarjetas gráficas será un gran día... pero hasta entonces, a seguir disfrutando con los cpus ya teníamos, que para viciar vamos más que sobrados.
Si, pero luego todos llamando a cofidis para subir cuatro screenshots del bemchmark de turno.
@vik_sgc

Actualmente ya se trabaja para los 7nm (se preve que salga al publico en 2020) y ojo que este muy posiblemente sera la muerte del silicio (muy difícil seguir reduciendo) pues a partir de esta escala empiezan a producirse efectos cuánticos sobre el traslado de electrones (efectos que por definición no puedes predecir ni controlar).

Hay un articulo muy muy interesante sobre el tema que leí hace una semana
http://www.nature.com/news/the-chips-ar ... aw-1.19338

Saludos
Me estaba alegrando, por que ya que pensaba pillarme un i7 para octubre o noviembre, pues aver si bajaban de precio, pero esto va para portatiles y demas no?
Perfect Ardamax escribió:@vik_sgc

Actualmente ya se trabaja para los 7nm (se preve que salga al publico en 2020) y ojo que este muy posiblemente sera la muerte del silicio (muy difícil seguir reduciendo) pues a partir de esta escala empiezan a producirse efectos cuánticos sobre el traslado de electrones (efectos que por definición no puedes predecir ni controlar).

Hay un articulo muy muy interesante sobre el tema que leí hace una semana
http://www.nature.com/news/the-chips-ar ... aw-1.19338

Saludos


Y ya no solo porque se puedan apreciar efectos cuanticos, sino porque fisicamente no se pueden construir transistores con tan pocos atomos.
La cosa, imagino que sera algo asi como hace NVIDIA ahora con sus procesadores CUDA... simplemente los hacen el doble de grandes, y entonces entran el doble de nucleos/transistores. Lo que pasa que como la GPU va metida dentro de una carcas de plastico montado sobre un PCB, y la gente no lo ve fisicamente, pues no saben que NVIDIA de una seria a la otra les varía el tamaño lo que les place.... como por ejemplo dentro de la serie 10, donde la GPU de una 1080 tiene 300mm2, y una TITAN tiene 400mm2

@Melkorian
no, es la nueva arquitectura que sigue a los actuales skylake. Es para todos los dispositivos.
@Ingalius Vaya pues a ver si de esa forma baja un pelin el i7 6700k, o en su defecto quizas estas salgan bien de precio ( jajajaja ), y me pueda plantear pillar esta.
Melkorian escribió:@Ingalius Vaya pues a ver si de esa forma baja un pelin el i7 6700k, o en su defecto quizas estas salgan bien de precio ( jajajaja ), y me pueda plantear pillar esta.


No creo que bajen de precio. Lo que haran sera lo que hacen siempre, dejan de producir los anteriores mientras se termina el stock y comienzan a reponer con los nuevos, y como siempre, pues no bajan de precio, porque mientras queda stock de la anterior, los nuevos suelen tener algo de sobrecoste. Es muy raro ver un micro bajar de precio.

Lo que quizas si puedas enconrar es alguna tienda que tenga mas stock acumulado de la cuenta, y para liberar stock ante la posibilidad de comerselos, bajen precios. Alternate, caseking o alguna de estas. M
Tanto bombo y platillo para que de un 2700k no tenga mucha diferencia con un 6700k.

Ojala AMD zen lo haga bien asi empezaremos a ver competencia en este mercado que esta muerto en el lado de los procesadores.
Seguro que tambien bajan los precios.....

NOOOO!!!!!
Muhahahaha
Tienen muy buena pinta esos procesadores , pero veremos su precio que seguro que es elevado
Perfect Ardamax escribió:@vik_sgc

Actualmente ya se trabaja para los 7nm (se preve que salga al publico en 2020) y ojo que este muy posiblemente sera la muerte del silicio (muy difícil seguir reduciendo) pues a partir de esta escala empiezan a producirse efectos cuánticos sobre el traslado de electrones (efectos que por definición no puedes predecir ni controlar).

Hay un articulo muy muy interesante sobre el tema que leí hace una semana
http://www.nature.com/news/the-chips-ar ... aw-1.19338

Saludos


Efectivamente se esta llegando al limite de la era del silicio, por eso que los roadmaps son mas conservadores, por eso que no entiendo los comentarios del usuario adriano_99, supongo que viene de una generacion acostumbrada al marketing que vende solo cuando dicen es "X veces más potente"; obviamente estas mejoras no son para obligarte a cambiar el CPU, se agradece que con estas nuevos chips la tecnologia actual baja de precio y sea mas eficiente en energia, a la larga, esto tambien cuenta en nuestra economia.
Ya se dijo hace 3 años que el futuro era el grafeno.
falete1984 escribió:Ya se dijo hace 3 años que el futuro era el grafeno.


Lo que pasó fue que la Unión Europea invirtió mucho en investigación sobre el tema, lo que va unido a mucho marketing porque hay que justificar ese gasto.
Veo difícil que el grafeno llegue a utilizarse de forma comercial en procesadores ya que la producción se limita a escala de laboratorio. Se están desarrollando materiales similares, por ahí van los tiros, pero a esa tecnología le queda muchísimo para salir al mercado. Si todo fuese bien estaríamos hablando de empezar a ver cosas a partir de 2020 pero se de primera mano que la mayoría de esos proyectos son una castaña aunque desde fuera no lo parezcan xD ojalá me equivoque :-|

Volviendo al tema, a mi me sorprende que sigan avanzando, aunque aparentemente no sea mucho. Mucha gente solo ve números, pero por mucho esfuerzo que se dedique hay unos límites físicos y de producción que no se pueden superar y ya se lleva tiempo rondando ese punto.
falete1984 escribió:Ya se dijo hace 3 años que el futuro era el grafeno.


Yo llevo escuchándolo desde 2011 más o menos, llevo mucho tiempo esperando su incorporación al mercado, de hecho la primera vez que se habló de ello, recuerdo que se dijo que su explotación a nivel usuario era inminente y que en breve las compañías fabricante iban a dejar de investigar la manera de apretar más el silicio, siendo un salto tecnológico de décadas, de golpe.

Ya me parecía a mi que era muy raro que no aprovecharan primero todo el silicio en el que han invertido, para pasarse al grafeno... ya ocurrió con los tubos catadriópticos, que hasta que no amortizaron toda la inversión no permitieron la implementación del LCD, tecnología según leí, existente desde los años 80...

Al final de una incorporación inminente, pasamos a... 2030?... con suerte...

En realidad comparto la opinión de Ingalius, poca gente ve su micro al 100%, pero con el grafeno, en teoría, tendríamos potencia casi ilimitada, con un consumo irrisorio, baterías que duran barbaridades impensables sin cargar, pantallas enrollables etc, pero como digo, tardaremos mucho en verlo, aunque ya pueden si quisieran.
@Ingalius
Efectivamente tal y como apuntas va a suceder esto optimizaran otros "apartados" y nos la meterán doblada como el caso que comentas de NVIDIA. Antes menos nm era sinónimo de disminución de consumo y aumento de potencia y fíjate si estamos llegando al limite de lo que el Silicio puede hacer que ya disminuir de 22nm a 14nm apenas a incrementado la potencia un misero 5% y estudios científicos dicen que a partir de los 7nm incluso de perderá rendimiento por interacciones atómicas/cuánticas (siempre refiriéndonos al Silicio).
Pero es que la cosa no queda hay pues cada vez es más jodido disipar el calor generado antes reducir el tamaño con llevaba una disminución casi proporcional del consumo por lo que el calor pese ha ser más difícil de disipar al generarse en menor cantidad pues más o menos la ecuación se compensaba pero eso ya no ocurre y los ingenieros de hardware llevan ya desde 2010 avisando de que la cosa se ponía chunga para disipar el TDP.

Así que entre el fin de la reducción del silicio (fin definitivo de la ley de moore) y el calor que ya no es directamente proporcional al tamaño del silicio los ingenieros de hardware tienen 2 obstáculos imposibles ya de salvar (solo queda optimizar para alargar un poco más lo que ya esta muerto) "una muerte anunciada desde hace ya una década y que a pasado ignorada por la inmensa mayoría"

Lo peor del caso es que no hay alternativas asequibles que ocupen el nicho de mercado del silicio pues aunque se habla del grafeno (que es cierto que servirá como sustituto en un futuro) la triste realidad es que actualmente y a corto plazo no es ni fácil, ni asequible su producción por lo que al grafeno le quedan todavía 10 años como mínimo siendo muy muy optimistas para poderse implementar (y puede ser más tiempo).

Así pues para que la gente que lea esto se haga una idea a partir de 2020 (si la hoja de ruta de intel no la alargan a posta para retrasar la "muerte anunciada") nos esperan refritos (optimizaciones) de lo ya existente por lo que perfectamente podría ser posible que un i7 6700 actual siga estando a la altura a comienzos de la década de los 30 (y no es coña) preparaos porque salvo sorpresa de ultima hora todo apunta (y esto que voy a decir a continuación no lo digo yo lo dicen los científicos e ingenieros de MIT entre otros) a que vamos a vivir una década de optimización de la litografía de los 7 nm (que sera la ultima del silicio (los muy muy optimistas dicen que sera la de 5nm)) sea como sea (la de 7 o la de 5) nos espera 10 años de refritos con mejoras de consumo y apenas mejoras de rendimientos (los que se quejan de "intel y su 10%" preparaos porque estamos apunto de entrar en la década del 1-2%).

@alemusg
El usuario @adriano_99 seguramente dice lo que dice por desconocimiento sobre la materia de la que habla (y ojo no lo digo de forma ofensiva) puesto que de hecho es lo más normal y común que esto pase la gente normal no se informa de estas cosas ni le artículos científicos de forma más o menos constante para estar al día de lo que se cuece (en ese sentido recomiendo el articulo que puse en mi anterior comentario).
Y ni que decir tiene que ni @vik_sgc ni @alemusg ni @Ingalius ni yo y ni la inmensa mayoría somos doctorados en el tema (posiblemente los usuarios mencionados sepan más que yo incluso sobre este tema y puedan aportar/corregir cosas aquí expuestas).

PD: Yo estaré encantado de que añadáis o corrijáis información aquí dicha (faltaría más) [sonrisa]

Saludos
Están estirando la tecnología del silicio hasta el fin, cuando lleguen los procesadores de grafeno etc. será entonces cuando se cague la perra.

El tema es que el silicio da para lo que dá, y están a base de tecnologías, y reducción de nanómetros, en relación al numero de transistores. y apoyándose en multiples tecnologías para optimizar lo que por física ya no se puede incrementar (velocidad de reloj). Y lo han hecho, sino fijáos desde que nos clavamos en los 2,8-3,6 ghz.

Como digo, estiran el chicle sacándose de la manga cosas espectaculares. Vamos que literalmente están "rizando el rizo" año tras año consiguiendo resultados, en mejora de rendimiento, y sobre todo en autonomía y eficiencia, que a su vez da lugar a nuevos factores de forma, 2 en 1, híbridos, portátiles ultrafinos, etc.

Pero, llegará un momento, en el que no puedan bajar más nanómetros, y no podrán sacarse más ases de la manga, espero, y entonces será cuando tengan que cambiar de material, grafeno u otro, ahí, es cuando se cagará la perra :Ð
Deen0X escribió:Quiero una GPD-Win2 YA! XD

y yo una NX con este chip y Windows 10 + los juegos de Nintendo de siempre. [sonrisa]
uyh que poco avanzan ya las CPU's...
Todavía recuerdo los tiempos de mi Pentium 3 a 550 Mhz. Hablando con colegas en un bar sobre los nuevos micros que iba a sacar intel que eran los de 700 Mhz, y de como ya tenían preparado los de 1 ghz. La gente se vuelve loca, pero lo que esta claro es que Intel va a exprimir el mercado poco a poco por que no tiene competencia real. Ni los limites cuánticos del Silicio ni el fin de la Ley de Moore. Ya se dijo hace mucho tiempo que si los micros no podían escalar en velocidad lo harían en nucleos para ofrecer mayor rendimiento, y ahí tenemos que Intel sigue vendiendo solo cpus de 4 núcleos al público generalista. Te saca un refrito de micro nuevo cada año con un 5-10% de mejora y a vender... total no le hace falta más, pero seguro que si mañana sale los Zen y les dan un buen susto rindiendo lo mismo a mitad de precio, en 2 semanas tenemos micros de Intel que les revientan en rendimiento con 10 tecnologías nuevas.
yo a esto le doy mas importancia, a la hora de si van a bajar el precio de los skylakes,
ademas la importancia va dependiendo de lo que quiera cada uno, es decir yo por ejemplo quiero jugar a 1080p 60 fps,
y con eso por ejemplo un 4790k tira millas un monton de años.
Mas sabiendo como han dicho antes que estan llegando al limite fisico del transistor, y cuesta implentar esa tecnologia cada vez mas
falete1984 escribió:Ya se dijo hace 3 años que el futuro era el grafeno.

y la nanotecnología...
y los coches voladores.... [carcajad]

¿cuándo veremos el adiós a los chips de silicio?
pasa como con los coches a gasolina. Llevan vaticinando el fin del petróleo y de los coches de gasolina desde hace décadas, pero seguimos igual que desde que se inventaron los coches.

Pero, llegará un momento, en el que no puedan bajar más nanómetros, y no podrán sacarse más ases de la manga, espero, y entonces será cuando tengan que cambiar de material, grafeno u otro, ahí, es cuando se cagará la perra

puede que para ver eso aún tengamos que esperar otra década más. :-|
Y luego está el tema del precio, que nos la clavaran, como cuando salieron los primeros HDReady que costaban un riñón.

El cambio del CRT a los televisores FullHD planos fue bueno, pero... por el medio, hubo muchas cosas.

Aún explotarán y sacarán más rendimiento a los chips de silicio. Estoy seguro.
@superfenix2020 respecto a los coches con gasolina, los países nórdicos se han fijado fecha tope 2020 para que todos sus coches sean eléctricos.

Y evidentemente el grafeno será lo siguiente que se explotará, ya que más con el silicio no se puede hacer. Sino con que otro material van a experimentar ¿? Por culpa de querer apurar con un recurso, aún no somos ni civilización tipo I.
Lo de 10 veces mejor rendimiento, es en 6 saltos de generacion, pero en el ultimo salto no hay casi mejora, o sea, es el 12% que dicen por la otra parte, no se suman los 2:

Imagen

adriano_99 escribió:Siguen siendo aumentos minúsculos, en las graficas hay aumentos mucho ams grandes sin reducir el tamaño.
Llevan muchos años relajados por no tener competencia no tienen excusa.

Yo he pasado de un "i7 3610QM" a un "i7-6700HQ", y la mejora REAL no es ni del 10%, con 3 generaciones. Esto del Kaby Lake huele a humo.

La culpa del relajo es de AMD, a ver si sacan el p*t* ZEN de una vez.

Lo único que mola es lo de Thunderbolt 3, que se convertirá en standard.
Hace ya años que los micros Intel apenas suben de rendimiento, están más pensando en el TDP y el consumo que en otra cosa, todo por verle las orejas al lobo con los micros ARM que con un consumo y TDP mucho más bajos cada vez se acercan más en prestaciones.

De hecho los micros que llevan la mayoría de portátiles de gama media/baja dan absoluta pena.
Todo lo que sea rebajar el consumo por poco que sea es bueno tanto para los surfaces que aunque parezca mentira en USA venden como otros portatiles de la gama de otras compañias.
Los cambios ya en los micros no son tan brutales, pero estos no están pesados para los que tengan actualmente un I7 en cualquier de sus versiones o un i5, está pensando en respuesta a la presentación de los Zen y es a lo que huele a hay que sacar algo y prometer el resto para el 2017 para dejar patente que seguen trabajando aún cuando AMD estaba en horas bajas.
Espero que con la aparición de Zen empiecen realmente los cambios en los micros y una buena guerra entre ellos como pasaba en el pasado....que buenos tiempos.

PD: olvidarse de que bajen los precios de los otros...
A cuanto llegarán los procesadores en unos años? a -50 nm?? tela.
cercata escribió:Yo he pasado de un "i7 3610QM" a un "i7-6700HQ", y la mejora REAL no es ni del 10%, con 3 generaciones. Esto del Kaby Lake huele a humo.


http://cpu.userbenchmark.com/Compare/In ... 3502vs2730

el PEOR bench del 6700 frente al MEJOR bench del 3610 tiene una diferencia real de un 19%.
el mejor bench del 6700 frente al mejor bench del 3610 tiene una diferencia real de un 45%.


¿que pruebas hiciste para comprobar la diferencia real de rendimiento entre ambos procesadores?
seguramente la irrefutable prueba del "ojimetro".
sacar un modelo nuevo (revisado) ahora cuando van a sacar otro el año que viene? :S


¿pero porque comparas tu anterior micro con este 6700hq?

lo suyo es comparar dos micros comparables... por ejemplo, tope de gama de la serie "x", con tope de gama de la serie "y"... vamos, como se hace con las graficas.
es que sino, no tiene mucho sentido.

es como comparar una grafica de la serie 7, por ejemplo, la tope de gama, 780ti, con una de la serie 9... por ejemplo, con una 970, y podemos decir "pues mira tu, de la serie 7 a la 9 no hay aumento de rendimiento, porque la 780ti y la 970 rinde lo mismo... o incluso podemos decir, "mira, en dos saltos generacionales no hay incremento de rendimiento, porque la 780ti da casi el mismo rendimiento que una 1060 recien salida con la reduccion de nanometros en la litografia, con nueva arquitectura....

si hacemos las comparaciones correctas... por ejemplos, 780ti vs 980ti pues vemos que realmente si hay un incremento de potencia, que ronda el 60%+
lo mismo ocurrira con la 980ti vs la 1080ti (actualmente titan pascal), que tenemos alrededor de un 40 o 60% de incremento de potencia.

como digo, hay que comparar dos micros comparables... y si haces eso, pues veras que en cada salto generacional en los ultimos, es, aproximadamente del 10 o 15% de incremento de rendimiento. Y es un incremento de rendimiento muy notable.

Como digo mas atras, el problema que tiene la gente es que quiere micros mas potentes, pero no saben porque, porque la inmensa mayoria no habra visto su micro al maximo nunca en la vida, pero quieren un micro mas potente, vaya usted a saber porque, lo ponen, y no ven incremento de rendimiento apenas... ni aun siendo micros de 4 generaciones anteriores... ¿porque? pues porque su micro anterior no iba al 100%, y mucho menos va a ir el nuevo.

saludos.
@Ingalius Y que te hace pensar que no son comparables ?

Yo creo que son gamas parecidas, en portatiles con precios parecidos.

Y yo no he dicho que quiera un micro mas potente, lo que digo es que la potencia de los micros Intel en los últimos 3 años ha subido muy poco. Como dices, en juegos actuales mi procesador va sobrado, muchas veces al 30% o así, pero esa no es la cuestión.

La cosa es que si la potencia de los micros hubiese subido como la de las graficas, pues podriamos ir a un micro de gama mas baja y ahorrar dinero. O podría haber bajado el consumo, ya que el paso de 22nm a 14nm, en el consumo tampoco se nota.

En esos 2 portatiles, pasando de una 650m a una 960m, la subida ha sido del 230%, subiendo solo un liston en gama. Vamos, muchisimo mas avance en la GPU que en la CPU.

Las CPUs casi no sube el rendimiento, y mantienen precio y consumo. ESTANCADISIMAS !!!!!
65 respuestas
1, 2