_Makako_ escribió:Edy escribio:
Creo que lo he dicho ya infinidad de veces, intentar evitar esto ... es como intentar evitar la muerte, es litemralmente imposible. Marvicdigital debe estar aburrido de leerme cada dos por tres diciendo siempre lo mismo. (Incluso el, haciendo proyectos que hacen precisamente que la vida de la consola se prolongue ... terminan muriendo al cabo del tiempo)
Saludos
Saludos Edy,Eso que dices es como si el grupo de ingenieros al completo que diseño la 360 fueran al water sin tirar de la cadena y al resultado(una gran cagada)lo llamaran xbox360.
¿Terminan muriendo aunque nunca hallan tenido las 3lrdm y se consigue que la temperatura de los micros no supere en 15-20º la temperatura ambiente?¿Tan mal diseñada esta la 360?Esto es increible
No, ya lo he explicado en varias ocasiones, el problema es que los ingenieros de ATI no se pusieron de acuerdo con los MS.
Veamos, Microsoft realizo un contrato en el que indicaban ciertas cosas, entre ellas se veia claramente que tipo de arquitectura debia ser, que tipo de potencia debia alcanzar y que clase de instrucciones debia prerenderizar (o dicho de otro modo, que su arquitectura fuera de shaders unificados, algo que hoy dia en informatica es de lo mas normal).
El problema, es que claro, en base a todos esos patrones, al que menos importancia se le dio fue el de la temperatura. Precismente, y esto es algo que llama la atencion, en funcion de la oblea utilizada, se tienen generalmente unos estadares de temperatura precisada como la de temperatura optima, normal y maxima.
Cuando se empezo a realizar la GPU de la 360, ATI sabia que deberia insertar una cantidad de transistores tal, que el proceso de fabricacion no era el mas adecuado para este chip (90nm) pero dado que la implantacion del mismo en un menor proceso de fabricacion, dispararia los costes, tardarian mas tiempo del que habian estipulado y la cantidad de micros SIN ERRORES serian muy bajos en comparacion con la fabricacion de 90nm.
Entonces realizaron el encapsulado de tal forma, que el tipo de disipacion fuera activo o de contacto directo con el encapsulado de la GPU, con EXACTAMENTE las especificaciones que Microsoft les habia indicado, vamos, el contrato lo habian cumplido a raja tabla.
El problema llego cuando hicieron los primeros tests con el susodicho Xenos, cual fue la sorpresa? de la temperatura optima planificada por Microsoft de 60º, se dieron cuenta de que alcanzaria los 90º/120º en funcion del potencial en determinados juegos. La GPU, de hecho, soporta perfectamente dichas temperaturas dado que lo han realizado con ese fin, al igual que le ocurre al CELL en la PS3 y su RSX de nvidia.
Entonces ... porque tuvieron el GRAN error de que aparecieran las luces rojas? Durante el proceso de fabricacion de la GPU, los ingenieros de Microsoft en base a la arquitectura, bus, cantidad de memoria cache encapsulada en la GPU y demas, decidieron desarrollar el PCB con sus respectivos espacios y localizaciones para el resto de componentes. Claro, existe una norma en la fabricacion de chipsets, y es que en funcion del tipo de zocalo o caracteristicas concretas, el PCB debe tener cierta tolerancia a determinados componentes.
Si tenemos este ultimo punto en cuenta, las tarjetas graficas y las placas bases, tienen una diferencia curiosa, y es que no tienen la misma cantidad de capas sus PCB, dicho grosor determina la tolerancia que debera soportar en funcion de la temperatura generada por la GPU, CPU o chipsets que sean ensamblados por los mismos.
La GPU de la 360, iba a ser ensamblada a 90nm, y el grosor del PCB de la placa base, en base a una temperatura optima de 60º de media, el PCB era suficientemente grueso para soportar esa temperatura sobradamente, y en base a esta, todas las pistas que entrelazan la parte inferior del PCB con la parte superior tendran una cantidad determinada de capacitadores, resistencias y demas componentes, que determinando un grosor u otro, evidentemente cambiarian en cantidad y lugar de residencia.
Entonces, como muchos comprendereis, el PCB al no tener el grosor suficiente, al realizar las primeras pruebas, se dieron cuenta de que problema no habia, ... a corto plazo, que paso entonces? Como muchos imaginareis, ATI tenia claro que habian fabricado el chip que Microsoft queria, el problema es que dieron por sentado que la GPU en base a la potencia requerida, se calentaria mucho menos de lo planificado por los intenieros de Microsoft.
Claro, una vez tienes la arquitectura de toda una placa base PENDIENTE de ser ensamblada la GPU, puedes llevarte a la cabeza miles de PCBs preparados para ser soldada una GPU ... la cual, sobrecalienta todo lo planificado por MS, a causa de un pequeño gran problema, no considero entre ambos equipos de ingenieros.
La decision de realizar cambios en la GPU era imposible, dicho proceso habia ocasionado 2 años de I+D a los chicos de ATI, y Microsoft era la que aun podia tomar la decision de descargar millones de PCBs que no eran aconsejables para la GPU que ATI habia preparado. Hicieros las respectivas pruebas pero claro, como siempre ocurre en las pruebas de stress de hardware, los 7 dias que equivalen a los 7 años de vida del aparato ... no tienen NADA que ver en cuanto a dilatacion y humedad que pueda tener el usuario en casa, como tampoco el tipo de juegos y uso que este pueda darle.
Decidieron finalizar el proceso de ensamblado colocando TODO lo que inicialmente Microsoft imagino que funcionaria con una GPU que se calentase unicamente 60º, pero alcanzando temperaturas de entre 90º y 120º. Cuales son entonces los problemas que se detectan?
El primero y logicamente, es que la GPU ocasiona tanta temperatura, que el disipador de X tamaño, X cantidad de metal y X ventilacion ... son insuficiente para el 80% de los juegos de Xbox 360 (del lanzamiento), el 20% para los juegos de Xbox 1 compatibles y del 1/5% del uso que pueda darsele en el menu o Dashboard.
El segundo es que el sobrecalentamiento durante la utilizacion sobrecalienta todo el conjunto por varios frentes, el primero el aire muy caliente del que dispone la consola por las zonas menos ventiladas, como la parte inferior como la de los laterales a causas de cambios en el diseño, ... por llevar el disco duro externo y el PCB para los mandos WIFI.
El tercero y muy importante, es que a causa de la gran temperatura alcanzada, el PCB debido a su grosor insuficiente, termina pandeandose, ocasionando un minimo pero enorme movimiento a todas las soldaduras en un palmo de distancia desde la fuente de calor, osease la GPU.
Cuarto, y el mas importante ... el cambio de temperatura. Dicho cambio al apagar y encender la consola constantemente hace que todos los anteriores factores ocasiones un desgaste tremendo a todo el conjunto ocasionando que las soldaduras, TODAS las soldaruras sobre calentadas y a su vez desplazadas a causa del pandeo del PCB, terminen desquebrajandose y finalmente no hacer contacto con su respectino punto de union.
Entonces, de donde viene el problema? como ya he dicho antes, entre los ingenieros de ATI y MS no tuvieron en cuenta el factor "calor" dandome las importancia a la potencia y rendimiento del conjunto. Unidos a que ambos hicieron un buen trabajo de conseguir un chip que hubiera alcanzado los 60º en modo normal de funcionamiento jugando, hoy dia muy posiblemente no habria problemas de las luces rojas (o no mas de los debidos) dando como conclusion al problema ... que TODAS las que tengan una GPU de 90nm, son Xbox 360 que terminaran fallando a causa de la dilatacion DADO que indiferentemente del disipador que tengamos, por su naturaleza desde el PCB hasta la mismisima GPU la temperatura es devuelta por las soldaduras dilatandolas de forma insostenible.
Cuando la GPU se fabrique a 65nm, conseguiran lo que hace 3 años largos les fue imposible, reduciendo el calor, reduciendo costes y ADEMAS, reduciendo su precio como parece ... que ocurrira de forma inminente en los proximos dias.
Y creo, que sin mucho mas que añadir, queda mas que claro todo lo que cabria esperar de todo el tema de las luces rojas.