Hilo oficial Supercomputación y Supercomputadores

Este hilo es para comentar cualquier cosa relativa a supercomputadores o supercomputación, incluyendo técnicas de supercomputación para ordenadores domésticos.

En el Cuadro de Expertos incluiré a los eolianos que hagan aportaciones importantes y/o que posean conocimientos especializados en el tema.

Iré indicando los mensajes más significativos para facilitar la navegación:

Cuadro de Expertos:

gorgon - Supercomputación. Supercomputadores de muy bajo consumo.

Dasten - Técnica de computación distribuida.




Í N D I C E


1º.- Información general - por gorgon

2º.- Computación distribuida - por Dasten


Mensaje original:

Hola a tod@s

Cuando digo SuperOrdenador me refiero a una máquina que pueda ofrecer una potencia de procesamiento significativamente alta, muy por encima de cualquier PC.

Como sabéis en el ámbito científico suelen usarse SuperOrdenadores para cálculos complejos y simulaciones. El problema es que son muy caros, pero al menos en EE.UU se pueden alquilar por horas.

En internet he encontrado dos iniciativas muy interesantes. Una consistió en construir un superordenador partiendo de 8 consolas PS3. La otra, en montar un supersistema partiendo de cuatro placas base individuales comunicadas entre ellas.

Esta última iniciativa es la que más me impresionó. En el año 2007 un Profesor y un alumno de la Universidad de Kentucky construyeron un SuperOrdenador partiendo de hardware comercialmente disponible en el momento, al que llamaron "MICROWULF", que alcanzaba nada menos que ¡26 Gigaflops! (26 millones de operaciones de coma flotante por segundo)

Imagen
Imagen
Imágenes cortesía de TheInquirer


Una vez construido le pusieron un sistema operativo de software libre especialmente preparado para funcionar con esa configuración especial, a la que llaman "CLUSTER".

Lo interesante es que construir este ingenio les costó una buena suma pero la amortizan rápidamente a) porque no tienen que alquilar un superordenador ajeno para sus cálculos y b) como usan software libre tampoco pagan licencias de S.O ni de programas. Por no hablar de un legítimo motivo de orgullo personal, ser capaces de crear por sí mismos un superordenador que dobla la potencia del costoso "Deep Blue"; aunque naturalmente para hacer una comparación justa habría que ver los parámetros de fiabilidad y lo fino que va el SO en el cluster "clónico" :cool:

Artículo en castellano sobre Microwulf
Fuente (inglés): Microwulf

Enlace a imágenes en el sitio original de los constructores.

Al detalle:

Cuatro placas base MSI Micro ATX con 1 GB de RAM Kingston DDR2-667 y un procesador AMD Athlon 62 x 2 3800 AM2+ unidas entre sí por un switch Gigabit Ethernet de 8 puertos. Todo conectado a un HDD Seagate SATA de 250GB/7200 rpm.

Esta máquina alcanza la brutalidad de 26 GFLOPS. Una cifra impresionante para el año 2007 y aún en la actualidad, sobre todo si la comparamos con la potencia de los superordenadores que aparecen en la lista de los 500 más importantes del mundo desde 1996.

Me gustaría abrir un debate sobre esto, y que opinen los eolianos que necesitan este tipo de máquinas por sus estudios o profesión:

¿Alguien ha construido uno de estos aparatos? ¿Lo veis interesante, viable?
¿Qué opináis de "Microwulf"?
¿Alguien ha hecho algo que se parezca como práctica, proyecto fin de carrera, o trabajo académicamente dirigido?

Espero haber suscitado alguna controversia :cool:

Salu2
rocky7 está baneado por "clon de usuario baneado"
La grafica de mi pc (gtx 560ti) da sobre 1.200 Gigaflops y cuesta sobre 200€... Me rio del microwulf ese. xDD

26 Gflops hoy dia es una mierda y en 2006-2007 tampoco era para tanto.


Edito: Mi proce (i5-750 a 4ghzs) da 56gflops, ya me diras tu...

El invento ese no es mas que un cluster con 4 placas base conectadas por un cable de red gigabit... Fin de la historia, lo puedes hacer tu mismo en tu casa con pc´s viejos.
El cluster existe desde hace mucho, incluso hay programas de edicion que te permiten usar PCs esclavos para correr el render.

En un solo PC, se puede conseguir un super ordenador a base de graficas, ya que estas tienen una potencia muy grande, bastante superior en "lo suyo" a cualquier CPU. Con un par de HD7990 (cuando salga), ya tienes un buen bicho.
el MareNostrum es un superordenador que funciona de la misma forma, pero en vez de ser 4 ordenadores, son algunos mas... [sonrisa]
rocky7 escribió:(...).
Edito: Mi proce (i5-750 a 4ghzs) da 56gflops, ya me diras tu...
(...)


¿Cómo lo has medido?
Quintiliano escribió:
rocky7 escribió:(...).
Edito: Mi proce (i5-750 a 4ghzs) da 56gflops, ya me diras tu...
(...)


¿Cómo lo has medido?

Edito: con el programa LinX
http://foro.noticias3d.com/vbulletin/sh ... p?t=293905
Ademas puedes ver un raking de los foreros en ese hilo, tienes el intel 980x (x6) con OC a 5Ghz y usando SO de 64bits, da 106Gflops.
Y usando las instrucciones AVX de los SAndyBRidge, tienes el i7 2600k@5.2Ghz 131,68Gflops y 185Gflops para el x6 del socket 2011 a 5Ghz.
Hola , este tema ami me afecta ya que estoy metido en una tesis de master relacionada con la green HPC, es decir,supercomputadores de muy bajo consumo. Tambén hay un top que se actualiza cada 6 meses (http://www.green500.org/). El tema es que en la actualidad para "devorar números" se está pasando los programas a lo que se denomina computación de ámbito genereal o heterogea. Para ello se están utilizando múltiples GPUs como te han comentado los compañeros de arriba.

En cuanto a hardware, por un lado está lo que sería la serie "Tesla" , te dejo la web (http://www.nvidia.es/page/tesla_computi ... tions.html). Aunque bueno en el departamento donde estoy haciendo mi investigación hemos optado por la serie de escritorio GTX. Lo importante es que la tarjeta sea compatible con CUDA que es el lenguaje de Nvidia para la supercomputación.

Por otro lado está firestream (otros monstruos de muy bajo consumo XD) te dejo también la página web (http://www.amd.com/us/products/server/p ... tream.aspx). El problema es que AMD sólo se traga lenguaje OPEN CL, y parece que CUDA está más desarrolladop.

Por último te dejo un enlace a un artículo científico, pero se entiende bien lo que quiere mostrar. ( viene a demostrar que las GPu como herramienta de cálculos se pulen a los servidores de la época). (http://synergy.cs.vt.edu/pubs/papers/sc ... tedgpu.pdf).

Para medir los sistemas hay 2 benchmark de "referencia", por un lado está el SHOC y por otro el benchmark de la Universidad de Virginia Rodinia creo que se llamaba. Personalmente intento medir con el segundo. Aunque ambos son bastante buenos y tiene códigos variados ( que al final y al cabo es lo que interesa, utilizar el computador para diferentes problemas y en mi caso, que en general el computador sea eficiente). En cuanto a eficienta computacional puedo hablar mucho más XD, pero el hilo no se centra por ahi. =) Creo que leyendo el paper de las GPU te darás cuenta de que ya es "viable".
gorgon escribió:Hola , este tema ami me afecta ya que estoy metido en una tesis de master relacionada con la green HPC, es decir,supercomputadores de muy bajo consumo. Tambén hay un top que se actualiza cada 6 meses (http://www.green500.org/). El tema es que en la actualidad para "devorar números" se está pasando los programas a lo que se denomina computación de ámbito genereal o heterogea. Para ello se están utilizando múltiples GPUs como te han comentado los compañeros de arriba.

En cuanto a hardware, por un lado está lo que sería la serie "Tesla" , te dejo la web (http://www.nvidia.es/page/tesla_computi ... tions.html). Aunque bueno en el departamento donde estoy haciendo mi investigación hemos optado por la serie de escritorio GTX. Lo importante es que la tarjeta sea compatible con CUDA que es el lenguaje de Nvidia para la supercomputación.

Por otro lado está firestream (otros monstruos de muy bajo consumo XD) te dejo también la página web (http://www.amd.com/us/products/server/p ... tream.aspx). El problema es que AMD sólo se traga lenguaje OPEN CL, y parece que CUDA está más desarrolladop.

Por último te dejo un enlace a un artículo científico, pero se entiende bien lo que quiere mostrar. ( viene a demostrar que las GPu como herramienta de cálculos se pulen a los servidores de la época). (http://synergy.cs.vt.edu/pubs/papers/sc ... tedgpu.pdf).

Para medir los sistemas hay 2 benchmark de "referencia", por un lado está el SHOC y por otro el benchmark de la Universidad de Virginia Rodinia creo que se llamaba. Personalmente intento medir con el segundo. Aunque ambos son bastante buenos y tiene códigos variados ( que al final y al cabo es lo que interesa, utilizar el computador para diferentes problemas y en mi caso, que en general el computador sea eficiente). En cuanto a eficienta computacional puedo hablar mucho más XD, pero el hilo no se centra por ahi. =) Creo que leyendo el paper de las GPU te darás cuenta de que ya es "viable".


:O :O :O :O :O :O :O :O :O :O :O

¡Impresionante! [chulito]

Creo que voy a cambiarle el título al hilo y voy a ponerle "Hilo oficial de supercomputación" [sonrisa]

Quedas fichado como experto de referencia [chulito]

Por cierto veo que tienes un HP G62, precisamente el último portátil que compré [chulito]
Tampoco te creas, sé de lo que leo para documentar en mi trabajo que es muy teórico xD. Lo que es verdad es que el mundillo del hardware llama mucho. En el mundo HPC se encuentran cosas muy curiosas que nacen de los propios foros de internet y luego se crean "sistemas profesionales". Uno que se me viene a la mente ahora, es el famoso sistema de refrigeración con basado en aceite mineral XD (http://www.youtube.com/watch?v=U5zoIEjo1Zk).

A la hora de diseñar un supercomputador doméstico, lo que se suele hacer es lo siguiente:

Para selecionar la CPU existe la siguiente base de datos: http://www.spec.org/. En ella se muestran múltiples resultados medidos con su benchmark. Si alguien quiere un pc para trabajar en temas criptográficos le va a interesar que la CPU se trage números enteros más rápido que otra cosa. Por contrario, si el computador va a simular entornos como trazado de rayos (simulación típica en sistemas de comunicaciones) se va a fijar más en otros parámetros. Basicamente, cada tipo de problema rinde mejor en un hardware que en otro (cosa lógica).

Si te preguntas si existe esa base de datos para GPU, siento responderte que yo no la conozco (es una pena). En rasgos generales para selecionar la GPU correcta, en lo que se suele fijar la gente es primero en el ancho de banda (es muy importante que la GPU tenga mucho ancho de banda para suministrar datos a los "cores") y también en el número de cores que tenga y frecuencia XD. Ojo que los fabricantes siempre "engañan" , ya que existe una forma de calcular teóricamente el rendimiento de una GPU, pero alcanzarlo es practicamente imposible. Para acercarse a los límites teóricos tienes que ser un programador con muchísimo conocimiento y conseguir programar un código "muy puro" y aun así tienes los problemas indirectos que hacen perder rendimiento al chip GPU. Aquí se demuestra la importandia de tener un benchmark para ver hasta donde de verdad se puede llevar un chip electrónico XD.
gorgon escribió:Tampoco te creas, sé de lo que leo para documentar en mi trabajo que es muy teórico xD. Lo que es verdad es que el mundillo del hardware llama mucho. En el mundo HPC se encuentran cosas muy curiosas que nacen de los propios foros de internet y luego se crean "sistemas profesionales". Uno que se me viene a la mente ahora, es el famoso sistema de refrigeración con basado en aceite mineral XD (http://www.youtube.com/watch?v=U5zoIEjo1Zk).

A la hora de diseñar un supercomputador doméstico, lo que se suele hacer es lo siguiente:

Para selecionar la CPU existe la siguiente base de datos: http://www.spec.org/. En ella se muestran múltiples resultados medidos con su benchmark. Si alguien quiere un pc para trabajar en temas criptográficos le va a interesar que la CPU se trage números enteros más rápido que otra cosa. Por contrario, si el computador va a simular entornos como trazado de rayos (simulación típica en sistemas de comunicaciones) se va a fijar más en otros parámetros. Basicamente, cada tipo de problema rinde mejor en un hardware que en otro (cosa lógica).

Si te preguntas si existe esa base de datos para GPU, siento responderte que yo no la conozco (es una pena). En rasgos generales para selecionar la GPU correcta, en lo que se suele fijar la gente es primero en el ancho de banda (es muy importante que la GPU tenga mucho ancho de banda para suministrar datos a los "cores") y también en el número de cores que tenga y frecuencia XD. Ojo que los fabricantes siempre "engañan" , ya que existe una forma de calcular teóricamente el rendimiento de una GPU, pero alcanzarlo es practicamente imposible. Para acercarse a los límites teóricos tienes que ser un programador con muchísimo conocimiento y conseguir programar un código "muy puro" y aun así tienes los problemas indirectos que hacen perder rendimiento al chip GPU. Aquí se demuestra la importandia de tener un benchmark para ver hasta donde de verdad se puede llevar un chip electrónico XD.


Hola, gracias por tus dos interesantes aportaciones [chulito]

Parece que en los últimos años ha evolucionado mucho lo que se venía llamando con cierto menosprecio "microinformática". Está claro que si un i7 tiene 900 millones de transistores y puede exceder los 100 Gigaflops, entonces estamos ya en un orden de magnitudes que nos invitan a pensar en técnicas diferentes, como bien apuntas el uso de la GPU al cual se apunta NVidia con gran acierto, y también la revolución de los dispositivos portátiles. Hace unos días alguien me decía en otro hilo que un móvil actual podía ser más potente que un "viejo" IBM System 38 y yo no podía aceptar esa idea, pero está claro que las cosas van por ahí.

Te dejo aquí varios enlaces a hilos que abrí sobre temas similares:

¿Se podría reutilizar un mainframe con software libre?

Recrean al histórico computador ENIAC en un chip - Debate

Las chicas del E.N.I.A.C

Salu2 :cool:
Si me permitis el "off-topic", la supercomputacion es algo que me interesa, pero yo ultimamente estoy informandome de algo llamado "Computacion Distribuida". Es un modelo de computación basado en el uso de recursos de una red de maquinas independientes para el procesado de unidades discretas [...]

Yo llevo apenas 1 mes y me gusta bastante, con la computacion distribuida conseguimos computar cantidades ingentes de datos, esta al alcance de todo el mundo, independientemente del ordenador que tengas. La gente se organiza en "Equipos" y se suelen hacer competiciones de computacion, etc. Yo por ejemplo estoy en el equipo "TitanesDC" http://www.titanesdc.com

Os dejo un poco de info y os animo a que os apunteis: http://foro.noticias3d.com/vbulletin/sh ... p?t=192297

Un saludo! =D
Dasten escribió:Si me permitis el "off-topic", la supercomputacion es algo que me interesa, pero yo ultimamente estoy informandome de algo llamado "Computacion Distribuida". Es un modelo de computación basado en el uso de recursos de una red de maquinas independientes para el procesado de unidades discretas [...]

Yo llevo apenas 1 mes y me gusta bastante, con la computacion distribuida conseguimos computar cantidades ingentes de datos, esta al alcance de todo el mundo, independientemente del ordenador que tengas. La gente se organiza en "Equipos" y se suelen hacer competiciones de computacion, etc. Yo por ejemplo estoy en el equipo "TitanesDC" http://www.titanesdc.com

Os dejo un poco de info y os animo a que os apunteis: http://foro.noticias3d.com/vbulletin/sh ... p?t=192297

Un saludo! =D


Hola, estupenda aportación [chulito]

¿Podrías explicar en este hilo un poco más en qué consiste la iniciativa, y cómo funciona? Ten en cuenta que aquí muchos usuarios tenemos algunos conocimientos de informática pero no tantos como para comprender rápidamente este tipo de técnicas informáticas avanzadas.

Salu2 :)
Computación Distribuida – Grid Computing

¿Qué es?

La computación distribuida (o grid computing / network computing) es un modelo de computación basado en el uso de recursos de una red de maquinas independientes para el procesado de unidades discretas de datos a través de un protocolo común cuyo objetivo es crear una potente red de procesado de datos que puede incluso superar a los grandes superordenadores.

¿Para que se usa esto?

Estas redes de computación distribuida son mayoritariamente utilizadas para investigaciones científicas que necesitan largos tiempos de procesado mediante ordenadores. Existe gran variedad de proyectos científicos que utilizan estas redes para procesar las ingentes cantidades de datos que poseen. Con ello son capaces de avanzar en sus investigaciones de manera muy eficiente gracias a la aportación altruista de miles de personas que donan su tiempo de procesador en beneficio de dichas investigaciones científicas.

¿Cómo dices?

En palabras más sencillas, cuando nuestros ordenadores están encendidos haciendo poco o nada, digamos cuando navegamos, hablamos con nuestros amigos, trabajamos, etc., están básicamente haciendo nada. Además muchos de nosotros tenemos ordenadores con procesadores modernos y potentes y con buena cantidad de memoria y que pasan mucho tiempo encendidos sin hacer nada. La computación distribuida utiliza estos recursos no aprovechados del ordenador, cuando el ordenador no hace nada o poco, para estudios científicos, realizando trabajo sin que te des cuenta, y sin molestar, en segundo plano.

Me gustaría colaborar. Qué tengo que hacer?

Existen multitud de proyectos donde participar (ver siguiente post), en primer lugar elige uno o varios donde te interese participar, ya sea por su carácter práctico o por que te guste el tema. En segundo lugar debes unirte a ese proyecto usando BOINC.

¿Qué es BOINC?

BOINC = Berkeley Open Infrastructure for Network Computing.

Es un software libre de la Universidad de Berkeley que sirve como base para trabajar en estos proyectos, bájalo, instálalo, y únete a un proyecto (ver post número 3).

¿Qué consecuencias tiene tener estos proyectos trabajando?

Este software trabaja en segundo plano, con prioridad baja, solo usa los recursos que tú no usas, si en algún momento el ordenador necesita toda su potencia, el proyecto no trabajará, estando tu equipo disponible a plena capacidad. Por poner un ejemplo imaginemos que el ordenador esta sin hacer nada, sólo aprovechando los recursos y trabajando en estos proyectos. Si en ese momento ejecutamos cualquier programa, o grabamos un cd, o abrimos un procesador de texto, los proyectos en segundo plano se pararán, de manera que tenga la potencia necesaria para ejecutarse, sin que la presencia de los proyectos en segundo plano molesten en absoluto.

Teneis mas informacion aqui:

http://foro.noticias3d.com/vbulletin/sh ... p?t=192297

Si necesitais mas info o cualquier cosa, preguntad.
WaterDark escribió:El cluster existe desde hace mucho, incluso hay programas de edicion que te permiten usar PCs esclavos para correr el render.

En un solo PC, se puede conseguir un super ordenador a base de graficas, ya que estas tienen una potencia muy grande, bastante superior en "lo suyo" a cualquier CPU. Con un par de HD7990 (cuando salga), ya tienes un buen bicho.


Es muy interesante lo que comentas. Yo me he enterado de lo que es un cluster como quien dice hace unos días XD. ¿Por qué no escribes un mensaje explicando lo que es un cluster y comentando las aplicaciones y técnicas? Por ejemplo el tipo de software que se usa, el hardware que se utiliza... ejemplos... ¡Anímate! :cool:

zmxn escribió:el MareNostrum es un superordenador que funciona de la misma forma, pero en vez de ser 4 ordenadores, son algunos mas... [sonrisa]


¡Más! ¡Cuenta algo más de ese superarmatoste! Si te animas a hacer una pequeña reseña en el hilo la indizaré al principio [chulito]

Dasten escribió: ( ... )


Muchas gracias Dasten :cool:

[tadoramo] [plas] [plas] [oki]

Quedas integrado en el cuadro de Expertos del hilo, espero contar contigo cuando haya consultas de compañer@s que se interesen por este tema [chulito]

A partir de ahora este hilo servirá para comentar cualquier asunto relativo a los supercomputadores o a la supercomputación. Sé que es un campo muy amplio pero estoy seguro de que pronto tendremos unos contenidos muy interesantes.

Salu2 y feliz semana para todos :p
Quintiliano escribió:Es muy interesante lo que comentas. Yo me he enterado de lo que es un cluster como quien dice hace unos días XD. ¿Por qué no escribes un mensaje explicando lo que es un cluster y comentando las aplicaciones y técnicas? Por ejemplo el tipo de software que se usa, el hardware que se utiliza... ejemplos... ¡Anímate! :cool:

No soy ningun experto :D, no te puedo dar las super explicaciones que te han dado los compañeros... los cluster expertos no se como van, pero para el usuario normal, un cluster para un programa profesional de edicion, para realizar render, funciona como lo que te ha explicado Dasten básicamente, un PC principal que divide el trabajo y se lo manda a los esclavos, los esclavos solo tienen que tener un programa a la espera de ordenes, igual que los programas que explica Dasten vamos, de hecho hay programas profesionales, que pagando una cuota creo, te permiten realizar el render en un servidor de la empresa, osea tu preparas lo que sea en tu PC, y puedes mandarlo a un server remoto para que te haga el render y luego te devuelva el resultado.
Por lo tanto el Hardware necesario es el normal de casa, dos PCs conectados por red, si puede ser GigaLan pues mejor.
Quintiliano escribió:
WaterDark escribió:
zmxn escribió:el MareNostrum es un superordenador que funciona de la misma forma, pero en vez de ser 4 ordenadores, son algunos mas... [sonrisa]


¡Más! ¡Cuenta algo más de ese superarmatoste! Si te animas a hacer una pequeña reseña en el hilo la indizaré al principio [chulito]


a ver que mas recuerdo...
El MareNostrum creo recordar que aun esta entre los 5 superordenadores mas potentes de España y aun esta dentro del top 500, aunque creo que por allá el 2003 o 2004 estuvo en el top10.
cuando lo visité creo que tenia unos 2500 placas, con dos procesadores doble núcleo cada uno.
El guía nos comento que lo querían actualizar para meter-lo en el ¿top25?, pero debido a la crisis aun no han podido...
funciona con un sistema operativo basado en unix, que se puede contratar un % de potencia de calculo para proyectos y que fue el culpable de llegar a la conclusión que si limitaban la velocidad al salir de Barcelona se reduciría la contaminación (así nos lo soltó, escojonandose el tío... XD)
Hay visitas guiadas, donde te cuentan un poco de la historia y prestaciones, para que lo están usando etc. esta dentro de un cubo enorme de cristal, con lo que puedes ver todos los racs, el sistema de conductos para la refrigeración, cableado eléctrico, de red para conectar-se entre si, etc.

todo esto lo estoy diciendo un poco de cabeza, por lo que los números pueden variar...
A mi me gustaria ir al CPD del BBVA, es la re-poia, de hecho el mas potente de Europa, aqui os dejo la visita de Xataka, muy interesante...



Viaje al corazón del CPD más moderno de Europa

Imagen

Los CPD o Centros de Procesos de datos son la punta de lanza de cualquier servicio electrónico actual, desde bancos hasta operadores de telefonía o empresas de internet. Esta semana hemos tenido la oportunidad de visitar el CPD que BBVA acaba de inaugurar en Tres Cantos, Madrid.

Hasta que Telefónica termine su propio nuevo centro, actualmente en construcción, el edificio de BBVA es el más moderno de Europa, un cerebro en cuyas profundidades pueden vivir hasta 10.000 procesadores de la nueva serie empresarial Intel Xeon.

Imagen

Cuando se construye uno de estos edificios, el principal objetivo es garantizar la continuidad del servicio en cualquier circunstancia. El CPD de BBVA en Tres Cantos ha sido el primero de Europa en obtener la certificación Tier IV, un proceso de homologación que consta de 38 duras pruebas de resistencia para los equipos y la instalación. Una de estas pruebas, por ejemplo, consiste nada menos que en llenar la sala de servidores con estufas a plena potencia para testear la capacidad del edificio para disipar el calor.

Imagen

Nuestro viaje comienza en la sala de control, un espacio a media luz con capacidad para hasta 45 operadores. Un Videowall de 32.5 metros cuadrados y más de 50 millones de píxeles se encarga de mostrar la información básica sobre distintas operaciones. En esta zona está prohibido sacar fotos por la información confidencial que transita por las pantallas.

De la sala de operadores pasamos a la de ordenadores. Se trata de un espacio diáfano sostenido por una falsa cubierta que evita el uso de columnas. A lo largo y ancho de sus 1.500 metros cuadrados podemos encontrar todo tipo de servidores de varias generaciones. Un detalle interesante es que todos los cables que conectan los equipos no discurren bajo el suelo, sino en raíles colgados del techo y separados por colores en función de si son de fibra o convencionales.

Imagen

Esta disposición permite, por un lado, acceder más cómodamente al cableado. Por el otro, crea un espacio diáfano de 1.40 metros de altura bajo la sala que se utiliza para canalizar la refrigeración. El sistema aprovecha el frío del exterior para optimizar el enfriado y, a su vez, emplea el calor generado por los equipos para calentar el edificio. La sala está separada en pasillos calientes que disipan hacia arriba y pasillos fríos en los que al aire entra desde rejillas en el suelo. Os podemos asegurar que estos últimos no tienen nada que envidiar a los pasillos de refrigerados de algunos supermercados.

Conviviendo con switches, servidores blade y armarios de almacenamiento, la sala de ordenadores está siendo equipada con los nuevos procesadores Intel Xeon E5-2600. Esta nueva familia mejora los tiempos de latencia en un 30% al incorporar controladores en el propio chip y reduce el consumo hasta en un 50%. La familia Xeon permite hasta 8 núcleos por procesador y una memoria total del sistema de hasta 768GB, una potencia necesaria para mantener millones de operaciones simultáneas, en este caso bancarias.

Electricidad asegurada

El edificio cuenta con dos acometidas independientes de alta tensión y una tercera de media tensión que alimentan una subestación eléctrica propia capaz de dar electricidad a un pueblo de 3.500 hogares. En caso de que el suministro fallase por partida triple, el edificio cuenta con un sistema redundante para garantizar el suministro.

Imagen

Salimos de la sala de ordenadores y bajamos varios pisos hasta la sala de generadores. Aquí encontramos ocho grupos electrógenos (el doble de los necesarios). Unas baterías cargadas permiten mantener el sistema con vida 20 segundos, que es el tiempo que tardan en arrancar los generadores de Gasoil. Con 240.000 litros de combustible, estos motores del tamaño de camiones podrían mantener el CPD funcionando a pleno rendimiento durante 96 horas.

Imagen

La sala de generadores también cuenta con un circuito de refrigeración adicional mediante agua a 4 grados para emergencias. En caso de incendio, un sistema de aspersores por nebulización permitirían controlar las llamas sin perjudicar a los equipos.

Volvemos a la suprficie con la sensación de haber viajado en el tiempo. El CPD de Tres Cantos es el primero de cuatro centros, dos en Madrid y dos en México, que controlarán todas las operaciones mundiales del banco. Si BBVA necesita de toda esta tecnología para funcionar, no podemos imaginar lo que nos espera cuando Movistar, cuya necesidad de gestionar datos es mucho mayor, ponga en marcha su CPD Tier IV en Madrid. Estaremos al tanto por si también nos dejan colarnos en sus profundidades.


Fuente: Xataka http://www.xataka.com/otros/viaje-al-co ... -de-europa

PD: Para que querrán eso(?) xDD
PD2: Hablare con el responsable del CPD de Ilion (Empresa de animacion, creó la peli de Planet 51) y le dire que me de una vuelta por el CPD de Ilion, cuando vaya echo fotos y cuelgo un pequeño reportaje por aqui =D
Dasten escribió:
A mi me gustaria ir al CPD del BBVA, es la re-poia, de hecho el mas potente de Europa, aqui os dejo la visita de Xataka, muy interesante...



Viaje al corazón del CPD más moderno de Europa

Imagen

Los CPD o Centros de Procesos de datos son la punta de lanza de cualquier servicio electrónico actual, desde bancos hasta operadores de telefonía o empresas de internet. Esta semana hemos tenido la oportunidad de visitar el CPD que BBVA acaba de inaugurar en Tres Cantos, Madrid.

Hasta que Telefónica termine su propio nuevo centro, actualmente en construcción, el edificio de BBVA es el más moderno de Europa, un cerebro en cuyas profundidades pueden vivir hasta 10.000 procesadores de la nueva serie empresarial Intel Xeon.

Imagen

Cuando se construye uno de estos edificios, el principal objetivo es garantizar la continuidad del servicio en cualquier circunstancia. El CPD de BBVA en Tres Cantos ha sido el primero de Europa en obtener la certificación Tier IV, un proceso de homologación que consta de 38 duras pruebas de resistencia para los equipos y la instalación. Una de estas pruebas, por ejemplo, consiste nada menos que en llenar la sala de servidores con estufas a plena potencia para testear la capacidad del edificio para disipar el calor.

Imagen

Nuestro viaje comienza en la sala de control, un espacio a media luz con capacidad para hasta 45 operadores. Un Videowall de 32.5 metros cuadrados y más de 50 millones de píxeles se encarga de mostrar la información básica sobre distintas operaciones. En esta zona está prohibido sacar fotos por la información confidencial que transita por las pantallas.

De la sala de operadores pasamos a la de ordenadores. Se trata de un espacio diáfano sostenido por una falsa cubierta que evita el uso de columnas. A lo largo y ancho de sus 1.500 metros cuadrados podemos encontrar todo tipo de servidores de varias generaciones. Un detalle interesante es que todos los cables que conectan los equipos no discurren bajo el suelo, sino en raíles colgados del techo y separados por colores en función de si son de fibra o convencionales.

Imagen

Esta disposición permite, por un lado, acceder más cómodamente al cableado. Por el otro, crea un espacio diáfano de 1.40 metros de altura bajo la sala que se utiliza para canalizar la refrigeración. El sistema aprovecha el frío del exterior para optimizar el enfriado y, a su vez, emplea el calor generado por los equipos para calentar el edificio. La sala está separada en pasillos calientes que disipan hacia arriba y pasillos fríos en los que al aire entra desde rejillas en el suelo. Os podemos asegurar que estos últimos no tienen nada que envidiar a los pasillos de refrigerados de algunos supermercados.

Conviviendo con switches, servidores blade y armarios de almacenamiento, la sala de ordenadores está siendo equipada con los nuevos procesadores Intel Xeon E5-2600. Esta nueva familia mejora los tiempos de latencia en un 30% al incorporar controladores en el propio chip y reduce el consumo hasta en un 50%. La familia Xeon permite hasta 8 núcleos por procesador y una memoria total del sistema de hasta 768GB, una potencia necesaria para mantener millones de operaciones simultáneas, en este caso bancarias.

Electricidad asegurada

El edificio cuenta con dos acometidas independientes de alta tensión y una tercera de media tensión que alimentan una subestación eléctrica propia capaz de dar electricidad a un pueblo de 3.500 hogares. En caso de que el suministro fallase por partida triple, el edificio cuenta con un sistema redundante para garantizar el suministro.

Imagen

Salimos de la sala de ordenadores y bajamos varios pisos hasta la sala de generadores. Aquí encontramos ocho grupos electrógenos (el doble de los necesarios). Unas baterías cargadas permiten mantener el sistema con vida 20 segundos, que es el tiempo que tardan en arrancar los generadores de Gasoil. Con 240.000 litros de combustible, estos motores del tamaño de camiones podrían mantener el CPD funcionando a pleno rendimiento durante 96 horas.

Imagen

La sala de generadores también cuenta con un circuito de refrigeración adicional mediante agua a 4 grados para emergencias. En caso de incendio, un sistema de aspersores por nebulización permitirían controlar las llamas sin perjudicar a los equipos.

Volvemos a la suprficie con la sensación de haber viajado en el tiempo. El CPD de Tres Cantos es el primero de cuatro centros, dos en Madrid y dos en México, que controlarán todas las operaciones mundiales del banco. Si BBVA necesita de toda esta tecnología para funcionar, no podemos imaginar lo que nos espera cuando Movistar, cuya necesidad de gestionar datos es mucho mayor, ponga en marcha su CPD Tier IV en Madrid. Estaremos al tanto por si también nos dejan colarnos en sus profundidades.


Fuente: Xataka http://www.xataka.com/otros/viaje-al-co ... -de-europa

PD: Para que querrán eso(?) xDD
PD2: Hablare con el responsable del CPU de Ilion (Empresa de animacion, creó la peli de Planet 51) y le dire que me de una vuelta por el CPD de Ilion, cuando vaya echo fotos y cuelgo un pequeño reportaje por aqui =D


Sencillamente BRUTAL, aunque el primer crysis no creo que pueda con todo a tope, a 60 fps estables [sonrisa]
17 respuestas