Llevarse los centros de IA al espacio para solventar las necesidades energéticas puede parecer el argumento de una novela de ciencia ficción dura, pero es ni más ni menos la idea que postula Google con su último moonshot, como denomina a sus proyectos más arriesgados y potencialmente revolucionarios.
La iniciativa, que recibe el nombre de Suncatcher, explorará "un sistema de diseño de infraestructura de IA escalable y basada en el espacio" pensado para dar pie a la formación de constelaciones de satélites de inteligencia artificial que obtendrían la energía necesaria directamente del Sol. Así de sencillo.
Estos satélites, relata Google en su blog oficial, integrarían TPU (unidades de procesamiento tensor) y se comunicarían utilizando enlaces ópticos. Una idea con un "tremendo potencial para escalar" y que reduciría drásticamente el consumo de recursos en la Tierra, asegura la compañía.
Los desafíos a los que se enfrenta la que sería una de las obra de ingeniería más complejas en la historia de la humanidad son, lógicamente, inmensos. Titánicos, incluso. Solo los enlaces ópticos necesarios para comunicar la información procesada con una latencia mínima y la debida corrección de errores nos conducen al terreno especulativo, aunque Google afirma que sus ingenieros ya están validando un prototipo de doble dirección con una capacidad de transmisión de 800 Gbps en cada sentido, 1.600 Gbps en total.
A la cuestión de las comunicaciones se suman otros retos, como la sincronización de miles de satélites separados por unos pocos cientos de metros (algo que Google considera relativamente sencillo) y la cuestión económica, y es que enviar centros de datos al espacio es a día de hoy una empresa muy poco rentable. En este aspecto, Google espera que los precios caigan a 200 dólares/kg a mediados de la década de 2030, momento a partir del cual ya empezaría a tener cierto sentido económico cuando se considera el coste energético de los centros de datos terrestres.
Siendo uno de sus moonshots, Google no se plantea metas a largo plazo. Sin embargo, la compañía tiene intención de lanzar al espacio dos TPU a comienzos de 2027, evaluando así la viabilidad tecnológica de sus sistemas más básicos y esenciales antes de abordar otras cuestiones de mayor complejidad.
La iniciativa, que recibe el nombre de Suncatcher, explorará "un sistema de diseño de infraestructura de IA escalable y basada en el espacio" pensado para dar pie a la formación de constelaciones de satélites de inteligencia artificial que obtendrían la energía necesaria directamente del Sol. Así de sencillo.
Estos satélites, relata Google en su blog oficial, integrarían TPU (unidades de procesamiento tensor) y se comunicarían utilizando enlaces ópticos. Una idea con un "tremendo potencial para escalar" y que reduciría drásticamente el consumo de recursos en la Tierra, asegura la compañía.
Los desafíos a los que se enfrenta la que sería una de las obra de ingeniería más complejas en la historia de la humanidad son, lógicamente, inmensos. Titánicos, incluso. Solo los enlaces ópticos necesarios para comunicar la información procesada con una latencia mínima y la debida corrección de errores nos conducen al terreno especulativo, aunque Google afirma que sus ingenieros ya están validando un prototipo de doble dirección con una capacidad de transmisión de 800 Gbps en cada sentido, 1.600 Gbps en total.
A la cuestión de las comunicaciones se suman otros retos, como la sincronización de miles de satélites separados por unos pocos cientos de metros (algo que Google considera relativamente sencillo) y la cuestión económica, y es que enviar centros de datos al espacio es a día de hoy una empresa muy poco rentable. En este aspecto, Google espera que los precios caigan a 200 dólares/kg a mediados de la década de 2030, momento a partir del cual ya empezaría a tener cierto sentido económico cuando se considera el coste energético de los centros de datos terrestres.
Siendo uno de sus moonshots, Google no se plantea metas a largo plazo. Sin embargo, la compañía tiene intención de lanzar al espacio dos TPU a comienzos de 2027, evaluando así la viabilidad tecnológica de sus sistemas más básicos y esenciales antes de abordar otras cuestiones de mayor complejidad.
https://www.huffingtonpost.es/tecnologi ... icial.html
En China en su momento tuvieron que prohibir las granjas criptos porque estaban teniendo muchos problemas de abastecimiento electrico y cortes de luz en pueblos y ciudades. Y al ritmo que va, los centros de datos para IAs van a consumir mucho mas de lo que consumian esas granjas de criptos.
Las grandes tecnologicas estan llegando a acuerdos para reactivar centrales nucleares cerradas e incluso abrir ellos sus propias centrales nucleares:
https://www.nytimes.com/es/2024/10/18/e ... clear.html
Va a estar gracioso ver, si ese consumo,sobretodo de agua, sigue subiendo, como se va a justificar si se producen sequias importantes. ¿Paras los centros de datos o dejas sin agua a la gente?
@"Alejo I" Me flipa, que hayas puesto de imagen una escena de la película “sunshine”, cuando la trama va exactamente de lo contrario jajaja eres un crack bien tirado
Y el riesgo de seguir poniendo cada vez más satélites en órbita empieza a ser preocupante: es algo que ya se debatió con Starlink. Cada vez resulta más difícil hacer observación espacial desde la tierra y, además, con el tiempo se va acumulando más basura en órbita que hace que cada misión espacial sea más difícil y peligrosa.
En fin, mucho tienen que bajar los costes de mandar chatarra al espacio para que esto sea económicamente viable, no se si ese objetivo para la década de 2030 será realista o no.