Home Negocios Empresas La batalla por la infraestructura de IA: inversiones terrestres de 240.000 millones...

La batalla por la infraestructura de IA: inversiones terrestres de 240.000 millones chocan con experimentos orbitales de viabilidad incierta

0
4

La industria tecnológica global enfrenta su mayor dilema infraestructural: resolver la demanda energética exponencial de la inteligencia artificial sin colapsar las redes eléctricas ni comprometer objetivos ambientales. Esta semana, dos realidades paralelas evidenciaron la magnitud del desafío. Por un lado, Starcloud colocó en órbita el primer centro de datos espacial equipado con procesadores Nvidia, reavivando promesas de energía solar ilimitada. Por otro, los gigantes tecnológicos confirmaron inversiones terrestres por 240.000 millones de dólares en Asia-Pacífico para los próximos cinco años, reconociendo implícitamente que las soluciones orbitales no llegarán a tiempo para satisfacer necesidades inmediatas.

Starcloud inaugura la era orbital con un satélite del tamaño de un refrigerador

El domingo pasado, un cohete de SpaceX transportó al espacio un satélite del tamaño de un refrigerador conteniendo una unidad de procesamiento gráfico (GPU) de Nvidia. La startup estadounidense Starcloud logró así el primer despliegue funcional de computación de inteligencia artificial en órbita, hito que Nvidia describió como el «debut cósmico» de sus procesadores.

«La idea es que pronto tendrá mucho más sentido construir centros de datos en el espacio que en la Tierra», declaró Philip Johnston, director ejecutivo de Starcloud, durante una conferencia tecnológica en Riad, Arabia Saudita. La afirmación, aunque visionaria, contrasta con la prudencia que mantienen actores establecidos ante los obstáculos técnicos y económicos pendientes.

El mini centro de datos opera bajo premisas atractivas: suministro constante de energía solar mediante sincronización orbital y refrigeración natural aprovechando temperaturas extremas del espacio. Sin embargo, la distancia entre un prototipo experimental y una infraestructura comercialmente viable permanece considerable.

Cronogramas divergentes: del optimismo de Musk al escepticismo de Bezos

Los anuncios sobre centros de datos espaciales se han sucedido con rapidez inusual en las últimas semanas, revelando tanto entusiasmo como incertidumbre sobre plazos realistas.

Google presentó esta semana su proyecto Suncatcher, comprometiéndose a lanzar satélites de prueba a principios de 2027. La iniciativa representa el esfuerzo más estructurado hasta la fecha por parte de un gigante tecnológico establecido, combinando paneles solares, chips TPU (Tensor Processing Units) y sistemas de comunicación óptica en constelaciones satelitales coordinadas mediante inteligencia artificial.

Elon Musk elevó expectativas al afirmar hace días que SpaceX debería poder desplegar centros de datos en órbita el próximo año, aprovechando infraestructura del programa Starlink. Esta proyección agresiva contrasta marcadamente con evaluaciones más conservadoras.

Jeff Bezos, fundador de Amazon y propietario de la empresa de exploración espacial Blue Origin, estima que la viabilidad comercial podría tardar hasta el doble del tiempo proyectado por los más optimistas. Esta divergencia de criterios entre los dos multimillonarios más involucrados en exploración espacial comercial subraya la incertidumbre que rodea estos proyectos.

Krishna Muralidharan, profesor de ingeniería de la Universidad de Arizona involucrado en desarrollos de centros de datos espaciales, adopta una posición intermedia al situar la viabilidad comercial en la próxima década, reconociendo avances técnicos pero advirtiendo sobre obstáculos pendientes.

Retos técnicos críticos: radiación, basura espacial y gestión térmica

La arquitectura propuesta para centros de datos orbitales requiere agrupaciones de satélites en órbita terrestre baja, posicionados suficientemente cerca entre sí para garantizar conectividad inalámbrica confiable. Esta configuración enfrenta desafíos técnicos formidables que trascienden la ingeniería convencional de centros de datos.

Los altos niveles de radiación espacial degradan progresivamente componentes electrónicos. Google ha realizado pruebas de resistencia en sus chips TPU Trillium, confirmando operatividad durante al menos cinco años sin fallas críticas. No obstante, las GPU comerciales estándar enfrentan condiciones más severas que cualquier entorno terrestre, requiriendo blindaje adicional o rediseño fundamental.

Las temperaturas extremas presentan una paradoja térmica: mientras los procesadores generan calor intenso durante operación, el vacío espacial carece del aire necesario para disipación convencional. Google propone radiadores y sistemas pasivos de conducción de calor, similares a tecnologías empleadas en satélites de observación, pero con requerimientos de escala significativamente mayores dada la densidad de procesamiento de centros de datos.

La amenaza de colisión con basura espacial —fragmentos de satélites y cohetes en desuso— añade riesgo operacional constante. Con miles de objetos rastreados en órbita baja y millones de fragmentos más pequeños sin seguimiento, cada satélite enfrenta probabilidad no despreciable de impacto durante su vida útil.

«Será necesario un trabajo de ingeniería», resumió Christopher Limbach, profesor asistente de ingeniería en la Universidad de Michigan, argumentando que el desafío principal radica en costos más que en imposibilidad técnica. Sin embargo, reconoció que aspectos críticos de mantenimiento orbital permanecen sin resolver: en Tierra, un chip defectuoso se reemplaza fácilmente; en órbita, cada componente debe resistir años sin intervención humana.

La ecuación energética: sincronización solar frente a reactores nucleares

El argumento central para centros de datos espaciales gira en torno al suministro energético. La sincronización de satélites con la órbita del Sol garantizaría iluminación constante sobre paneles fotovoltaicos, eliminando intermitencias del ciclo día-noche y condiciones meteorológicas que limitan eficiencia terrestre.

Los paneles solares en el espacio reciben hasta ocho veces más radiación que en superficie terrestre. El Sol genera 100 billones de veces más energía que el consumo global humano, un potencial mayormente inexplotado debido a limitaciones de transmisión. Google Research fundamenta su proyecto Suncatcher en este principio físico inapelable, proponiendo un cambio de paradigma: en lugar de transmitir energía a Tierra, trasladar el procesamiento al espacio.

Esta abundancia contrasta con la situación terrestre, donde gigantes tecnológicos recurren a soluciones extremas. Las inversiones en plantas de energía nuclear para alimentar centros de datos convencionales evidencian la magnitud del problema. Google ya firmó acuerdos con proveedores de energía nuclear avanzada, fusión y geotermia como parte de su portafolio experimental diversificado.

Los defensores de infraestructura orbital argumentan que, más allá de la contaminación inicial por lanzamientos de cohetes, el impacto ambiental resulta inferior a largo plazo. El consumo de agua para refrigeración en un centro de datos espacial equivaldría al de una estación espacial, dependiendo de radiadores de escape y reutilización de cantidades relativamente pequeñas de líquido. Los centros de datos terrestres, por contraste, consumen millones de litros diariamente.

El nudo gordiano económico: convergencia de costos hacia 2035

«La verdadera pregunta es si la idea es económicamente viable», insistió Limbach, identificando el núcleo del debate más allá de consideraciones técnicas o ambientales. Los costos de lanzamiento constituyen el factor determinante para viabilidad comercial.

Travis Beals, líder del proyecto Suncatcher de Google, elaboró proyecciones basadas en tendencias de reducción de costos: si el lanzamiento a órbita baja desciende a aproximadamente 200 dólares por kilogramo para 2035 —meta que SpaceX y otras compañías consideran alcanzable—, el costo por kilovatio de potencia en el espacio sería comparable al de centros de datos terrestres.

Históricamente, los lanzamientos espaciales costaban miles de dólares por kilogramo. La reutilización de cohetes, pionera de SpaceX, ha reducido drásticamente estos valores, transformando radicalmente la ecuación económica. Beals sugiere que hacia mediados de la década de 2030, «operar un centro de datos en el espacio podría volverse comparable» a operaciones terrestres.

Sin embargo, esta convergencia de costos asume mejoras tecnológicas sostenidas, economías de escala en fabricación satelital y ausencia de fallos catastróficos que incrementen seguros y regulaciones. «Si alguna vez hubo un momento para trazar nuevos caminos económicos en el espacio es ahora», apuntó Limbach, reconociendo la ventana de oportunidad sin garantizar su materialización.

Suncatcher: la propuesta integral de Google Research para computación orbital

Google presentó la visión más detallada hasta la fecha con Project Suncatcher, descrito internamente como un «moonshot» —término reservado para proyectos de altísimo riesgo y potencial transformador.

El diseño contempla constelaciones de satélites equipados con paneles solares, sistemas ópticos de comunicación y chips TPU formando redes compactas. Los satélites volarían en formación a distancias de apenas cientos de metros, coordinados mediante modelos de machine learning que ajustan trayectorias y evitan colisiones en tiempo real.

Los enlaces ópticos de alta velocidad (free-space optics) alcanzarían velocidades de transmisión de hasta 10 terabits por segundo, permitiendo comunicación intersatelital sin cables físicos. La NASA ya demostró velocidades de 200 gigabits por segundo con su misión TBIRD, y Google proyecta que futuras iteraciones permitirán sincronizar clústeres orbitales con infraestructura terrestre prácticamente en tiempo real.

Cada módulo sería autónomo y modular, permitiendo escalar el sistema como servidores en la nube pero distribuidos en órbita baja. La arquitectura incluye redundancia y tolerancia a fallos gestionada por software, reconociendo que el mantenimiento físico resulta imposible una vez en órbita.

Más allá de eficiencia energética, Suncatcher propone reconfiguración logística: recursos terrestres —energía, agua, espacio físico— podrían liberarse para otros usos. Una red de cómputo distribuida en órbita ofrecería redundancia global y resiliencia ante desastres naturales o ciberataques, valor estratégico para economías dependientes de servicios en la nube.

La expansión masiva en Asia-Pacífico: 240.000 millones de dólares en infraestructura terrestre

Mientras los proyectos espaciales capturan titulares, Asia-Pacífico ejecuta la mayor expansión de centros de datos convencionales de la historia, evidenciando que la industria apuesta simultáneamente por soluciones terrestres a corto y mediano plazo ante la incertidumbre orbital.

Los gigantes tecnológicos globales —Amazon, Google y Microsoft— invertirán aproximadamente 240.000 millones de dólares en los próximos cinco años para ampliar presencia en la región. Esta inyección de capital, sumada a inversiones de actores regionales, más que duplicará la capacidad de centros de datos en Asia-Pacífico, de 12 gigavatios (GW) en 2024 a más de 29 GW en 2030, según Cushman & Wakefield.

Para finales de la década, la región podría convertirse en el segundo mercado mundial de centros de datos, solo detrás de los 32 GW proyectados en América. La magnitud de estas inversiones terrestres contrasta marcadamente con los presupuestos experimentales de proyectos espaciales, revelando dónde radican las expectativas reales de la industria para satisfacer demanda inmediata.

Malasia: de la periferia regional al epicentro digital con respaldo de Nvidia

El caso malasio ilustra la velocidad de transformación regional. Enclavados en las faldas del monte Pulai en el estado de Johor, rodeados de plantaciones de aceite de palma, cuatro edificios sin ventanas emiten un zumbido constante las 24 horas del día. En su interior, superordenadores ejecutan aplicaciones de inteligencia artificial, algunos utilizando chips GB200 de Nvidia capaces de procesar 1,8 terabytes por segundo.

Estas instalaciones forman parte de una colaboración de 4.300 millones de dólares entre Nvidia y YTL Power International, unidad de servicios públicos del conglomerado YTL del magnate malasio Francis Yeoh. Ya se gastaron 2.400 millones en construir un centro de datos con capacidad de 200 MW dentro de un parque de 664 hectáreas.

«La gente decía que estábamos locos por pensar que podíamos construir en Johor el equivalente a la capacidad total de centros de datos de Singapur», recordó Yeoh Keong Hann, director ejecutivo de YTL Power y sobrino del magnate, en videollamada desde la sede del grupo en Kuala Lumpur. El momento resultó fortuito, coincidiendo con ambiciones de Malasia de convertirse en centro digital aprovechando abundante tierra, electricidad y agua en Johor.

No lejos, en el parque tecnológico Sedenak, K2 Strategic —propiedad del multimillonario Robert Kuok y dirigida por su nieto Kuok Meng Wei— planea cuadruplicar su capacidad hasta 240 MW.

«Malasia aspira a convertirse en una nación líder en IA para 2030, aprovechando la IA para impulsar la productividad, mejorar los servicios públicos y construir una economía digital sostenible, inclusiva y ética», declaró el primer ministro Anwar Ibrahim tras reunirse con Jensen Huang, director ejecutivo de Nvidia, en la cumbre de la APEC en Corea del Sur. La aspiración de superar a Singapur en capacidad de centros de datos, proyectada para concretarse en cinco años, refleja competencia regional intensificada por el auge de la IA.

India: Adani y Ambani protagonizan duelo multimillonario por supremacía digital

En India, dos de los hombres más ricos de Asia lideran apuestas multimillonarias que reconfigurarán el panorama tecnológico del subcontinente.

Adani Enterprises, empresa insignia de Gautam Adani, junto con Google de Alphabet, invertirá 15.000 millones de dólares en cinco años para desarrollar lo que describen como el mayor campus de centros de datos del país en el estado sudoriental de Andhra Pradesh.

Mukesh Ambani, el hombre más rico de India, contraataca con Reliance Industries: un centro de datos de IA de 1 GW en el estado occidental de Gujarat, desarrollando simultáneamente plataformas de IA con Google y Meta Platforms. «Estamos haciendo que todos nuestros negocios sean nativos de IA, posicionándolos para un hipercrecimiento», declaró Ambani a accionistas en agosto.

Esta rivalidad entre dos de los conglomerados más poderosos del país evidencia cómo la infraestructura de inteligencia artificial se ha convertido en terreno estratégico para líderes empresariales que históricamente dominaron sectores tradicionales como energía, telecomunicaciones y comercio minorista.

Corea del Sur y Taiwán: semiconductores e infraestructura en simbiosis industrial

Corea del Sur emergió como epicentro de inversiones a principios de año cuando el grupo SK de Chey Tae-won se asoció con Amazon Web Services para invertir 5.000 millones de dólares en un centro de datos en Ulsan, tradicional bastión de la industria automovilística al sur de Seúl.

La aplicación de mensajería Kakao de Kim Beom-Su, asociada con OpenAI, construye instalaciones por 438 millones de dólares al noreste de la capital. Samsung Electronics de Jay Y. Lee desarrolla chips de memoria para OpenAI mientras construye conjuntamente centros de datos en el país, evidenciando convergencia entre fabricación de semiconductores e infraestructura de computación.

En Taiwán, Foxconn de Terry Gou y Nvidia invierten 1.400 millones de dólares para construir un centro de datos de IA de 100 MW, profundizando la relación simbiótica entre el principal ensamblador de electrónica del mundo y el líder en procesadores especializados.

Tailandia: conglomerados tradicionales en transformación digital acelerada

Los magnates tailandeses reconfiguran sus imperios empresariales hacia infraestructura digital con velocidad sorprendente.

Central Pattana, gigante de centros comerciales controlado por el acaudalado clan Chirathivat, se asoció en 2023 con Evolution Data Centers respaldado por Warburg Pincus. Gulf Development, empresa cotizada en Bangkok del multimillonario Sarath Ratanavadi dedicado a energía y telecomunicaciones, anunció asociación con Google para construir instalaciones en la nube impulsadas por IA.

En junio, B.Grimm Power del multimillonario Harald Link se unió con Digital Edge con sede en Singapur —respaldada por la firma de capital privado Stonepeak Partners de Nueva York— para invertir mil millones de dólares en centros de datos de IA en Tailandia, comenzando por un centro de 100 MW en el corredor económico oriental en rápido crecimiento.

Indonesia: explosión bursátil y entrada masiva de conglomerados tradicionales

En agosto, el operador de centros de datos DCI Indonesia se convirtió en la segunda empresa cotizada más valiosa del archipiélago, con capitalización bursátil superior a 37.000 millones de dólares. Su salida a bolsa en 2021 creó multimillonarios: sus cofundadores Otto Toto Sugiri, Marina Budiman y Han Arming Hanafia.

Sugiri, cuya empresa también cuenta con el magnate Anthoni Salim como accionista, planea multiplicar por más de diez la capacidad actual de 119 MW en el área metropolitana de Yakarta a 1,9 GW, incluyendo un nuevo centro a hiperescala en la isla de Bintan, a una hora en ferry desde Singapur.

El éxito de DCI atrajo a conglomerados tradicionales. Sinar Mas Group del magnate Franky Widjaja se asoció con K2 Strategic de Kuok para desarrollar centros de datos cerca de instalaciones de Amazon Web Services y Microsoft en Yakarta. El grupo Triputra del magnate minero Theodore Rachmat, asociado con ST Telemedia Global Data Centres vinculada al Estado de Singapur, estableció su primer centro cerca de la capital con planes de expansión nacional.

China y Japón: expansión global desde posiciones dominantes

China, que ya construyó la mayor capacidad regional, impulsa expansión internacional agresiva. Alibaba de Jack Ma invierte aproximadamente 53.000 millones de dólares para ampliar infraestructura de computación en la nube en Asia, Europa y Sudamérica. Tencent de Ma Huateng, que opera 55 centros de datos en 21 mercados, construye nuevas instalaciones en Japón e Indonesia.

SoftBank del multimillonario japonés Masayoshi Son convierte la antigua fábrica de LCD de Sharp en Osaka en un centro de datos de 400 MW por unos 6.000 millones de dólares. Además, se comprometió este año a invertir en el proyecto Stargate de OpenAI, valorado en 500.000 millones de dólares en Estados Unidos, demostrando apuesta simultánea por infraestructura nacional e internacional.

Transacciones multimillonarias y consolidación acelerada del sector

El potencial del sector desencadenó oleada de adquisiciones récord. En la mayor transacción regional hasta la fecha, un consorcio liderado por Blackstone pagó el año pasado 16.000 millones de dólares por AirTrunk, empresa australiana de centros de datos con más de un GW de capacidad instalada en 13 instalaciones.

Robin Khuda, fundador y director ejecutivo de AirTrunk, reveló por correo electrónico planes para más que duplicar capacidad para 2030, evidenciando que incluso tras adquisiciones multimillonarias, los planes de expansión se aceleran en lugar de moderarse.

El auge disparó valoraciones bursátiles de operadores de centros de datos en la región, generando interrogantes sobre posible burbuja especulativa reminiscente de ciclos tecnológicos previos.

La brecha energética crítica: demanda supera capacidad de energía verde

La expansión acelerada enfrenta una limitación física fundamental que amenaza la viabilidad del crecimiento proyectado. Los centros de datos consumen recursos masivos de electricidad y agua, ejerciendo presión sobre infraestructuras existentes que en muchos casos ya operan cerca de su capacidad máxima.

Mientras algunos constructores como YTL invierten en energía solar para alimentar instalaciones, y otros exploran alternativas radicales —Samsung Electronics recientemente se asoció con OpenAI para desarrollar centros de datos flotantes en el mar—, un informe de PwC estima que para 2030, la energía verde podrá satisfacer, en el mejor escenario, menos de un tercio del aumento de demanda eléctrica.

«La brecha es significativa, y cerrarla es fundamental», concluye el análisis de PwC, identificando el cuello de botella principal para expansión sostenible.

Algunos analistas cuestionan si el ritmo de construcción anticipa demanda real o configura una burbuja. Sin embargo, Jitesh Karlekar, director de investigación de centros de datos para Asia-Pacífico en JLL, argumenta que con el salto cuántico de aplicaciones de IA en sectores críticos como sanidad, educación y defensa, «por ahora, el sector se enfrenta a posibles restricciones de suministro» más que a exceso de oferta.

La paradoja de la eficiencia: mejoras técnicas anuladas por crecimiento exponencial

Los grandes modelos de lenguaje, visión e inteligencia generativa requieren potencia de cómputo creciente. Aunque la eficiencia de sistemas ha mejorado significativamente —Google reportó que el consumo de energía por consulta en modelos Gemini se redujo 33 veces en un año—, el uso global de estas herramientas crece todavía más rápido.

Esta paradoja define el desafío fundamental: las mejoras de eficiencia quedan anuladas por el crecimiento exponencial de usuarios y aplicaciones. Un modelo puede consumir menos energía por operación, pero si las operaciones totales se multiplican por cientos, el consumo agregado aumenta inexorablemente.

Esta realidad explica por qué soluciones tanto terrestres como orbitales permanecen sobre la mesa simultáneamente: ninguna mejora incremental en eficiencia energética será suficiente para satisfacer la trayectoria de crecimiento proyectada sin expansión radical de capacidad.

Dos estrategias paralelas ante un mismo dilema infraestructural

La industria tecnológica ejecuta simultáneamente dos estrategias aparentemente contradictorias pero fundamentalmente complementarias. Por un lado, inversión masiva en centros de datos terrestres para satisfacer demanda inmediata y de mediano plazo. Por otro, experimentación con infraestructura orbital como solución potencial para décadas venideras.

Los 240.000 millones de dólares comprometidos en Asia-Pacífico para infraestructura convencional contrastan con las inversiones relativamente modestas en proyectos espaciales, aún en fase experimental. Esta asimetría refleja horizontes temporales distintos: certeza económica a corto plazo versus posibilidad disruptiva a largo plazo.

La pregunta subyacente trasciende viabilidad técnica o económica individual de cada enfoque. Se trata de determinar si la demanda energética de la inteligencia artificial puede satisfacerse dentro de los límites físicos y ambientales terrestres, o si la escala requerida eventualmente obligará a trascender esos límites.

Los centros de datos espaciales, con todos sus obstáculos técnicos y dudas económicas, representan una apuesta por ampliar esos límites. Los 29 GW proyectados en Asia-Pacífico para 2030 constituyen una apuesta por optimizar recursos actuales. Ambas estrategias parten de un reconocimiento común: la infraestructura existente resulta fundamentalmente insuficiente para soportar la próxima fase de desarrollo de la inteligencia artificial.

El desenlace de esta dualidad estratégica determinará no solo dónde se procesa la información del futuro, sino qué forma tomará la economía digital de las próximas décadas y si el crecimiento tecnológico podrá reconciliarse con restricciones energéticas y ambientales planetarias.