La carrera por la inteligencia artificial ha dado un salto espectacular fuera de nuestro planeta. Por primera vez, una inteligencia artificial avanzada ha sido entrenada y ejecutada en órbita terrestre baja, marcando un hito tecnológico que reconfigura nuestra visión de dónde y cómo puede operar la IA.. El logro viene de la startup estadounidense Starcloud, respaldada por Nvidia, que lanzó en noviembre de 2025 el satélite Starcloud-1 equipado con un potente procesador gráfico Nvidia H100, un chip de alto rendimiento diseñado originalmente para centros de datos en tierra. Es la primera vez que un GPU de este tipo funciona completamente en el espacio y se usa para entrenar y ejecutar modelos de lenguaje de gran escala directamente desde órbita.. Según la propia empresa, en el satélite se ha logrado algo que hasta hace poco parecía imposible: ejecutar Google Gemma, un modelo de lenguaje abierto, y entrenar una versión de NanoGPT utilizando las obras completas de Shakespeare. Los resultados no solo fueron exitosos, sino curiosamente anecdóticos: el modelo orbital lanzó mensajes como “¡Saludos, terrícolas! … Soy Gemma y estoy aquí para observar, analizar y, quizás, ocasionalmente, ofrecer algún comentario un poco inquietante y perspicaz” subrayando que este experimento no es una mera demostración técnica, sino un paso real hacia sistemas inteligentes que pueden operar lejos de la Tierra.. La pregunta lógica es ¿por qué entrenar IA en el espacio? La idea puede sonar extravagante, pero tiene bases sólidas: los centros de datos terrestres consumen enormes cantidades de energía, requieren complejos sistemas de refrigeración y generan emisiones significativas. En contraposición, el espacio ofrece dos ventajas naturales únicas: un abastecimiento constante de energía solar y refrigeración natural.. Starcloud y otras empresas del sector sostienen que estos factores podrían permitir que los centros de datos orbitales sean energéticamente más eficientes y menos costosos de operar que los de la Tierra. En palabras del CEO de Starcloud, Philip Johnston, la idea es que “cualquier cosa que puedas hacer en un centro de datos terrestre, espero poder hacerlo en el espacio”, y que trasladar la computación fuera del planeta es una respuesta directa a las limitaciones actuales de energía y refrigeración.. En términos prácticos, entrenar una IA en el espacio implica colocar hardware de alto rendimiento en un satélite y programar ese hardware para procesar datos y ajustar parámetros de un modelo sin necesidad de enviar toda esa información de vuelta a la Tierra. Hasta ahora, los satélites han enviado datos crudos (por ejemplo, imágenes o mediciones científicas) a estaciones, donde se procesaban. Este avance invierte parcialmente ese paradigma: el procesamiento y entrenamiento ocurre directamente en órbita.. El ensayo utilizó el GPU H100 (100 veces más potente que cualquier chip anterior enviado a órbita) para completar entrenamientos, ejecutar inferencias y probar capacidades de IA sin intervención humana directa desde tierra, lo que abre la puerta a un tipo de computación distribuida sin precedentes.. El proyecto de Starcloud no se queda en una demostración aislada. La empresa planea construir un centro de datos orbital de 5 gigavatios alimentado por paneles solares de gran superficie, capaz de operar con costos energéticos sustancialmente menores que los actuales centros terrestres.. Otros gigantes tecnológicos ya están explorando ideas similares: Google ha puesto en marcha un proyecto llamado Project Suncatcher, que busca llevar unidades de procesamiento tensorial propias al espacio, mientras que SpaceX, según informes, considera adaptar su constelación Starlink para albergar infraestructura de centros de datos en órbita.. Además, proyectos en otros países (como una constelación de supercomputación en órbita impulsada desde China con capacidad de petaflops de procesamiento directamente en el espacio) muestran que la idea de computación orbital no es efímera, sino una dirección estratégica de largo plazo en la ciencia y la industria.. El entrenamiento de IA en el espacio redefine quién y cómo se procesarán los datos a gran escala en el futuro. Podría aliviar la presión sobre las infraestructuras terrestres (hoy saturadas por la demanda de IA) y reducir el impacto medioambiental de centros de datos gigantescos. Pero también plantea nuevas preguntas sobre regulación, seguridad de datos fuera del alcance de un único país, y cómo gestionar una red de cómputo global que no está anclada en la superficie terrestre.. Lo que hace apenas unos años era un sueño técnico se ha convertido en una realidad operacional: la IA que aprende y trabaja en el espacio. Es un cambio de paradigma que nos hace replantear no solo cómo construimos inteligencia artificial, si no dónde puede residir y evolucionar en las próximas décadas.
Las ventajas de este tipo de iniciativas son numerosas y la IA podría, en el futuro, ser una tecnología que solo se procesa en el espacio.
La carrera por la inteligencia artificial ha dado un salto espectacular fuera de nuestro planeta. Por primera vez, una inteligencia artificial avanzada ha sido entrenada y ejecutada en órbita terrestre baja, marcando un hito tecnológico que reconfigura nuestra visión de dónde y cómo puede operar la IA.. El logro viene de la startup estadounidense Starcloud, respaldada por Nvidia, que lanzó en noviembre de 2025 el satélite Starcloud-1 equipado con un potente procesador gráfico Nvidia H100, un chip de alto rendimiento diseñado originalmente para centros de datos en tierra. Es la primera vez que un GPU de este tipo funciona completamente en el espacio y se usa para entrenar y ejecutar modelos de lenguaje de gran escala directamente desde órbita.. Según la propia empresa, en el satélite se ha logrado algo que hasta hace poco parecía imposible: ejecutar Google Gemma, un modelo de lenguaje abierto, y entrenar una versión de NanoGPT utilizando las obras completas de Shakespeare. Los resultados no solo fueron exitosos, sino curiosamente anecdóticos: el modelo orbital lanzó mensajes como “¡Saludos, terrícolas! … Soy Gemma y estoy aquí para observar, analizar y, quizás, ocasionalmente, ofrecer algún comentario un poco inquietante y perspicaz” subrayando que este experimento no es una mera demostración técnica, sino un paso real hacia sistemas inteligentes que pueden operar lejos de la Tierra.. La pregunta lógica es ¿por qué entrenar IA en el espacio? La idea puede sonar extravagante, pero tiene bases sólidas: los centros de datos terrestres consumen enormes cantidades de energía, requieren complejos sistemas de refrigeración y generan emisiones significativas. En contraposición, el espacio ofrece dos ventajas naturales únicas: un abastecimiento constante de energía solar y refrigeración natural.. Starcloud y otras empresas del sector sostienen que estos factores podrían permitir que los centros de datos orbitales sean energéticamente más eficientes y menos costosos de operar que los de la Tierra. En palabras del CEO de Starcloud, Philip Johnston, la idea es que “cualquier cosa que puedas hacer en un centro de datos terrestre, espero poder hacerlo en el espacio”, y que trasladar la computación fuera del planeta es una respuesta directa a las limitaciones actuales de energía y refrigeración.. En términos prácticos, entrenar una IA en el espacio implica colocar hardware de alto rendimiento en un satélite y programar ese hardware para procesar datos y ajustar parámetros de un modelo sin necesidad de enviar toda esa información de vuelta a la Tierra. Hasta ahora, los satélites han enviado datos crudos (por ejemplo, imágenes o mediciones científicas) a estaciones, donde se procesaban. Este avance invierte parcialmente ese paradigma: el procesamiento y entrenamiento ocurre directamente en órbita.. El ensayo utilizó el GPU H100 (100 veces más potente que cualquier chip anterior enviado a órbita) para completar entrenamientos, ejecutar inferencias y probar capacidades de IA sin intervención humana directa desde tierra, lo que abre la puerta a un tipo de computación distribuida sin precedentes.. El proyecto de Starcloud no se queda en una demostración aislada. La empresa planea construir un centro de datos orbital de 5 gigavatios alimentado por paneles solares de gran superficie, capaz de operar con costos energéticos sustancialmente menores que los actuales centros terrestres.. Otros gigantes tecnológicos ya están explorando ideas similares: Google ha puesto en marcha un proyecto llamado Project Suncatcher, que busca llevar unidades de procesamiento tensorial propias al espacio, mientras que SpaceX, según informes, considera adaptar su constelación Starlink para albergar infraestructura de centros de datos en órbita.. Además, proyectos en otros países (como una constelación de supercomputación en órbita impulsada desde China con capacidad de petaflops de procesamiento directamente en el espacio) muestran que la idea de computación orbital no es efímera, sino una dirección estratégica de largo plazo en la ciencia y la industria.. El entrenamiento de IA en el espacio redefine quién y cómo se procesarán los datos a gran escala en el futuro. Podría aliviar la presión sobre las infraestructuras terrestres (hoy saturadas por la demanda de IA) y reducir el impacto medioambiental de centros de datos gigantescos. Pero también plantea nuevas preguntas sobre regulación, seguridad de datos fuera del alcance de un único país, y cómo gestionar una red de cómputo global que no está anclada en la superficie terrestre.. Lo que hace apenas unos años era un sueño técnico se ha convertido en una realidad operacional:la IA que aprende y trabaja en el espacio. Es un cambio de paradigma que nos hace replantear no solo cómo construimos inteligencia artificial, si no dónde puede residir y evolucionar en las próximas décadas.
Noticias de Tecnología y Videojuegos en La Razón
