Phoenix, un tributo

lunes, 14 de abril de 2014

Las Próximas Misiones a Marte: MOM

Antes que nada, disculparnos. Disculparnos porque hemos empezado a conocer muy recientemente la astronáutica hindú por lo que sabemos de ella es bastante limitado. Varias cosas sí sabemos. Por ejemplo, sabemos que en 1963 abrieron una instalación de lanzamiento de cohetes de sondeo atmosférico, y a partir de la experiencia obtenida (propia y ajena) se dieron cuenta que la mejor manera era hacerlo desde el espacio. Por ello el ISRO, la Organización de Investigación Espacial de la India, diseñó su primer satélite, llamado Aryabhata, dedicado a astronomía de rayos X y aeronomía, y lanzado por su asociada la Unión Soviética en 1975. Este satélite no tuvo fortuna, pero demostró la capacidad técnica y científica hindú. Además de diseñar y construir más satélites, decidieron comenzar a desarrollar cohetes propios para lanzar sus satélites. A medida que iban ganando experiencia establecieron instalaciones de investigación tanto tecnológica como científica. Pronto ISRO se convirtió en una agencia especializada en misiones de observación terrestre y satélites de comunicaciones, y solo les faltaba tener un lanzador propio, cumpliéndose el sueño el 20 de septiembre de 1993. Aunque la misión fracasó, las lecciones aprendidas fueron enriquecedoras y, salvo un fallo parcial, el primer lanzador hindú tiene un registro de éxitos formidable: de 25 lanzamientos, 23 éxitos hasta la fecha. Los primeros éxitos de este cohete provocó que ISRO tomara dos decisiones: ofrecerlo al mercado mundial de lanzadores, y acometer su primera misión de
espacio profundo. El resultado fue la célebre misión lunar Chandrayaan-1. Lanzada el 22 de octubre del 2009, fue la última de las tres misiones asiáticas a la Luna, y cargaba con cinco investigaciones científicas indígenas (TMC, HySI, LLRI, HEX y MIP) acompañadas por seis extranjeras (M3 y Mini-SAR de la NASA, C1XS, SIR-2 y SARA de la ESA y RADOM de la Academia de Ciencias Búlgara). Entró en la órbita lunar el 8 de noviembre de ese año, y tenía por delante una misión primaria de dos años, pero después de 312 días en el espacio enmudeció. Una deficiente protección termal había acabado con el hardware de Chandrayaan-1, pero en el intervalo proporcionó información nueva sobre la Luna, siendo sin duda lo más relevante la detección directa de vapor de agua en el entorno lunar. Con las lecciones anotadas, comenzaron a realizar estudios para una posible misión a Marte. Después de finalizar el estudio, las autoridades del país apoyaron entusiásticamente el proyecto y fue autorizado el 3 de agosto del 2012. Lo que sonaba como rumor se convirtió en realidad.

La intención de ISRO era lanzar su misión marciana en la primera oportunidad disponible, y como habréis visto, apenas tuvieron un año y tres meses desde la autorización y el lanzamiento. Muchos (un servidor incluido) dudaban que fueran capaces de cumplir un calendario tan apretado, por lo que aseguraban que tendrían que esperar hasta la ventana marciana del 2016. Pues dando una bofetada en la boca de todos los que dudaban, la nave espacial fue acabada y lanzada a tiempo.

Todo el mundo, tras la noticia de la autorización, comenzó a llamar este proyecto como Mangalyaan, o Nave Marciana en sánscrito, y ahí tampoco acertaron. La sonda recibe el anodino acrónimo de MOM, Misión del Orbitador Marciano. Hay que decir que del proyecto a lo que realmente se ha colocado en el espacio ha habido varias diferencias. La principal es el lanzador. Para esta misión ISRO pretendía usar su segundo, más moderno y potente lanzador GSLV, sin embargo este lanzador tuvo que ser quitado del calendario de lanzamientos por los repetidos fallos, en especial el penúltimo, en el que usaba por primera vez una etapa superior criogénica totalmente diseñada y construida en la India (las anteriores eran de diseño ruso). A modo de detalle, este lanzador ha vuelto al servicio, y esta vez esta etapa criogénica indígena cumplió su papel con nota alta. A causa de perder el GSLV, el único en ser capaz de colocar un vehículo espacial en ruta de escape terrestre, tuvieron que recurrir al menos potente pero más fiable PSLV. Esto provocó que la sonda perdiera instrumentación científica y ganara combustible, teniendo que cumplir un plan de vuelo similar al seguido por Chandrayaan-1 para llegar a la Luna.

La clave de la rapidez de la construcción de MOM ha sido la disponibilidad de piezas de repuesto de otros proyectos, tanto de satélites terrestres como de la nave lunar. Su estructura es una estructura cúbica de aproximadamente 1.5 metros de lado elaborada en aluminio y materiales compuestos, y se basa en el bus I-1 K usado en satélites geoestacionarios y en Chandrayaan-1, y de él nacen dos apéndices en lados opuestos de la estructura. La infraestructura informática es la básica usada en sus muchos proyectos centralizada en un procesador MAR31750, una variante del 1750A usado en Mars Global Surveyor y Mars Express, y dispone de dos grabadores de datos con capacidad de 16 gigabits de información cada uno. Está estabilizado en sus tres ejes, empleando en su orientación una unidad de referencia inercial con acelerómetros y giróscopos, dos escáneres estelares, un grupo de sensores solares (uno en el panel solar y 9 en la estructura) y ruedas de reacción. La propulsión se basa en sistemas también masivamente usados en proyectos anteriores. El motor principal recibe el nombre de LAM, Motor Líquido de Apogeo, y entrega potencia suficiente para la inserción en órbita marciana. Para esta misión ha sido modificado para poder encenderse después de casi un año de viaje. En cuanto a los propulsores de maniobra, cuenta con ocho de menor potencia que complementarán a las ruedas de reacción y proporcionarán el cambio de velocidad y rumbo durante las maniobras de corrección camino de Marte. Su sistema de comunicaciones resulta ser un sistema muy sencillo: un transmisor-receptor de banda-S (ISRO tiene capacidad de banda-X, como demostró Chandrayaan-1), que ha sido montado más por llegar a la fecha de lanzamiento que por carecer de sistemas más
potentes. Este sistema está conectado a una antena de baja ganancia, una antena de media ganancia, y a una antena de alta ganancia de 2.2 metros fija sobre la estructura. Este sistema permite que, en los momentos óptimos de alineamiento entre la Tierra y Marte, el ratio de transmisión de datos sea de 40 kbps., poco comparado con los hasta 6 Mbps. de MRO.  En el lado opuesto se encuentra el único panel solar de MOM. Mide 1.8 x 1.4 metros, rota sobre un eje y dispone de tres secciones, alimentando una batería de ion-litio. En cuanto a la protección termal, está compuesta por mantas multicapa, calentadores eléctricos y radiadores. Su instrumentación está compuesta por cinco experimentos científicos indígenas. Su sistema de televisión recibe el nombre de MCC, Cámara a Color de Marte. Se trata de un sistema muy ligero (apenas 1.27 kg.) equipado con un sistema CCD y un filtro Bayer para hacer imágenes a todo color de la superficie marciana. Básicamente es un instrumento de campo medio capaz de obtener secuencias del planeta con una resolución máxima de 25 metros, mientras que en el apogeo es capaz de observar todo el globo marciano. Entre sus objetivos también está el adquirir imágenes de las dos lunas marcianas a distintas resoluciones, monitorización atmosférica, así como contexto para los otros instrumentos. Equipa un experimento para estudios mineralógicos llamado TIS, Espectrómetro de Imágenes de infrarrojo Termal. Este instrumento, la verdad, hará el mismo trabajo que han hecho los sistemas TES de
Mars Global Surveyor y THEMIS de Mars Odyssey: la cartografía de la superficie marciana, así como de las lunas marcianas, en infrarrojo termal, tanto en luz diurna como en la oscuridad. Lo interesante de TIS es que recurre a una tecnología de detectores que no necesita refrigeración activa, lo que simplifica enormemente su operación. Otros dos experimentos tienen como labor examinar la atmósfera. LAP, Fotómetro Lyman-Alpha se trata de un sistema basado en una célula de absorción enganchado a un tubo fotomultiplicador. Escaneando a través de la importante línea de absorción ultravioleta situada a 121.6 nanómetros, la sensible al hidrógeno, pretende estudiar la relativa abundancia de hidrógeno e hidrógeno pesado (también conocido como deuterio) en la atmósfera de Marte, así como averiguar el ratio de deuterio a hidrógeno como indicador del agua perdida a lo largo de la historia del planeta. Este es el segundo instrumento de este tipo enviado al planeta rojo después del colocado en la sonda soviética Mars 5. MSM, Sensor de Metano para Marte, supone
una interesante primicia en la exploración de nuestro vecino. Su propósito es confirmar o descartar el descubrimiento realizado por Mars Express: que existe una pequeñísima, pero detectable, cantidad de metano en la atmósfera marciana. Si este instrumento infrarrojo lo detecta, será capaz de calcular la abundancia con una exactitud de partes por billón y cartografiar sus fuentes. Por ello se adelanta a la exclusiva misión ExoMars TGO de ESA/Roscosmos (prevista para su lanzamiento a principios del 2016) en cuanto a la búsqueda de este gas importante tanto para la biología como para la geología. El último es MENCA, Analizador de Composición Neutral de la Exosfera Marciana, es un espectrómetro de masa cuádruple con la misión de descubrir la composición y relativa abundancia de gases neutrales en la exosfera marciana. Resulta similar en estructura y objetivos al NGIMS de MAVEN, y harán ciencia correlacionada ya en órbita. Con la carga de combustible y lista para el lanzamiento, MOM declaraba una masa de 1340 kg.

Su lanzamiento se programó para el 28 de octubre del 2013, pero se pospuso al 5 de noviembre para dar tiempo a los buques equipados con instrumentación de seguimiento a colocarse en sus puestos en el Océano Pacífico. El lanzador fue el PSLV-XL, la variante más potente de este tipo,
cuyo primer vuelo había sido el de Chandrayaan-1. La fecha se cumplió, y el cohete se elevó estupendamente, y aunque las tres primeras etapas proporcionaron algo más de energía de la prevista, la cuarta etapa entregó MOM en la trayectoria geocéntrica prevista. El PSLV es el primer lanzador desarrollado y producido por la India, y alterna etapas sólidas y líquidas, siendo la primera una de las mayores etapas de cohete de combustible sólido del mundo. Además de las cuatro etapas (habitual en los PSLV) porta seis aceleradores de combustible sólido. Todos los lanzamientos realizados usando tanto el PSLV como el GSLV se hacen desde el Centro Espacial Satish Dhawan, ubicado en la isla de Sriharikota.

El objetivo del lanzamiento era colocar a MOM en órbita de transferencia geoestacionaria, a partir de la cual emplearía su motor principal en el perigeo para ir aumentando progresivamente su apogeo. Estaban previstos cinco encendidos para modificar su apogeo de casi 24.000 km. sobre la Tierra a unos 200.000 km. Las tres primeras maniobras (días 6, 7 y 8) se completaron sin problemas. La cuarta, el día 10, fue más corta de lo proyectado. En aquellos momentos estaban probando los sistemas redundantes del motor LAM y parece que la configuración en la que se encontraba no era aceptable para el ordenador de a bordo, que canceló la maniobra. Tras reconfigurar los sistemas de control de acuerdo con la experiencia obtenida, se tuvo que realizar una maniobra suplementaria (día 12) que proporcionó el resto del cambio de trayectoria deseado. Después, el 15, llegó la última maniobra que la colocó en el apogeo buscado, y allí se quedó dos semanas hasta que la alineación planetaria fuera óptima. Ese tiempo lo dedicó a la
prueba del resto de sistemas de a bordo, incluyendo su instrumental científico, y de esas pruebas tenemos la única imagen realizada por la sonda que ha sido publicada hasta ahora, mostrando de lo que será capaz una vez en Marte. Llegado el 30 de noviembre, el motor LAM se encendió una última vez para iniciar la trayectoria marciana, maniobra completada con enorme éxito.

No hace falta decir que MOM es el vehículo hindú que más lejos ha ido de la Tierra, y en su camino hacia Marte ya ha realizado una maniobra de corrección de rumbo (11 de diciembre). Le esperan tres más, una este mes, otra en agosto y una última a pocos días de
entrar en órbita. De momento el viaje de crucero está siendo bastante tranquilo, con poca información acerca de sus actividades, aunque bueno, pocas o ninguna noticia suelen ser buenas noticias. Si todo va bien, MOM entrará en órbita marciana el 24 de septiembre, dos días después de MAVEN. La órbita escogida para el orbitador hindú será elíptica, con un perigeo de 365 km. y un apogeo de 80.000 km., inclinada sobre el ecuador del planeta 150º. Si lo consigue será la cuarta organización astronáutica en lograrlo (recordemos que el Japón lo intentó con Nozomi y China con Yinghuo-1).

Los objetivos de esta misión, como los de su proyecto lunar, son eminentemente tecnológicos. ISRO quiere probar su capacidad de diseñar y construir un orbitador marciano capaz de sobrevivir a un largo viaje de crucero de más de 300 días, ejecutar su inserción orbital y operar en órbita marciana, su capacidad de seguimiento de una sonda de
espacio profundo con instalaciones propias (ISTRAC), de navegar una sonda de la Tierra a Marte, y de planificar y dirigir sus operaciones. Aunque la más importante será la de probar características autónomas para manejar situaciones de contingencia, en esencia un software capaz de responder ante cualquier problema sucedido a bordo sin asistencia de los ingenieros en la sala de control debido al gran retraso en el tiempo de viaje ida y vuelta de las comunicaciones, que puede ser de un máximo de 42 minutos. Los objetivos científicos no son tan específicos: en esencia estudiar la geografía, morfología, topografía, mineralogía y la atmósfera marciana con instrumentos desarrollados en instituciones hindúes.

No queremos ser gafes, pero esta situación (emplear componentes preparados para órbita terrestre para una sonda de espacio profundo) nos recuerda a lo acaecido en las cercanías de Marte en agosto de 1993. Sí, nos referimos a Mars Observer. La primera misión marciana de la NASA después de Viking usó en su mayoría mucha tecnología usada en satélites de observación terrestres, y se afirmaba que este empleo en un proyecto de espacio profundo provocaría un ahorro de costes (que no se produjo, por cierto) que haría las misiones más allá del sistema Tierra-Luna una alternativa barata. El caso es que una válvula se rompió en pleno proceso de presurización del sistema de combustible, un procedimiento normal antes de encender un motor para cualquier tipo de maniobra, que se hacía con el transmisor apagado. Debido a ello, nunca volvimos a saber de ella, y ahora es un derrelicto flotante en órbita solar. Como hemos dicho, gran parte del hardware de MOM es adaptado del usado en satélites terrestres, incluyendo el importante motor principal LAM. Aunque es capaz de un tiempo de servicio de más de 11.000 segundos, nunca ha sido sometido a una prueba tan dura. Para garantizar su funcionamiento han añadido toda una serie de sistemas no solo por duplicado, sino que por triplicado, incluyendo toda una serie de válvulas que se pretenden usar para la inserción orbital. No decimos que vaya a ocurrir, decimos que el precedente está todavía muy cercano. Desde aquí le mandamos a MOM toda la suerte que tengamos por aquí.

Nos imaginamos lo que estáis pensando: ¿cómo es posible que la India tenga un programa espacial? Este no es el lugar para hablar o debatir de esas cosas. Este es un lugar en el que hablar de astronomía y astronáutica, y no nos importa de donde venga, siempre es bienvenida. Y si MOM llega a Marte con éxito, lo aplaudiremos y lo remojaremos sin dudar.

¿Por qué redactar esto ahora y no antes del lanzamiento? Bueno, si miras al cielo, es posible que encuentres un punto rojo prominente en el cielo. Eso significa que este mes Marte está en oposición, por lo que la distancia entre nosotros y el planeta rojo es mínima. Si tenéis un telescopio a vuestro alcance, no perdáis oportunidad.

martes, 25 de marzo de 2014

Misión al planeta Tierra: Sentinel-1A

El programa más importante de la ESA es el del estudio del sistema terrestre. Usando sus enormes satélites ERS y Envisat los científicos europeos observaban de una vez casi todos los componentes de la Tierra. El defecto es que éstos eran caros de fabricar y operar, máquinas muy complejas con una enorme cantidad de instrumentos que resultaba difícil de realizar estudios coordinados. A pesar de esto, eran de los integrantes más importantes de los existentes. Hacia el final de la década del 2000, la agencia quería mantener los mismos servicios que ofrecía Envisat a un coste menor, por lo que decidió esparcir el equipo científico en plataformas distintas. La pérdida de Envisat en abril del 2012 ha obligado a acelerar el nuevo programa.

Ciertamente, el programa Sentinel tiene los mismos objetivos que la generación anterior, aunque implica cinco proyectos distintos. El que ahora nos interesa recibe el obvio nombre de Sentinel-1, y su misión primaria es el de ofrecer la máxima continuidad posible en cuanto a datos tomados mediante sistemas de radar de apertura sintética. En las anteriores misiones sistemas similares permitían realizar imágenes de la Tierra sin importar las condiciones meteorológicas o la hora del día en que se realicen. Se ha probado que esta información es tremendamente útil para muchos usos, y ciertamente ofrecer cierta continuidad en la recogida de información usando este sistema se pueden realizar estudios similares a los conseguidos a partir de las imágenes de los Landsat.

El que está a punto de ser lanzado es el Sentinel-1A, lo que implica en un futuro cercano el lanzamiento de una segunda unidad idéntica. Todo el satélite se centra en su sistema de radar, y como todos los vehículos que tienen instrumentos exclusivos, está preparado para mantener siempre apuntada la antena directamente hacia la superficie. Su estructura se basa en la plataforma italiana PRIMA (Plataforma Italiana de Multi-Aplicaciones), ya utilizada en otras misiones de imágenes por radar (la canadiense RadarSat-2 y la italiana Cosmo-SkyMed) y completamente ensamblado es un rectángulo de aluminio de 3.9 x 2.6 x 2.5 metros, con pocos apéndices naciendo de la estructura. En su interior se encuentran casi todos los sistemas clave (computación mediante un procesador ERC-32, incluyendo un almacenador de 1410 gigabits; orientación, formado por una unidad de referencia inercial, sensores solares, escáneres estelares, receptores GPS, ruedas de reacción y magnetómetros, proporcionando una estabilidad de actitud en sus tres ejes inmejorable; comunicaciones, usando transmisores/receptores de banda-S y un transmisor de alta potencia de banda-X, complementado por el OCP, el Equipo de Comunicaciones óptico, un sistema capaz de emitir y recibir información a través de transmisiones por láser usando como intermediarios los satélites de telecomunicaciones de órbita geoestacionaria como Alphasat; control termal), mientras que la alimentación proviene de dos paneles solares casi paralelos de cinco secciones y 10 metros de largo cada uno, almacenando su energía en las baterías de a bordo. También carga el sistema de propulsión para mantenimiento orbital, y carga aproximadamente 130 kg. de combustible de hidracina. También en el exterior se encuentra la antena de alta ganancia y las
de baja ganancia conectadas al sistema de comunicaciones. Su instrumento científico, el CSAR, Radar de Apertura Sintética de banda-C, es un elemento que usa tecnología de desarrollo similar conectado a una pequeña antena de apenas 12.3 metros de largo y 0.86 de ancho. Usando programación informática, es capaz de simular una antena muchísimo mayor (incapaz de ser montada por lo tanto en un satélite) con la cual poder hacer imágenes de la superficie terrestre. Está preparado para conseguir una resolución de hasta 5 metros, usando cuatro métodos de operación: el primario (mapa de tiras) consigue un ancho de escaneo de 80 km, el segundo (escaneo ancho interferométrico) observando zonas de 250 km., el tercero (extra ancho) con hasta 400 km., y por último (modo de ondas), variando el ángulo de incidencia para conseguir escaneos de 100 km. de ancho conectando secciones de 20 km. A plena carga en el momento del lanzamiento desplaza una masa de 2300 kg.

Será elevado desde Kourou, desde la sección rusa usando un cohete Soyuz el 3 de abril del
2014. Si todo transcurre sin novedad, Sentinel-1A se encontrará en una órbita casi polar (nodo ascendente a las 18 horas), sincrónica solar a 693 km. de altitud, desde donde es capaz de cubrir la Tierra entera en 12 días. Su misión primaria se espera que dure siete años.

Los SAR son enormemente útiles porque pueden recoger información para configurar una imagen de la superficie sin importar la hora del día o las condiciones meteorológicas. De esta manera, este sistema es tremendamente útil para monitorizar las zonas oceánicas cubiertas de hielo, puede completar reconocimientos del entorno marítimo (ideal para detectar vertidos de petróleo), observar zonas de tierra firme con riesgo de desplazamiento, cartografiar las superficies terrestres para formar mapas de extensión de bosques, masas de agua, o extensiones agriculturales, y la observación de regiones en apoyo a la ayuda humanitaria en zonas en crisis. Al igual que las imágenes de la galería Landsat, tienen múltiples aplicaciones, con la ventaja ya contada de que es insensible a lo que ocurra bajo él.

Estas misiones no solo son importantes para la ESA, sino que también para la comunidad científica mundial de gran parte de las disciplinas. Debido a que los sistemas visuales son incapaces de traspasar las nubes, el uso de radares para la realización de secuencias es un gran complemento a los satélites existentes. Y suerte.

viernes, 28 de febrero de 2014

martes, 25 de febrero de 2014

Aventureras del sistema solar: Helios 1 y 2

Alguna vez hemos tenido la tentación de observar al Sol directamente, pero inmediatamente desechamos esa idea de nuestra cabeza. Ya hemos tenido suficientes problemas con los ojos como para generar otros nuevos y, probablemente, incorregibles. Sin embargo, cuando un científico se acerca a un ingeniero y le dice: “Quiero una sonda para ir lo más cerca posible a nuestra estrella”, el segundo respondería: “No hay problema”. Entonces el científico le diría: “¡Ah!, que son dos las que quiero”, provocando posiblemente la siguiente pregunta: “¿Para cuándo?”. Y es que en estas cuestiones no parece haber fronteras.

Todo comenzó con una reunión de alto nivel entre el entonces Presidente de los Estados Unidos Lyndon B. Johnson y el Canciller de la República Federal de Alemania de aquellos días, Ludwig Erhard, celebrada en septiembre de 1966. Entre los puntos del día discutidos, el dirigente alemán le expresó el deseo de los ingenieros y científicos de su país de obtener la experiencia necesaria para poder realizar sus propios programas espaciales, y naturalmente no había mejor a quién acudir que la NASA. La propuesta era la de realizar un proyecto conjunto, así como cumplir los mandatos ordenados a la agencia americana de colaborar con países extranjeros para diversificar el esfuerzo de investigación. Tras la aceptación formal, inmediatamente se empezaron a reunir miembros de la NASA con los futuros especialistas alemanes para tratar de acordar los objetivos de la misión. No fue hasta junio de 1969 cuando el proyecto quedó completamente definido, tras la publicación de un memorándum, en el que se especificaba la cuantía y objeto de la participación de cada parte en la misión. Ese fue el comienzo del proyecto Helios.

La primera reunión del grupo de trabajo del proyecto, celebrada en Bonn, fijó la parte técnica y el equipo científico que sería montado en las dos sondas que el proyecto preveía, así como el programa sobre el que debería llevarse a cabo. De esta manera, la Alemania Occidental se ocuparía de la construcción de las sondas y gran parte del instrumental, montaje y primera serie de pruebas, centro de control y antena terrestre receptora, mientras que la NASA proporcionaba el equipo científico restante, los servicios de lanzamiento para cada vehículo, el uso de las estaciones de la Red de Espacio Profundo, las tareas de adquisición de la señal y seguimiento durante los chequeos posteriores al lanzamiento, así como asistencia técnica cuando fuera requerida. La administración general de la misión estaba a cargo del Ministerio Federal de Investigación y Tecnología, mientras que la dirección del programa estaba a cargo del Centro Aeroespacial para Investigación y Experimentación Alemán. La responsabilidad para la participación de la NASA fue asignada al Centro de Vuelos Espaciales Goddard, y se encargó de que todo su equipo estuviera listo, además de proporcionar coordinación entre los dos lados del proyecto.

La misión en realidad no era extraordinaria: sencillamente, propugnaba ampliar los estudios acerca del entorno interplanetario lo máximo posible al Sol, así, serían los vehículos que más se tendrían que acercar a nuestra estrella, por lo que el reto era diseñar sondas con alta capacidad de resistencia al calor, de manera que se tendrían que abandonar en cierta medida los diseños tradicionales para buscar una aproximación menos ortodoxa. Sin duda, lo consiguieron.

El principal contratista para la construcción de las sondas fue la prestigiosa firma Messerschmidtt-Bolkow-Blohm, Gmbh., de Munich, y se pusieron a la tarea para diseñar unas sondas de diseño inusual. Cada vehículo poseía una forma de carrete, con un cuerpo central cilíndrico de 16 lados y dos estructuras cónicas truncadas naciendo de las partes superior e inferior del cuerpo central. De la parte superior también salía un mástil que equipaba parte del hardware de comunicación, y en la inferior se colocó el adaptador de unión a la etapa superior del lanzador. En este compartimento central se situaba casi todo el equipo necesario para su funcionamiento. Con unas medidas de 1.75 metros de diámetro y 0.55 de altura, estaba dividido en una zona central de ocho secciones radiales y plataformas circulares de equipamiento superiores e inferiores. En éstas últimas se situaban las electrónicas de funcionamiento, y en los compartimentos radiales se situaban la mayoría de experimentos. De ella también salían cuatro apéndices. Dos mástiles rígidos diametralmente opuestos nacían de ella en cuyos finales se situaban algunos sensores, y dos antenas de cable, también diametralmente opuestas, y perpendiculares a los mástiles rígidos, que proporcionaban una envergadura de 32 metros, también eran parte del equipo sensor. Toda la computación la realizaba un sistema dividido en varias secciones, entre ellas un ordenador central (encargada de ejecutar los comandos transmitidos por el control de misión), una unidad de control de telemetría, un codificador de datos y un núcleo de memoria con una capacidad total de 500 kilobits. Estaban estabilizadas por giro, a un ratio de 60 rpm (para una óptima distribución del calor solar por todo el vehículo), usando como referencia sensores solares y estelares, mientras que usaba el sistema de propulsión para mantener el ratio de giro. Cada sonda comunicaba mediante transmisores de banda-S, usando la antena reflectora de alta ganancia (elaborada con cables ultrafinos de 0.2 milímetros, para proporcionar una tolerancia al calor de hasta 500º C), una de media ganancia de patrón toroidal, y una sencilla antena de baja ganancia, instaladas en el mástil central que nacía de la parte superior del compartimento central y proporcionaba una altura de 4.20 metros. Además, equipaba en su base un sistema mecánico que anulaba la rotación sobre el mástil, permitiendo así enfocar la antena de alta ganancia hacia la Tierra, y era capaz de variar el ángulo usando el motor que montaba (que disponía de un lubricante seco para lidiar con los extremos cambios de temperatura que tendría que soportar) para mantener la dirección en todo momento, permitiendo una tasa de envío de datos de hasta 4096 bits por segundo. Obtenía la energía de las células solares montadas en las superficies exteriores de
las estructuras cónicas (que proporcionaban una altura, sin contar con el mástil de las antenas, de 2.12 metros, y un diámetro de 2.77 metros), y alimentaban pequeñas baterías de plata-zinc. Entre las células solares se colocaron una serie de espejos de superficie secundaria (en una proporción células/espejos de un 50%) que mantenían la temperatura constante a unos 165º para evitar la avería en el sistema energético. El control termal era severo: mantas aislantes multicapa para aislar el cuerpo central del calor excesivo, dos sistemas de ventanillas de apertura controlada electrónicamente en las zonas superior e inferior (expulsando ese calor en dirección axial de las zonas que recibían directamente la energía termal solar), protegidas del calor de los paneles solares por unos escudos de protección, y una serie de calentadores eléctricos. El objetivo era mantener las electrónicas del cuerpo central en rangos de temperatura de entre -10º C y 30º C, y de la manera más independiente posible por parte de los elementos del hardware. En total, cada sonda cargaba 9 investigaciones, totalizando 11 instrumentos. PE, Experimento de Plasma, se trataba de cuatro instrumentos independientes con la misión de medir la densidad, temperatura, velocidad y dirección del viento solar con alta resolución espacial y temporal, y era proporcionado por el Instituto Max Planck. FGM, Magnetómetro de Núcleo Saturado, involucraba dos sistemas iguales pero distintos montados en los mástiles rígidos, uno proporcionado por el Centro de Vuelos Espaciales Goddard (a cuatro metros de la estructura, y colocado sobre un mecanismo rotatorio 90º) y otro por el Instituto de Geofísica y Meteorología de Braunschweig (a 2 metros), encargados de estudiar el campo magnético interplanetario a lo largo de la trayectoria de cada sonda, de detectar las ondas de choque magnéticas, de caracterizar la potencia del campo magnético solar con respecto a la distancia al Sol, y de medir su intensidad. SCM, Magnetómetro de Bobina de Búsqueda, fabricado por la Universidad de Braunschweig,
era un sensor triaxial que estaba preparado para medir la intensidad de las fluctuaciones y la forma de las ondas de choque del campo magnético interplanetario y solar, consiguiendo mediciones de alta resolución triaxiales y espectrales, éstas últimas en direcciones paralelas al eje de rotación. PRWE, Experimento de Plasma y Ondas de Radio (suministrado por el Departamento de Física y Astronomía de la Universidad de Iowa) implicaba las antenas de cable que se desplegaban a partir del compartimento central, un receptor y un muestreador de señales de radio, y se encargaban de detectar fenómenos de ondas electrostáticas y electromagnéticas y ondas de choque eléctricas en varios rangos de frecuencia, aptos para sentir fenómenos de ruido de radio y ondas electrostáticas longitudinales asociadas a la frecuencia del plasma del viento solar provocadas por su interacción. CRE, Experimento de Rayos Cósmicos, estaba formado por dos instrumentos proporcionados por la Universidad de Kiel (un telescopio de partículas con cinco detectores semiconductores y un detector tipo Cerenkov rodeado por un sistema anticoincidencia) y el Centro de Vuelos Espaciales Goddard (un telescopio detector junto con contador proporcional de rayos-X, y en la segunda sonda incluyendo un detector con memoria interna para detectar y estudiar GRB’s) que estaban dedicados al análisis del espectro energético, distribución angular y variación termal de los protones, partículas alfa y partículas de núcleo pesado de origen tanto solar como galáctico en los rangos energéticos bajos, medios y altos de los rayos-X y Gamma. En particular, el sistema proporcionado por la NASA podía monitorizar la emisión de rayos X solares, y a partir de ellos obtener información sobre los mecanismos de propagación de partículas y su espectro energético en función de la distancia y la actividad solar. ED, Detector de Electrones, era un aparato (un telescopio con varios detectores semiconductores) fabricado por el Instituto Max Planck cuya misión era la detección y medición del espectro energético y densidad de flujo de los electrones de media energía, para usar esta información en coordinación con otros experimentos para comprender la propagación de electrones y los eventos de electrones en el espacio en función de la distancia a nuestra estrella. ZLP, Fotómetro de Luz Zodiacal, (construido por el Observatorio de Heidelberg) consistía en tres sistemas colocados dentro del soporte de unión al cohete y orientados a tres direcciones diferentes en la eclíptica, preparados para calcular la intensidad y polarización en tres longitudes de onda distintas (ultravioleta cercano, azul y visual) del fenómeno conocido como luz zodiacal (no es más que luz solar dispersada por el polvo interplanetario que es visible desde la Tierra al amanecer y al anochecer) y con ellos verificar la cantidad, distribución y naturaleza de las partículas en el medio interplanetario. MDA, Detector y Analizador de Micrometeoritos, suministrado por el Instituto Max Planck, disponía de dos detectores (sensor eclíptico y sensor inferior, junto al ZLP, ambos protegidos por una lámina delgada de un material especial para protegerlos de la radiación solar) podía calcular la masa, el espectro de masa y la energía de las partículas de polvo interplanetario, y con ello determinar el gradiente espacial (cantidad), tamaño y dinámica en la región prevista para la exploración. Y por último los experimentos radio científicos: el Experimento de Mecánica Celeste, preparado por el Instituto de Física Teórica de la Universidad de Hamberg (y con la importante asistencia del JPL), proporcionaría información para refinar las efemérides de los planetas interiores, para calcular la densidad de electrones en el espacio, y para medir los efectos de las perturbaciones solares en la señal de radio emitida por la sonda, así como para comprobar la Teoría de la Relatividad; y Experimento de Rotación Faraday (diseñado por el JPL), con el objetivo de estudiar los efectos de polarización de la señal de radio para sondear la corona solar. A plena carga en el momento del lanzamiento, Helios-A daba un peso en báscula de 370 kg, y Helios-B de 376 kg.

Desde los comienzos de la era espacial, y tras la demostración de que el espacio era de todo menos un vacío, los científicos se vieron en la obligación de colocar en los primeros artefactos que lanzaron sensores con los que poder sentir el entorno en el que se encontraban. La primera sonda interplanetaria en cumplir su misión, Mariner 2, analizó a lo largo de su viaje hacia Venus el espacio entre los dos planetas. Mariner 4 hizo lo propio rumbo a Marte, y tras la colocación en el espacio de Mariner 5, se pudieron completar estudios correlacionados con la marciana. Se dieron cuenta de varias cosas, tales como la interacción del viento solar con los planetas, la propagación de partículas por el espacio interplanetario, la presencia de partículas sólidas diminutas, pero sobre todo, que se podía estudiar a Helios desde la distancia midiendo sus efectos en el espacio. Estos estudios resultaban muy importantes para la operatividad de las sondas espaciales, ya que muchas de las partículas presentes en el medio interplanetario podrían poner en peligro el equipamiento electrónico que transportaban. Estos estudios pasaron a una nueva escala cuando la NASA puso en el espacio a las Pioneer 6, 7, 8 y 9 (existió una quinta, perdida en el lanzamiento) entre 1966 y 1969 en órbitas heliocéntricas circulares delante (Pioneer 6 y 9) y detrás (Pioneer 7 y 8) de la Tierra, a 0.9 y 1.1 unidades astronómicas. De esta manera, monitorizaban el espacio interplanetario y a la vez servían como alarma temprana para avisar sobre eventos solares potencialmente peligrosos para la tecnología de la Tierra. De esta manera, a finales de la década de 1960, la ciencia había obtenido información acerca de lo que había en el espacio desde una región algo más interior que la órbita de Venus y una zona poco más allá de la órbita de Marte. Además, en 1972 y en 1973 se iban a lanzar tres misiones que ampliarían el área investigada: las Pioneer 10 y 11 lo harían hasta al menos Júpiter, pasando por el hasta ese momento desconocido cinturón de asteroides, y Mariner 10, por su parte, hasta la órbita de Mercurio. El proyecto Helios iría más allá de esta última.

Para depositar las dos sondas Helios en el espacio y en sus respectivas órbitas en torno al Sol necesitaban los lanzadores más potentes posibles. Por fortuna, la NASA acababa de completar las pruebas de su conjunto más potente: el Titan IIIE/Centaur, que no era más que la fusión de un lanzador de la Fuerza Aérea de los Estados Unidos con la etapa superior típica de los cohetes Atlas. Esta configuración había sido proyectada para poder poner en el espacio las misiones marcianas Viking a causa de su incremento de masa provocado por los vehículos de aterrizaje. El único vuelo de prueba ocurrió el 11 de febrero de 1974, y aunque el Centaur falló al no encenderse sus motores, los técnicos juzgaron que tenían los suficientes datos como para afirmar que esta combinación funcionaba perfectamente. Tras unas recomendaciones acerca de los sistemas de alimentación de combustible de la etapa superior, el Titan IIIE/Centaur estaba certificado para comenzar su vida operativa.

A pesar de la potencia desplegada por este lanzador, la energía que las Helios necesitaban para conseguir sus trayectorias era todavía superior a lo que este lanzador entregaba, de manera que se añadió una etapa más. Con esto, en total eran cinco las fases que utilizarían: Etapa 0, la correspondiente a los grandes aceleradores sólidos laterales, Etapas 1 y 2, al núcleo central del Titan, Etapa 3, al Centaur, y por último, la Etapa 4, o Superior, estaba formada por un cohete de combustible sólido usado con frecuencia en los lanzadores Delta como impulsor final para proporcionar un último y potente impulso al vehículo a lanzar. Con este nuevo componente, ya era posible.

Una vez Helios-A estuvo finalizada y se le realizaron las pruebas iniciales, fue enviada a las instalaciones del JPL donde le esperaba la prueba más importante: se le introdujo en una cámara de vacío de 7.5 metros de diámetro durante unos 10 días y se le sometió a las temperaturas que debían soportar una vez en el perihelio. Huelga decir que la pasó con nota. Después de las pruebas, la sonda fue enviada a Cabo Cañaveral, a donde llegó el 28 de septiembre de 1974 (dos meses antes llegó el prototipo para familiarizar a los ingenieros con el diseño y realizar pruebas entre el vehículo y el cohete), y tras todo el procesado, chequeos, carga de combustible y encapsulación, fue unida al Titan el 24 de noviembre. El lanzamiento estaba previsto para el 8 de diciembre.

Finalmente, el 10 de diciembre de 1974 el potente Titan IIIE/Centaur operó de maravilla, colocando a Helios 1 (como se le designó tras el despegue) en la trayectoria deseada. Tras tres semanas de pruebas y puesta a punto de los sistemas, el control pasó del JPL al centro de control alemán en Oberpfaffenhofen, a las afueras de Munich. Su trayectoria era altamente elíptica, y transcurría entre la unidad astronómica (es decir, la órbita terrestre a aproximadamente 150 millones de kilómetros) hasta bien dentro de la órbita de Mercurio (58 millones de km., 0.39 unidades astronómicas), acercándose a 0.30 unidades astronómicas, es decir, unos 45 millones de kilómetros, completando una órbita en unos 190 días. Con un tiempo de misión principal programado para 18 meses, se la consideraría exitosa si sobrevivía al primer perihelio.
Los objetivos finales de la misión eran los siguientes, más o menos: estudiar el medio interplanetario en términos de campos magnéticos, densidad, temperaturas, velocidad y dirección del viento solar, documentar discontinuidades y ondas de choque magnéticas en el medio interplanetario, observar las ondas de radio y las oscilaciones del plasma probables responsables de radio estallidos y otras interacciones entre ondas y partículas, calcular la propagación y, en la medida de lo posible, la composición de los rayos cósmicos solares, así como la cantidad y composición de los rayos cósmicos galácticos para una mayor diferenciación, calcular la cantidad y estudiar la dinámica del polvo interplanetario, sobre todo durante el perihelio, monitorizar el disco solar en rayos-X para obtener datos sobre lo que acontece en el lado opuesto al que ofrece a la Tierra, y por último determinar la distribución de masas del Sol, refinar las efemérides de los planetas interiores y medir los efectos gravitatorios solares sobre el espacio. Esta información obtenida se uniría a los que proporcionaban las Pioneer heliocéntricas para obtener correlación sobre los eventos solares y los efectos sobre el sistema solar.

En tres meses, Helios 1 había llegado al perihelio, y las lecturas de temperatura mostraron que la sonda estaba soportando una temperatura de 371º C, la mayor que cualquier otro vehículo fabricado por el hombre había alcanzado, y además, sobrevivió para contarlo. Una vez allí, proporcionó datos muy interesantes acerca de la concentración de micrometeoritos: a distancias inferiores a 53 millones de km., existía una sorprendente concentración de partículas sólidas, alrededor de 15 veces más de la que existe en el entorno terrestre. Además, llegaban desde direcciones diferentes aunque marcadamente definidas en distintos momentos. Este resultado fue inesperado, y los científicos deseaban enviar a la segunda sonda para comprobar esta información.

Helios-B llegó a Cabo Cañaveral el 7 de octubre de 1975 tras pasar todas las pruebas requeridas. Tras los chequeos finales, carga de combustible y encapsulado (ocurrido esto último el 9 de diciembre), fue unida al lanzador en los primeros días de enero de 1976. La fecha inicial de lanzamiento se cumplió, y el 15 de enero fue colocada en el espacio por un nuevo Titan IIIE/Centaur. Si bien el programa de la misión de Helios 2 (como fue designada tras el lanzamiento) resultaba idéntico al de su hermana, la trayectoria la haría pasar todavía más cerca del Sol, llegando a 43 millones, 400 mil km. de nuestra estrella, eso es, 0.29 unidades astronómicas. Su actitud en el espacio sería completamente opuesta a la de su hermana, ofreciendo su antena de alta ganancia “hacia abajo”, para que así su experimento ZLP y el segundo detector de micro meteoritos observaran la región al norte de la eclíptica. Además de eso, con las dos sondas ya operativas, serían capaces de detectar un mismo fenómeno solar desde dos posiciones distintas en el sistema solar interior, el objetivo original del programa. Así, tras varios meses de dirigirse al Sol, Helios 2 se convirtió en el objeto humano que más cerca ha pasado de nuestra estrella el 17 de abril de 1976, algo que ninguna otra sonda ha podido si quiera igualar hasta la fecha.

Ambas sondas fueron enviadas en el momento en el que el Sol salía del máximo solar, de manera que en sus misiones primarias con un periodo de mínima actividad, aunque tras entrar en sus tareas extendidas se empezó a notar un aumento en actividad y, visto desde la Tierra, un incremento en el número de manchas solares. Un resultado interesante fue que la fuerza con la que el flujo de plasma rápido (viento solar de alta velocidad) que salían de agujeros coronales situados en los polos de nuestra estrella era más intensa en el perihelio de ambas sondas que a una unidad astronómica medidos por los satélites IMP 6 y 8. Poco después del lanzamiento de las dos sondas Voyager se detectó, en coordinación con las dos Helios, un flujo rápido que corotaba con el Sol y que surgía de un agujero coronal, y justo delante, un frente de choque que fue detectado a distancias de nuestra estrella de entre 0.7 a 1.6
unidades astronómicas, y que el frente de choque subsistió incluso cuando el flujo ya había desaparecido. Estudios de los campos magnéticos a distancias del perihelio mostró lo que parecía una fuerte dependencia entre las líneas del campo originadas en un agujero coronal y el flujo del viento solar, algo ya observado desde una unidad astronómica, pero confirmada desde más cerca. Es más, Helios 1 pasó sobre un agujero coronal en su primer perihelio. También se detectó una nueva estructura magnética, caracterizados por intensos campos magnéticos originados en regiones de flujo lento del viento solar, inusualmente frías, por delante de los flujos rápidos. También consiguieron detectar helio-3 en diversos eventos solares que emitían rayos cósmicos, así como la aparición de electrones provenientes de Júpiter a distancias muy cercanas al Sol. Las distintas órbitas de las dos Helios permitió confirmar una zona de rápida propagación de rayos cósmicos a más o menos 60º del lugar de una llamarada solar.

Poco después de sus lanzamientos, y con sus instrumentos apenas activados, ambas sondas también proporcionaron alguna cosa interesante acerca de la magnetosfera terrestre, detectando dos capas nuevas fuera de la envuelta magnética: una capa de electrones energéticos y una capa de iones. Los estudios acerca de la luz zodiacal mostraron una suavidad ya prevista, así como una asimetría derecha-izquierda bastante clara que en determinados momentos se reducía hasta cero para después volver a incrementarse, dada la cantidad de polvo interestelar. El análisis, por otra parte, de los impactos de micrometeoritos mostró una abundancia de condritas en un 40%, abundancia de micrometeoritos de hierro en otro 40% y en un 20% a un material no identificado. Una vez comparados los datos de micrometeoritos de las dos sondas mostraron que no existía demasiada asimetría norte-sur en la nube de polvo interplanetario, y estaban en buen acuerdo con las mediciones del ZLP. Por su parte, una fuerte actividad solar (posiblemente una eyección de masa coronal) proporcionó interesantes conclusiones sobre la corona mediante el estudio de la señal de radio emitida por una de las sondas.

El lanzamiento de distintos proyectos terrestres enriqueció la ciencia de Helios. Las dos Voyager y los tres vehículos de la misión ISEE trabajaron en concierto con ellas en el estudio de los eventos solares y al espacio interplanetario. Con sus misiones primarias finalizadas, y con el siguiente máximo cerca, decidieron alargar sus misiones para proporcionar información acerca de los fenómenos del Sol, que se incrementarían cuando la NASA lanzara su observatorio Solar Maximum Mission, evento acaecido al final el 14 de febrero de 1980. Sin embargo, el 23 de diciembre de 1979 Helios 2 dejó de emitir. Tal vez pasar más cerca del Sol que su hermana provocó que el hardware de a bordo no resistiera más. Por su parte, Helios 1 continuó emitiendo información valiosa hasta que también dejó de transmitir señales el 18 de febrero de 1985.

Las sondas Helios han sido realmente notables por varias cosas: por ser las que más se han acercado al Sol y han sobrevivido para contarlo, por ser uno de los primeros proyectos conjuntos entre Estados Unidos y Europa, pero sobre todo por ser las sondas más rápidas jamás lanzadas. Esto en realidad tiene cierta trampa. A Voyager 1 se la considera de la misma forma, lo que ocurre es que la gran sonda exploradora, actualmente en la frontera del espacio interestelar, posee la velocidad de escape mayor de todas las sondas que la consiguieron, mientras que Helios 2, la calificada como el vehículo más veloz, su velocidad se calcula con respecto a la velocidad en torno al Sol, consiguió unos formidables 252.792 km/h, o 70.22 km/s, provocados naturalmente por la inmensa atracción gravitatoria solar. Gracias a esa velocidad de paso, a su rápida rotación y las medidas llevadas a cabo para protegerlas, han conseguido pasar a la historia con nota muy alta. Por supuesto, no podían faltar en esta crónica.

domingo, 23 de febrero de 2014

Misión al planeta Tierra: GPM Core

El satélite TRMM fue lanzado desde el Japón el 27 de noviembre de 1997 para una misión de unos dos años. Situado en órbita baja (entre 400 y 410 km. de altitud) y con una inclinación moderada (35º), tenía el encargo de estudiar la cantidad de precipitación en las regiones tropicales y subtropicales. Cubriendo la Tierra desde la costa africana del Mar Mediterráneo hasta el Cabo de Buena Esperanza, esta área le permite examinar todo núcleo de tormenta que se forma en esta área. De esta forma, es capaz de detectar y monitorizar la evolución de toda tormenta tropical, huracán o tifón que aparece. Cargando cinco instrumentos, dos han resultado instrumentales. Por un lado, el TMI ha sido capaz de medir el tamaño de las gotas de agua encerradas en las nubes de tormenta, indicando como se precipita hacia la superficie, completando cálculos de la cantidad de lluvia, de moderada a alta, que se produce en ese núcleo tormentoso. Por el otro, el PR es el primer instrumento de su tipo situado en el espacio, y a
través de sus mediciones se sabe el ratio de precipitación de todo núcleo de tormenta, permitiendo construir recreaciones en tres dimensiones de la cantidad de precipitación de todo tifón, huracán o tormenta tropical que aparezca. Actualmente, TRMM es uno de los satélites de observación terrestre más veteranos, y aunque ha perdido alguna capacidad, todavía continúa entregando información muy importante con respecto a las tormentas. Así, huracanes como el Katrina, o más recientemente el tifón Haiyan de las Filipinas, entraron en su campo de visión. Sin embargo, su órbita y sus capacidades limitan lo que nos puede enseñar acerca del ciclo del agua en nuestro planeta.

Como bien sabéis, la Tierra es el único lugar del sistema solar en el que el agua existe en sus tres estados: líquido (mares, océanos, ríos, lagos, acuíferos), sólido (capas polares, glaciares, icebergs) y gaseoso (vapor de agua). Su presencia en cierta medida regula varios aspectos del sistema terrestre, tales como la absorción o emisión de la radiación infrarroja que entra desde el Sol o que emite la superficie para su expulsión al espacio. Uno de los aspectos del ciclo del agua, y uno de los mayores reguladores de la temperatura global del planeta es la precipitación, en todas sus formas. Así, la lluvia ligera o torrencial, granizo, o nevadas, no son más que elementos que ayudan a equilibrar la temperatura de la Tierra, pero es que además prácticamente toda forma de vida terrestre necesita agua, por lo que el reabastecimiento de toda fuente de agua a partir de las precipitaciones permite que la vida pueda continuar. Pero claro, medir el ratio de precipitación globalmente desde la superficie es prácticamente imposible, y saber qué está precipitando sobre distintas zonas de la Tierra es tarea solo para satélites.

Repitiendo el éxito de TRMM las agencias espaciales NASA y JAXA se han vuelto a unir para crear un satélite que vaya más allá. No solo medirá el ratio de precipitación líquida en regiones tropicales y subtropicales de media a alta intensidad, sino que ha sido optimizado para detectar precipitación de baja a media intensidad, de granizo e incluso de nieve a distintas intensidades. Pero esto no es todo. A partir de este proyecto, la NASA, en asociación con JAXA, creó un programa para saber qué y cuanto está precipitando en todo el mundo al mismo tiempo, un aspecto muy importante tanto para los científicos como para los meteorólogos. Este proyecto se llama GPM, Medición de Precipitación Global, y entra dentro del programa PMM, Misión de Medición de Precipitación. Lo que busca la NASA es emplear otros satélites con instrumentación similar para obtener mediciones acerca de qué, cuánto y cómo está precipitando en un determinado lugar del planeta. En esencia, crear una constelación de satélites que cubran todo el planeta.

El instrumento clave del proyecto GPM es el llamado Observatorio Núcleo GPM, o GPM Core. Es el mayor satélite jamás construido en el Centro de Vuelos Espaciales Goddard, y está dotado, como es normal, de todo lo necesario para funcionar, como su ordenador y almacenador de datos de estado sólido, transmisor de banda-S unido a antenas de baja ganancia y a una antena parabólica de alta ganancia situada en lo alto de un mástil (transmitiendo a través de la red TDRSS), sistema de control de actitud, propulsión, control termal, y generación y almacenamiento de energía. Tiene 11.6 metros de envergadura con sus paneles solares rotatorios desplegados, y mide 6.5 metros de alto por 4.9 de largo. Ha recibido dos instrumentos para realizar sus mediciones acerca de la precipitación. El primero es GMI, Cámara de Microondas de GPM. Construido por la empresa Ball para la NASA, es un sistema de escaneo de microondas pasivo que consiste en tres elementos: la antena receptora, los detectores, y el montaje rotatorio para la antena. Técnicamente es un radiómetro de escaneo cónico que ha sido diseñado para rotar a 32 rpm. La antena de 1.2 metros de diámetro recibe la intensidad de la energía de microondas emitida por todo el sistema terrestre para llevarla a los detectores. A diferencia del TMI de TRMM y sus nueve canales, GMI dispone de 13 para
poder detectar además lluvia ligera y precipitación de nieve. Con un ancho de escaneo de 885 km., lo cubre barriendo de lado a lado a lo largo de su órbita, permitiendo cubrir todo un núcleo de tormenta, mientras que el paso sobre la estructura del satélite sirve para calibrar el aparato. A partir de lo detectado por GMI los científicos serán capaces de distinguir entre lluvia o nieve así como cuantificar la intensidad de precipitación y calcular el ratio de precipitación. El segundo es el DPR, Radar de Precipitación de frecuencia Dual. Elaborado por la empresa NEC Toshiba Space Systems para JAXA y el Instituto Nacional de Tecnología de Información y Comunicaciones, supone una evidente mejora del instrumento PR de TRMM. Realmente son dos radares de precipitación, el principal midiendo en banda-Ku (ancho de escaneo 245 km.), y un nuevo sistema de medición en banda-Ka (120 km.) que combinarán sus resultados para no perder ni una sola partícula de precipitación. Conjuntando la información de ambos radares se podrán realizar mediciones acerca de la distribución del tamaño de las partículas, es decir, la cantidad de gotas de lluvia de distintos tamaños existen en distintas capas de nubes y cómo se extienden por toda la tormenta. Estudios en profundidad de los datos del DPR permitirá identificar si lo que precipita es lluvia o nieve, intensidad de precipitación, flujos de agua o contenido de agua en una nube. Dado el menor ancho de escaneo del sistema de banda-Ka, este se encuentra en el centro del ancho de escaneo del radar de banda-Ku, lo que permitirá combinar la información y crear perfiles de intensidad de precipitación con una resolución máxima de 5 km., y en conjunto con GMI, mejorar la exactitud de las estimaciones de precipitación de lluvia o nieve. A plena carga declarará una masa máxima de 3.850 kg.

Si la NASA proporciona el satélite y un instrumento, JAXA ha suministrado el segundo instrumento y además se encargará de los servicios de lanzamiento. Como TRMM, la misión de GPM Core se pondrá en marcha cuando despegue desde el Centro Espacial Tanegashima a bordo de uno de los lanzadores más potentes del Japón, el H-IIA. El 27 de febrero del 2014 está previsto el lanzamiento, y su órbita será similar a la de TRMM, aunque con una mayor inclinación. Tras maniobrar después de liberarse de la etapa superior, estará situado en una trayectoria circular a 407 km. de altitud sobre la Tierra, con una inclinación de 65º con respecto al ecuador terrestre.

Con la puesta en marcha de la misión de GPM Core, se iniciará la constelación del proyecto GPM, que comprende varios satélites ya en órbita que cargan instrumentación de microondas: de la NASA, Suomi NPP (ATMS), los meteorológicos polares americanos NOAA 18 y 19 (AMSU-A) y DMSP, el satélite meteorológico polar europeo MetOp-B (MHS y AMSU-A1 y A2), el satélite científico de JAXA Shizuku (AMSR2) y el satélite científico franco-hindú Megha-Tropiques (SAPHIR). En los años siguientes la red se complementará con más satélites meteorológicos polares como el estadounidense JPSS-1 y el europeo MetOp-C,
previstos para los años 2016 y 2017, respectivamente. El propósito es recoger la información obtenida por todos estos satélites e introducirla en una base de datos común, en la que la información del instrumento GMI sea un estándar de referencia para calibrar la información, y tras juntarla con los datos proporcionados por DPR, obtener una información completa acerca de qué y cómo precipita una tormenta. La órbita de más alta inclinación de GPM Core le permitirá estudiar todo frente de tormenta desde el círculo polar ártico hasta el círculo polar antártico. Con toda esta base de datos, se pretende estudiar, en conjunción con la información de otras misiones (como por ejemplo el satélite de la NASA Aqua o el europeo SMOS), el ciclo del agua así como el ciclo y el intercambio de energía en el sistema terrestre. Con la información de la constelación GPM se obtendrá lo siguiente: medición acerca de la intensidad y la variabilidad de la precipitación; estructura tridimensional de los sistemas de nubes y tormentas; microfísica de las partículas sólidas o líquidas dentro de las nubes; y la cantidad de agua que cae a la superficie. Además, esta base de datos se podrá conjuntar con la recogida por los sensores meteorológicos basados en Tierra para mejorar los modelos de los pronósticos meteorológicos y los modelos climatológicos, así como para pronosticar desastres como huracanes y tifones, corrimientos de tierras, inundaciones y sequias. Poca broma.

Como se suele decir, no siempre llueve a gusto de todos, y para mucha gente, la lluvia no es más que una molestia que impide disfrutar de la vida en la calle. Error. Si en una zona de la Tierra no llueve, la reserva de agua potable se acabará, y no nos apetece comentar lo que ocurriría si eso pasa, porque es de sobra conocido. Pero claro, con el cambio climático sobre nuestras cabezas, se producen dos fenómenos: o que no llueva, que es malo, o que llueva demasiado, que tampoco es demasiado bueno. Queda claro que establecer una base de datos acerca de qué, cuánto, cómo y dónde precipita nos permitirá no solo comprender el funcionamiento del sistema terrestre, también detectar anomalías climáticas provocadas por el cambio global. Y luego se preguntan que por qué lanzamos satélites al espacio.