Phoenix, un tributo

martes, 9 de febrero de 2016

Misión al planeta Tierra: Sentinel-3A

No se conoce a la Tierra como el Planeta Azul por capricho. Naturalmente, recibe este apelativo por la mayor característica de nuestra esfera: los océanos, que cubren más del 70% de la superficie terrestre. Estudiarlos in situ es lento, pesado y tremendamente frustrante, de ahí que los oceanógrafos prefieran la perspectiva orbital. Todo hay que decirlo, los continentes también son difíciles de explorar in situ por lo mismo. Al concentrarte en una pequeña zona, no puedes ver lo que pasa a kilómetros de distancia, por lo que las vistas espaciales son muy interesantes y demandadas. El más grande y pesado explorador del sistema terrestre, el europeo Envisat, permitió a 
los científicos explorar amplias secciones de nuestro planeta diariamente, y la adopción del programa Copernicus pretende seguir esta estela. Las dos primeras misiones de este programa, los Sentinel-1A y Sentinel-2A se han centrado en proporcionar visiones en alta resolución de las zonas continentales (el primero mediante radar, el segundo mediante un sensor óptico), por lo que llega el momento de que se coloque sobre nuestras cabezas la misión que nos proporcione la visión global.

Con Sentinel-3 el propósito es mantener un vistazo amplio a nuestro planeta permitiendo la continuación de los estudios de satélites actuales o ya desactivados. Se propone monitorizar los océanos (su color, las corrientes, su temperatura), las capas de hielo marino, las zonas costeras, tanto en zonas templadas como en regiones árticas y antárticas, y los continentes, vigilando principalmente las grandes masas de vegetación. Como en las dos misiones hermanas, para entregar lo prometido harán falta dos satélites.

El primero de la serie, Sentinel-3A, está en las etapas finales de su preparación. Es un vehículo más pequeño que Envisat, con unas medidas dentro de la cofia de 3.7 metros de alto, 2.2 de ancho y 2.2 de fondo, y dividido en dos estructuras: el Módulo de Servicio y el Módulo de Integración de Carga Útil. El primero alberga lo necesario para que el satélite funcione, además de parte de la instrumentación, y el segundo el resto de los experimentos que porta. La plataforma para los Sentinel-3 también ha sido diseñada en exclusiva para esta misión, aunque podría adoptarse para otros servicios. La infraestructura informática es la habitual en los satélites de la ESA (es la misma que en sus hermanos), y va acompañado por un grabador de a bordo de gran capacidad, de 384 GB. Además, el software se ha diseñado de tal forma que una sola carga de comandos le permitirá al satélite funcionar sin apenas intervención del centro de control durante dos
semanas. No solo eso, parece que se ha adoptado una estrategia de generación de comandos basado en eventos, una fórmula demostrada en el satélite de la NASA TIMED, en el que la información proporcionada por el sistema de posicionamiento global es clave. La generación de energía es la habitual en todos los satélites terrestres: la luz solar. Para ello porta un panel solar de tres secciones (rotatorio sobre un eje, de lo poco móvil en el satélite) cargado con células solares de alta tecnología y alta eficiencia, que alimenta a los sistemas de a bordo, además de cargar dos baterías de ion-litio. Las comunicaciones se gestionan según lo habitual: un sistema bidireccional sintonizado en banda-S a través de dos antenas omnidireccionales, mientras que para descargar el inmenso volumen de datos generado a bordo usa 
un transmisor de banda-X unido a una antena de alta ganancia, posicionada en la cara que siempre ofrecerá a la Tierra. A diferencia de sus hermanos, no portará terminal de comunicaciones por láser. Estabilizado en sus tres ejes, emplea para ello una unidad de medición inercial sin giróscopos (sustituidos por una herramienta de software), ocho sensores solares ordinarios, un escáner estelar completamente autónomo de tres ópticas, receptores redundantes de GNSS, el GPS para satélites, cuatro ruedas de reacción y sistemas de descompensación magnética, un magnetómetro triaxial, y los ocho propulsores de a bordo, para correcciones orbitales y maniobrar el satélite. El control termal es el habitual: mantas multicapa (negras en este caso), calentadores eléctricos y radiadores. En total son cinco los instrumentos que porta. El primero es el SLSTR, el Radiómetro de Temperatura de las 
Superficies del Océano y la Tierra. Deriva del AATSR de Envisat, y se trata de un aparato con dos campos de visión, uno en la vertical del satélite y el otro oblicuo, a 35º de la primera y en la dirección contraria de la órbita. Cada cadena de visión tiene un espejo de escaneo (moviéndose a un ratio constante de 200 rpm), un espejo paraboloide fuera de ejes y un espejo de doblado para enfocar la radiación captada al plano focal. Pero además dispone de un espejo de recombinación que retransmite alternativamente los dos haces ópticos escaneados hacia un plano focal común. Esta características le permite cubrir un barrido de 750 km. de ancho en el campo de visión oblicuo (centrado en el punto vertical del aparato), y de 1.400 km. en el campo vertical, levemente desviado hacia el oeste. Está sintonizado para observar 9 longitudes de onda en el visible (VIS), infrarrojo de onda corta (SWIR), infrarrojo medio (MIR) e infrarrojo termal (TIR), de los cuales solo los SWIR y TIR requieren refrigeración activa. La tarea principal es la de obtener la temperatura tanto de la superficie oceánica como de la terrestre (como el nombre del aparato bien indica) con alta exactitud pero con una resolución moderada, de 500 metros para los canales VIS y SWIR, mientras que el resto tendrá una resolución de 1 km. Otra cualidad que lo hace interesante es que a partir del sensor TIR los científicos serán capaces de detectar incendios. OLCI, Instrumento de Color Oceánico y Terrestre, también 
deriva de un aparato instalado en Envisat, en esta ocasión el MERIS, con sustanciales mejoras. OLCI en realidad es una conjunción de 5 cámaras solapadas que trabajan en forma “pushbroom”, por lo que no requiere partes móviles. Situado en la parte superior del satélite, y a diferencia de MERIS, no apunta a la vertical, sino que lo hace con una inclinación de 12.6º hacia el oeste para evitar el destello solar sobre las imágenes. Las cinco cámaras observarán la misma escena a través de una ventana especial. Cubre 21 bandas espectrales desde el visible hasta el infrarrojo cercano, por las 15 de MERIS, añadiendo la capacidad de obtener mejor información de los constituyentes de las aguas oceánicas, para mejorar las correcciones atmosféricas, así como extraer de las imágenes parámetros atmosféricos como la presión, a partir de la Banda-A infrarroja, la misma usada en OCO-2 como control. Todas las modificaciones realizadas se han hecho para mejorar la captación de los colores en las zonas oceánicas y costeras, permitiendo una resolución de 300 metros a lo largo de un barrido de 1.270 km. Cada cámara emplea un CCD y, antes de que la luz llegue a él, existe una rejilla de difracción. Los campos de visión de OLCI y SLSTR están solapados para generar productos complementarios. 
SRAL, el Altímetro Radar de apertura Sintética, se ha diseñado con el propósito de continuar las mediciones del RA-2 de Envisat en cuanto a la topografía oceánica. Esta es la primera aplicación práctica del altímetro radar SIRAL de Cryosat-2, solo que con una única antena, que además es una muy fuerte evolución de los altímetros Poseidon de los satélites NASA-CNES Jason. A diferencia de altímetros similares, que enfocan en áreas relativamente pequeñas, el añadido de la apertura sintética permite mejorar las mediciones sobre áreas de alta variabilidad topográfica (márgenes de capas de hielo, ríos o lagos, transiciones entre el mar y la tierra), así como captar rápidos cambios en zonas oceánicas con rapidez. SRAL está compuesto por la antena parabólica emisora-receptora, de 1.20 metros de diámetro, situada en el Módulo de Servicio mirando siempre hacia la Tierra, la Unidad de Radio Frecuencia y la Unidad de Procesado Digital. Está sintonizado en banda-Ku para las mediciones de topografía y en banda-C para correcciones ionosféricas, y puede operar en el modo tradicional de los altímetros a baja resolución (disparando ráfagas de radio en una secuencia 3 en banda-Ku, 1 en banda-C y 3 en banda-Ku), o emplear la técnica SAR para mediciones de alta resolución, disparando 64 ráfagas de banda-Ku rodeados por dos ráfagas de banda-C, consiguiendo así, a lo largo de su órbita, una resolución de 300 metros, consiguiendo así un margen de error total en la topografía de unos 3 centímetros. Como casi todas las misiones de topografía oceánica, va acompañado de otro aparato para hacer sus mediciones más precisas. MWR, el Radiómetro de 
Microondas (desarrollado por EADS-CASA) tiene el propósito de corregir el retraso de la señal del altímetro radar mientras atraviesa la atmósfera, propiciado principalmente por el contenido de vapor de agua en la misma. Sin embargo, tendrá otros propósitos, ya que sus datos permitirán calcular la emisión energética de la superficie terrestre y la humedad del suelo. Sensible a dos frecuencias de las microondas, la más alta permite calcular la cantidad de agua líquida en las nubes, mientras que la más baja es sensible al vapor de agua atmosférico. Está formado por un antena receptora de 60 cm. de diámetro, los dos alimentadores de medición y el llamado “cuerno del cielo”, que permite recoger ambas frecuencias simultáneamente, y la Unidad de Electrónicas del Radiómetro, que es el que hace todo el trabajo. Todo el sistema está situado al lado de OLCI para tener un campo de visión lo suficientemente claro como para que sus mediciones no se contaminen. Y el último sistema es el paquete de Determinación de Órbita Precisa, POD. En esencia es el mismo equipo que también llevan los satélites Jason y Cryosat-2 para situar precisamente el satélite en un punto concreto de nuestro planeta y poner en contexto la información recogida por SRAL. Está compuesto por los sistemas DORIS (Orbitografía Doppler y Radio posicionamiento integrado por Satélite, un receptor que se dedica a sentir las emisiones de 60 radiobalizas colocadas en Tierra y, sintiendo las variaciones en la señal producidas por el efecto Doppler, el sistema es capaz de indicar, con un margen de error de 10 centímetros, la posición exacta, pudiendo captar el de Sentinel-3 hasta siete de estas balizas simultáneamente, además de permitir mejorar la exactitud de 
medición del altímetro por debajo de los 3 cm.), LRR (Retro-Reflector Láser, formado por siete cristales de cuarzo conjuntados en una estructura circular situada en la cara del satélite que ofrece a la Tierra, y es sensible a los haces láser en la longitud de onda verde del espectro visible, y se utiliza para servir de objetivo para las estaciones de seguimiento por láser, para después calcular el tiempo que tarda el haz de luz entre la emisión y la recepción, y a través de esto, posicionar de manera muy precisa el satélite en un punto muy concreto de su órbita), y un receptor GPS (capaz de seguir hasta 8 satélites y dos bandas de señal simultáneamente para posicionar el satélite con un muy alto grado de exactitud, al menos 3 cm., aunque también servirá para determinación de órbita precisa y correcciones del reloj de a bordo). Con todo este equipo, y a plena carga en el momento del lanzamiento, Sentinel-3A desplazará una masa de 1250 kg.

Dadas sus dimensiones contenidas y masa moderada, puede ser lanzado tanto por el cohete Vega europeo o el ruso Rockot. Para Sentinel-3A el elegido es el segundo, por lo que será elevado desde el cosmódromo de Plesetsk, en el lejano norte de Rusia, el 16 de febrero. Si todo marcha como debe, estará cerca de su órbita de trabajo, situada a 814.5 km. de altitud, inclinada 98.6º con respecto al ecuador terrestre, viajando en modo descendente cruzando el ecuador a las 10 de la mañana. Después del típico periodo de verificación, el satélite (a la espera de su gemelo, que será elevado mediante un Vega desde Kourou) tendrá una vida útil de al menos 7 años.

Una vez en marcha y proporcionando resultados permitirá ampliar la información que tenemos en diversos temas: topografía oceánica, velocidad del viento superficial, temperaturas de la superficie marina en océanos y aguas costeras (en esencia,
mirar su estado de salud), temperaturas en las capas de hielo y en las superficies continentales (vigilar pérdida de masa helada, o detectar incendios), datos a color de océanos y zonas continentales (aparición de formaciones de plancton o algas, monitorización de sedimentos o contaminantes, estado de salud de las concentraciones de vegetación como bosques, rendimiento de cosechas, cambios en el uso del suelo, vigilancia de incendios activos o áreas quemadas), o monitorización de propiedades atmosféricas. Por supuesto, cuando su gemelo esté en órbita todo irá a mejor, ya que permitirá vigilar toda la Tierra en algo menos de dos días, permitiendo así la recepción de información puntual para responder a los diversos problemas que puedan surgir.

Con Sentinel-3 la constelación queda casi cerrada, de manera que en relativamente poco tiempo hemos recuperado casi todas las capacidades de Envisat pero de una forma más económica, y además doblando la información recogida cuando los satélites B de cada Sentinel estén allí arriba. Pero no os preocupéis, esto no es lo último que Copernicus ha producido. Hay mucho más. Pronto lo veremos.

viernes, 5 de febrero de 2016

Los rayos incógnita: Astro-H

En el año 2012 se consiguió un gran hito en la astronomía y la astrofísica: por primera vez se había calculado el ratio de rotación de un agujero negro supermasivo, el localizado en la galaxia NGC 1365, fijándolo en casi la velocidad de la luz. ¿Cómo se consiguió? Juntando las capacidades espectroscópicas de XMM-Newton y la sensibilidad a los rayos X duros de NuSTAR. Si no se logró antes fue porque carecíamos de la capacidad de poder observar la gama de los rayos X de alta energía empleando telescopios que usan módulos ópticos tipo Wolter. Claro, para obtener estos resultados hay que combinar a NuSTAR con otras misiones de rayos X. La pregunta, claro está, es, ¿no se podría lanzar un telescopio que combinara telescopios Wolter para rayos X blandos y duros? Si, y en pocos días será elevado.

Si habéis sido capaz de leer las dos entradas que dedicamos a la exploración de los rayos X desde el espacio, os habréis dado cuenta que, tras la NASA, las agencias japonesas han sido las que más misiones dedicadas a esta rama de la astronomía ha lanzado y operado. Desde el pequeño Hakucho hasta el más reciente y agotado Suzaku, el Japón ha diseñado y construido siete (teniendo en cuenta los perdidos CORSA y Astro-E), con capacidades crecientes. El gran salto fue ASCA, novedoso entre otras cosas por ser el primero en equipar detectores tipo CCD para uno de sus instrumentos. También importante para la ingeniería japonesa fue el estreno de una plataforma tan brillante, que fue repetida
para los Astro-E y Suzaku. Comparado con otros observatorios de rayos X, los japoneses han sido productivos, aunque silenciosos, a pesar de ir equipando sensores de vanguardia, dotándoles de capacidades no igualadas por otros observatorios. Ya antes del lanzamiento de Suzaku, un grupo de científicos e ingenieros japoneses se embarcaron en lo que denominaron el proyecto NeXT, un observatorio de rayos X entregado a la observación del universo X en sus dos gamas simultáneamente mediante módulos ópticos de incidencia oblicua. Aprobado para su desarrollo, y con el nombre provisional de Astro-H, esta misión permitiría a la comunidad científica observar un cuerpo celeste en toda la gama de rayos X obteniendo tanto imágenes como espectros de alta resolución. Basado inicialmente a partir de las tecnologías desarrolladas para un instrumento instalado en un globo aerostático, el experimento InFOCUS, se ha beneficiado de las tecnologías de fabricación desarrolladas por todo el mundo, de ahí que otras agencias espaciales, como la NASA o la ESA, se hayan lanzado a firmar acuerdos de colaboración para aprovecharse de este enorme recurso para observar el cosmos. Pero, ¿cómo es este telescopio?

JAXA ha basado su Astro-H en la plataforma estrenada en ASCA y continuada en Suzaku, aunque con reformas. La estructura emplea un núcleo central que sirve de soporte para los módulos ópticos que montará, y alrededor de la zona baja de este núcleo se ha construido una estructura octogonal que alberga todo lo necesario para funcionar. El cambio principal entre los anteriores y Astro-H es el mismo núcleo, ya que en las dos misiones previas, éste era extensible para poder encajar en la cofia del cohete asignado. Con un mayor lanzador disponible, esta característica ha sido eliminada, aunque conserva la misma forma. Sus dimensiones son de 7 x 2 x 1.9 metros, por lo que es un aparato de unas dimensiones respetables. Todos los sistemas son los habituales de las misiones japonesas, desde el ordenador (con una capacidad de memoria de 12 gigabits), comunicaciones (bandas-S y -X), control de actitud (estabilizado en sus tres ejes, empleando los sistemas habituales, como dos escáneres estelares y ruedas de reacción entre otros elementos), generación de energía (con dos paneles solares de tres secciones cada uno, proporcionando una envergadura de casi siete metros), y control termal. La carga útil a bordo de Astro-H está compuesta de cuatro aparatos. Empezamos en los sistemas de rayos X blandos, y lo primero es hablar de sus módulos ópticos. Se tratan de dos módulos tipo Wolter 1 con un diámetro externo de 45 cm. cada uno, y con un diámetro interno de 11.6. Emplea nada menos que 203 vainas concéntricas elaboradas en aluminio con grosores de 152, 229 y 305 micrones, seguidos mediante replicación en epoxy y con láminas reflectoras de oro para incrementar la capacidad de reflexión. Alrededor de cada uno hay un bafle para evitar la entrada de luz no deseada, y un escudo termal para evitar que exceda las temperaturas de diseño, de unos 20º C, todo empaquetado en una carcasa que proporciona rigidez al conjunto. Los dos telescopios de rayos X blandos (construidos en el Centro de Vuelos Espaciales Goddard de la NASA), denominados SXT-1 (o SXT-I) y SXT-2 (o SXT-S), sirven cada uno a un instrumento. El SXI, la Cámara de rayos X Blandos, en un sistema que emplea cuatro detectores CCD, cada uno de 1280 x 1280 pixels de área efectiva, que emplea refrigeradores mecánicos para mantener su temperatura a entre -110 y -120º C. Se encuentra a una distancia de 5.6 metros detrás del módulo óptico, y permite obtener imágenes del universo X en un rango de 0.4 a 12 keV, que podríamos considerar habitual para esta serie de instrumentos. El SXS, el Espectrómetro de rayos X Blandos, se basa directamente del sistema desarrollado para Suzaku, que se averió al poco de su lanzamiento. Emplea un conjunto de microcalorímetros de silicio con absorbentes de mercurio y telurio, y sobre ellos, una rueda de filtros de diversas posiciones para enriquecer los análisis. Sin embargo, para obtener la alta resolución buscada, emplea un sistema de criorefrigeración de cuatro etapas, combinando tanto un criostato relleno de helio líquido superfluido como criorefrigeradores de ciclo Stirling de dos etapas y tipo Joule-Thompson, hasta alcanzar temperaturas superfrías. Su longitud focal es también de 5.6 metros, realizando espectros de muy alta resolución en la gama de entre 0.3 y 12 keV. El tercer sistema es el de rayos X duros. Este sistema es muy similar al de NuSTAR, ya que equipa dos módulos ópticos y dos conjuntos de detectores. Los dos HXT (HXT-1 y HXT-2) emplean también el tipo Wolter 1, con una apertura de 45 cm. frontal y 12 cm. trasera, 20 cm. de largo, y disponiendo de 213 vainas concéntricas de aluminio con un grosor de 0,2 milímetros. En total, cada telescopio está formado por 1278 elementos, que disponen de una
superficie reflectora multicapa de platino y carbono. Como las unidades de rayos X blandos, cada uno equipa escudos termales y un bafle de luz no deseada. En cuanto a las HXI, las Cámaras de rayos X Duros, emplean cuatro detectores de tira de silicio de doble lado y uno de cadmio-telurio, rodeados por sistemas de escudos anticoincidencia formados por 9 cristales de germanato de bismuto situados por encima, por debajo, y alrededor de los sensores, acoplados a un fotodiodo de avalancha como detector de luz de escintilación para rechazar rayos cósmicos. Este conjunto necesita una larga longitud focal, pero no encaja dentro de la cofia del cohete, de manera que se ha aplicado la misma fórmula que en NuSTAR, solo que a la inversa. Mientras que en el pequeño observatorio de la NASA la sección desplegable era la que poseía los módulos ópticos, en Astro-H lo que se despliega el plano focal en el que están los detectores. Esta sección se denomina Soporte Óptico Extensible, y para ello se emplea un mástil plegable y que se extiende una vez en órbita. Este mástil está fabricado de forma muy similar al de NuSTAR, por lo que es propenso a distorsiones provocadas por los cambios de temperatura. Para mantener el sistema continuamente alineado, se le ha equipado el CAMS, Sistema de Metrología Canadiense de Astro-H, formado por un módulo que conjuga un láser y un detector y un segundo módulo formado por retroreflector montado en el Soporte Óptico, además de una serie de motores para alinear el sistema. Con el sistema HXT-HXI desplegado, dispondrá de una longitud
focal inigualada de 12 metros, superior a las de Chandra y NuSTAR, y aumentando la longitud de Astro-H en 14 metros. El sistema completo se ha diseñado para funcionar en el rango de entre 5 y 80 keV, de manera que se espera poder conjuntar las imágenes creadas con este sistema y el SXI para poder observar un cuerpo celeste en un gran rango de energías de rayos X. El cuarto y último sistema a bordo de Astro-H es el denominado SGD, Detector de rayos Gamma Blandos. Este aparato está coalineado con los telescopios de rayos X, y transporta dos unidades idénticas, cada una fijada a la base del satélite. SGD se basa en cierta medida en el sistema HXD de Suzaku. Es lo que técnicamente se denomina una cámara Compton, que emplea el principio de dispersión del mismo nombre para obtener resultados. Los detectores son similares a los de la HXI, pero más densos y complejos, empleando 32 capas de detectores de silicio (grosor, 0.6 milímetros), seguidos por 8 capas de detectores pixelados de cadmio-telurio (grosor, 0.75 milímetros), estando a su vez rodeados por dos capas de más detectores de cadmio-telurio, también pixelados, empleando como sistema anticoincidencia también cristales de germanato de bismuto conectados a fotodiodos de avalancha. Cada sistema SGD dispone de tres conjuntos de detectores con sistemas anticoincidencia individuales, y esta configuración permite observar el universo en la gama de entre 40 y 600 keV, con la capacidad de determinar la posición de un objeto con precisión y analizándolo con alta resolución energética y temporal. Una vez a plena carga, la masa de despegue será de aproximadamente 2.7 toneladas.

El lanzador es el vehículo más potente del Japón, el H-IIA. Este cohete se ha convertido en el principal de JAXA, rivalizando en potencia y prestaciones con otros como el Ariane 5. Emplea dos etapas de combustible criogénico de oxígeno e hidrógeno líquido, incrementados por aceleradores de combustible sólido. Ha lanzado un montón de satélites al espacio (más recientemente el satélite de precipitación GPM Core, en colaboración con la NASA) así como las últimas sondas espaciales japonesas, Kaguya a la Luna, Akatsuki a Venus y Hayabusa2 a un asteroide NEO. Con prestaciones de sobra, lanzará tanto a Astro-H como diversas cargas útiles secundarias el próximo 12 de febrero. La órbita final de Astro-H será baja terrestre, circular, a una altitud de 575 km. y una inclinación orbital de más o menos 31º sobre el ecuador. Después de tres meses de verificación en órbita, comenzará su misión, de al menos 18 meses de duración.

El programa científico de Astro-H está dedicado a lo más extraño que existe allí arriba: tratará de revelar la imagen completa de los cúmulos galácticos y la distribución de materia y energía en ellos, permitiendo incluso obtener conclusiones sobre la expansión galáctica observando el crecimiento de estas estructuras; observar agujeros negros supermasivos ocultos y enterrados dentro de densos discos de polvo, para averiguar cómo manejan la creación y evolución galáctica; revelar el curvado relativístico del espacio-tiempo midiendo el movimiento de la materia en las cercanías inmediatas de un agujero negro; medir las condiciones físicas que se dan en las regiones que aceleran rayos cósmicos de energías extremadamente altas, para intentar comprender qué procesos crean rayos cósmicos, si por la energía de la gravedad, por colisiones o explosiones; y calcular la distribución y masa total de la materia oscura dentro de cúmulos galácticos en función de la distancia (y edad), e investigando el papel de la energía y materia oscura en la evolución de los cúmulos. Eso sí, el programa será más amplio.

Si os han surgido algunas dudas, hay que decir que, en el caso del SXS, una vez de agote su suministro de helio líquido, eso no evitará que el sistema siga en funciones, ya que los criorefrigeradores continuarán enfriando los calorímetros para poder prolongar las operaciones del aparato. Esta estrategia ya se usó con el telescopio infrarrojo Akari, y se espera que no exista pérdida de rendimiento. Otra duda es si funcionará en conjunción con otros observatorios de rayos X, y la respuesta será sí, ya que trabajará incluso con NuSTAR para así obtener más y mejor información.

Para acabar, solo comentar una cosa: con Astro-H, el Japón volverá a ser la referencia en cuanto a astronomía de rayos X se refiere, y que cuando esté seguramente en órbita, recibirá nombre definitivo, desprendiéndose de su hasta ahora aburrida denominación. Y suerte.

domingo, 10 de enero de 2016

Misión al planeta Tierra: Jason 3

Todo comenzó cuando la NASA, en 1979, empezó a preparar su misión TOPEX, el Experimento de Topografía Oceánica, cuyo objetivo era estudiar los océanos mediante la medición de la altitud de la superficie de las masas acuáticas. Casi al mismo tiempo, la agencia francesa CNES, comenzó los preparativos de su misión Poseidon, dedicada a la oceanografía, compartiendo  objetivos con el proyecto de la NASA. Pronto, ambas agencias se dieron cuenta de que estaban diseñando misiones para lo mismo, de manera que decidieron fusionar los proyectos, para así crear el satélite TOPEX/Poseidon. De esta manera, la NASA ponía el satélite (del mismo diseño empleado para los Landsat 4 y 5), el altímetro radar primario, un radiómetro de microondas, un receptor GPS y las antenas de Tierra, mientras que Francia proporcionó un segundo radar altimétrico a modo de prueba, un sistema de radiolocalización, y los servicios de lanzamiento. Lanzado el 10 de agosto de 1992 desde Kourou dentro de un Ariane 42P, con una misión primaria de unos tres años, TOPEX/Poseidon se convirtió en uno de los satélites más prolíficos y útiles jamás lanzados, trabajando sin problemas hasta que un fallo de hardware lo dejó inactivo en octubre del 2005. Los resultados fueron tan fantásticos, que la NASA y CNES se dieron cuenta que para comprender ciertos aspectos sobre los océanos necesitaban más información y durante escalas temporales mucho mayores, hasta de décadas. De esta manera, empezaron a preparar un satélite de nueva generación que sustituyera al veterano TOPEX/Poseidon. Así, el 7 de diciembre del 2001 la NASA puso en órbita a Jason 1. Elevado mediante un Delta 2-
7920 desde California, era un satélite que desplazaba casi dos toneladas menos que su antecesor. En esta ocasión CNES ponía el satélite, el altímetro y el sistema de radiolocalización, mientras que la NASA proporcionó el radiómetro, receptor GPS y un sistema de localización por láser. Desde los días después del lanzamiento hasta el fin de TOPEX/Poseidon, ambos satélites trabajaron a dúo, obteniendo así el doble de datos que con una única misión. Tras quedarse solo, continuó la labor, a la espera de que se lanzara un nuevo compañero. Eso ocurrió el 20 de junio del 2008, cuando se elevó OSTM/Jason 2 (también desde California, a través de un Delta 2-7320). Debido a la gran importancia de los datos adquiridos en los años anteriores, y aplicados a la predicción meteorológica, las agencias NOAA estadounidense y EUMETSAT europea solicitaron juntarse con la NASA y el CNES para poder hacer uso inmediato de los datos adquiridos y transmitidos por este satélite y así incorporarlo a los pronósticos del tiempo. Con estos cuatro 
compañeros de viaje, se formó la Misión de Topografía de la Superficie Oceánica (OSTM) centrada en el segundo satélite Jason. Es visualmente idéntico a su hermano, solo que con instrumentos más avanzados. Al igual que con TOPEX/Poseidon y Jason 1, solo que más largo en el tiempo, los dos Jason han estado trabajando a dúo recogiendo información sobre la topografía de los océanos, hasta que el transmisor superviviente de Jason 1 falló en el verano del 2013 y tuvo que ser desactivado. Tras 6 años desde el lanzamiento de OSTM/Jason 2, es el momento de situar un nuevo satélite allí arriba.

La necesidad de Jason 3 fue vista un año antes de la colocación en torno a la Tierra de OSTM/Jason 2, en el año 2007, para dar aún más continuidad al registro de datos sobre la topografía oceánica. Los 22 años continuados de toma de mediciones han tenido amplios beneficios que se han puesto en práctica en varios sectores: navegación marítima e industrias radicadas en el mar, predicción de huracanes, predicción de los fenómenos de El Niño y La Niña, monitorización de ríos y lagos, administración de la industria pesquera, investigación de los mamíferos marinos y de los arrecifes de coral, seguimiento de la basura echada al mar, y desde luego, los pronósticos meteorológicos y climatológicos, motivo por el cual NOAA y EUMETSAT son los líderes para esta misión. Sin embargo, existen otros temas científicos que con el tiempo han ido ganando en conocimiento, pero necesitan muchos más datos, tanto con mejor resolución como con una escala temporal mucho mayor. De esta manera, el lanzamiento sucesivo de misiones como Jason 3 proporcionarán nuevos productos de datos que serán incorporados a los ya obtenidos. La clave de esto es la continuidad. Si durante un mes se dejara de adquirir información, la pérdida sería irreparable.

Jason 3 es prácticamente idéntico a su antecesor en todo, de manera que su construcción es más sencilla y más barata. Con unas medidas de 1 x 1 x 3.7 metros, es un rectángulo construido en aluminio formado por dos secciones separadas: el bus, y el módulo del instrumental. El bus se basa en la plataforma PROTEUS (Plataforma Reconfigurable para la Observación, las Telecomunicaciones, y los usos Científicos), construida en Francia por Thales Alenia Space, y supone un cubo de 1 metro de lado, e incorpora los elementos esenciales de funcionamiento, tales como la computación, generación de energía, comunicaciones, control de actitud y termal. El ordenador se centra en un procesador MA 31750, con 128 kilo-palabras de 16 bits como memoria no volátil, 256 para la memoria RAM, y 3 gigabits en una RAM de almacenamiento masivo. Maneja todas las operaciones de a bordo, desde la recepción y distribución de comandos, hasta el envio de los datos científicos, pasando por la detección y recuperación de problemas. El sistema se complementa con grabadores de estado sólido. Contacta con los centros de control usando banda-S, mediante un transpondedor y dos antenas de media ganancia espirales. Estabilizado en sus tres ejes, utiliza una unidad de referencia inercial, dos escáneres estelares, sensores solares, ruedas de reacción unidas a un magnetómetro triaxial y sistemas de descompensación magnéticos, junto con el sistema de propulsión, que utiliza cuatro pequeños propulsores para elevar y mantener su órbita de trabajo. La energía, naturalmente, la recoge del Sol, mediante paneles solares simétricos. Cada panel dispone de cuatro secciones de 1.5 x 0.8 metros, consiguiendo una superficie activa total de 9.5 metros cuadrados. Una vez extendidos, le proporcionan a Jason 3 una envergadura de 9.7 metros, y la energía generada la almacena en baterías de níquel-cadmio. El control termal es el habitual en las misiones terrestres, es decir, mantas multicapa, radiadores y calentadores eléctricos. Todos los sistemas de la plataforma PROTEUS son plenamente redundantes, y este diseño se ha usado, además de en los anteriores Jason, en las misiones CALIPSO (NASA/CNES), SMOS (ESA) o COROT (CNES). En el módulo del instrumental, obviamente, se concentra todo el equipo científico. El principal es el Poseidon 3B, que es un 
altímetro radar de estado sólido que supone la cuarta actualización de este aparato, montado por vez primera en TOPEX/Poseidon. Con respecto a los anteriores sistemas, es más pequeño, consume menos energía, y es además más sensible y preciso. Unido a una antena emisora y receptora de 1.2 metros de diámetro que siempre apunta directamente hacia la Tierra, este sistema emite pulsos de microondas para que la superficie marina le devuelva el eco del haz emitido, en el que están reflejadas las irregularidades en la zona escaneada. Dispone de dos frecuencias. La primaria usa banda-Ku, y es la necesaria para las mediciones de la variabilidad de la topografía oceánica, mientras que la segunda, de banda-C está especializada para calcular la cantidad de electrones que pudiera alterar las mediciones realizadas por la banda primaria. A su vez, ambos sistemas en combinación son capaces de medir la cantidad de lluvia existente en la atmósfera. Gracias a estas mediciones es capaz de calcular la distancia entre el satélite y la superficie marina con un margen de error de apenas 2 centímetros. Este sistema es proporcionado por CNES. El segundo en importancia es el AMR-2, Radiómetro de Microondas Avanzado-2. Este sistema de tres canales tiene la misión de detectar la cantidad de vapor de agua atmosférica en la misma zona de visión del altímetro, debido a que este gas tiene la propiedad de interferir y dispersar las señales de radar emitidas y reflejadas, empeorando así las precisas mediciones (aumentando el margen de error de 10 centímetros en zonas de aire seco y frío a casi 50 centímetros en condiciones calurosas y húmedas). Es un instrumento mejorado del equipado en OSTM/Jason 2, que ya era una muy importante mejora sobre los sistemas anteriores, ya que incorpora toda la electrónica en un único paquete, reduciendo así el volumen, masa y consumo energético. Conectado a una antena situada en la sección frontal del satélite, utiliza sus tres frecuencias para distintos usos: una para detección y cálculo de vapor de agua, otra para estimar el contenido de líquido en las nubes, y la última para detectar las variaciones provocadas por el viento desde la misma superficie marina. Una vez unido a los datos del altímetro, es capaz de ver cómo y cuánta de la señal de radar es ralentizada por la atmósfera. El JPL es quien ha construido este aparato. Los tres siguientes están dedicados a determinar la posición exacta del satélite para dar contexto a los datos recogidos por el altímetro. El principal es DORIS, Orbitografía Doppler y Radio-posicionamiento Integrado por Satélite, es un sistema receptor (acoplado directamente al altímetro) que se dedica a sentir las emisiones de 60 radiobalizas colocadas en Tierra y, sintiendo las variaciones en la señal producidas por el efecto Doppler, el sistema es capaz de indicar, con un margen de error de 10 centímetros, la posición exacta. Es capaz de recibir dos señales a la vez, y los cálculos realizados por DORIS son transmitidos al Centro Espacial de Toulouse, donde la señal es procesada y la posición del satélite calculada. CNES se encarga de fabricar este sistema, y supone un nuevo diseño basado en lo aprendido en las misiones anteriores. El segundo es el GPSP, Equipo receptor del Sistema de Posicionamiento Global, y consiste en una antena de frecuencia dual tipo Blackjack (de nuevo diseño) de alto rendimiento capaz de captar 16 señales a la vez emitidas por la red de satélites GPS, consiguiendo un cálculo de la posición del satélite con un margen de error de 20 metros. Posteriormente, la información recogida por el receptor es transmitida al control de misión, donde un procesado a fondo consigue mejorar la precisión del cálculo permitiendo una precisión de entre 1 y 2 centímetros. Esta información además sirve para estudiar los efectos del campo gravitatorio terrestre sobre Jason 3 y así ayudar a caracterizarlo. Fabricado por Spectrum Astro Space Systems, es proporcionado por el JPL. Y el tercero es el LRA, Conjunto de Retroreflectores Láser, que está formado por nueve cristales de cuarzo conjuntados en una estructura circular situada en la cara del satélite que ofrece a la Tierra, y es sensible a los haces láser en la longitud de onda verde del espectro visible. Este instrumento se utiliza para servir de objetivo para las estaciones de seguimiento por láser, para después calcular el tiempo que tarda el haz de luz entre la emisión y la recepción, y a través de esto, posicionar de manera muy precisa el satélite en un punto muy concreto de su órbita. Este elemento solo se usa como calibración para los otros dos sistemas debido a la escasez de estaciones terrestres equipadas con emisores láser. Fue construido para el Centro de Vuelos Espaciales Goddard de la NASA por la firma ITE Inc. Además de esta instrumentación básica, como OSTM/Jason 2, dispone de cargas de pasajero, dos en este caso. Así, CARMEN3 (Caracterización y Modelización del Entorno, proporcionado por CNES), es un aparato para estudiar los efectos de la radiación que rodea al satélite en sus componentes electrónicos, mientras que el LPT (Telescopio de Partículas Ligeras, proporcionado por el Japón) cuantificará el nivel de radiación alrededor de Jason 3. Una vez preparado para el lanzamiento da un peso en Tierra de 505 kg.

Tiene previsto su lanzamiento desde la plataforma SLC-4E de la Base de la Fuerza Aérea en Vandenberg, California, el 17 de enero. Esta vez el lanzador escogido supone una alegre novedad, ya que es el ya famoso Falcon 9 v1.1 de SpaceX, célebre por (y especialmente diseñado para) lanzar a la ISS las naves de carga Dragon. Este lanzador, que ha dado muestras muy interesantes de fiabilidad, es un cohete de dos fases construidas de manera idéntica para ahorrar costes. La primera fase usa nueve motores Merlin 1D que consumen combustible líquido encerrado en un cilindro de 3.6 metros de diámetro. Respecto a la primera versión de este cohete, la adopción de una primera fase más alta y motores más potentes proporcionan una superior capacidad de elevar cargas a órbita baja terrestre, de 8.500 kg. a más de 13.000. El diseño de esta primera fase está influenciado directamente por los colosales Saturn V, por lo cual si un motor se apaga, el resto pueden continuar la misión sin afectar gravemente su rendimiento. La segunda fase solo dispone de un motor, del mismo tipo que los usados en la primera, salvo que con capacidad de encendido en el espacio. El lanzador se completa con una cofia protectora de 5.22 metros de diámetro y 13.9 de altura, más que de sobras para acomodar a Jason 3. El Falcon 9 ha sido construido con dos objetivos en mente: ser lo más fiable posible (lo que no quiere decir que renuncie a ser muy avanzado tecnológicamente), y sobre todo, para ser lo más económico posible. Así, es de de los pocos lanzadores del inventario de la NASA que se ensambla en horizontal (el método tradicional ruso), y luego se sitúa en posición vertical ya en la plataforma. Aunque es un cohete que puede competir en capacidad con los Atlas V y Delta 4, este es más barato.

Si el lanzamiento finaliza con éxito, Jason 3 estará casi en su órbita de trabajo, a 1336 km. de altitud, inclinada 66.05º con respecto al ecuador terrestre. Para alcanzarla, usará su propio sistema de maniobra para situarse en ella, y acabar justo detrás de OSTM/Jason 2, sesenta segundos por detrás de él. Allí estará durante seis meses, en el que pondrá a punto su instrumental para igualar la precisión de las mediciones que consigue su antecesor, a la vez que harán observaciones de la misma región del océano. Una vez finalizada esta calibración cruzada, OSTM/Jason 2 se moverá a una órbita paralela, dejando la que ocupaba al recién llegado, para así seguir la tarea incrementando y duplicando la cobertura de datos globales, de la misma manera que en las veces anteriores.

En realidad, esto comenzó en 1975 con la misión GEOS-3, para continuar con los proyectos Seasat en 1978 y Geosat en 1985. Aunque la información proporcionada por estos vehículos fue de una muy alta calidad, el escaso tiempo de funcionamiento no permitió sacar conclusiones destacadas. Los 
oceanógrafos, desde el comienzo de la era espacial, se agolpaban en la puerta de las sedes de las agencias espaciales con la petición de una misión que estudiara desde la órbita los océanos de manera global, ya que ellos, dentro de sus pequeños barcos, se volvían micos a la hora de conseguir la información necesaria, y encima, en regiones diminutas. Realmente una plataforma en torno a la Tierra permitiría llevar estos estudios a una escala nunca antes conseguida. Ahora, tras más de dos décadas de información continua, tenemos una cantidad ingente de datos sobre cómo funcionan los océanos, y los efectos sobre ellos a causa del cambio climático. Así, a la pregunta: ¿por qué estudiar la topografía de la superficie oceánica? Principalmente, para hacer un seguimiento de las corrientes oceánicas, el almacenamiento y transporte de la energía solar almacenada en los mares, la influencia de los océanos en el clima, mareas oceánicas y costeras, cambios de tendencia en la circulación oceánica, junto con lo ya comentado arriba. Además, gracias a la información recolectada, además tenemos otras cosas inesperadas e igualmente interesantes: dinámicas de los remolinos oceánicos (regiones en las que chocan las corrientes frías y calientes), así como la observación de los efectos sobre el mar de los tsunamis (principalmente el ocurrido en diciembre del 2004 en el océano Índico), que ha dado información muy valiosa para poder modelar y predecir 
futuros fenómenos como éste. Para ayudar en la continuidad de la toma de información sobre la topografía oceánica, a finales de octubre del 2013 se lanzó el satélite SARAL, un proyecto conjunto entre CNES y la agencia hindú ISRO, que equipa un novedoso altímetro radar sintonizado en banda-Ka, lo que hace innecesaria la ayuda de un radiómetro de microondas, aunque quedará bastante afectado por la precipitación, lo que probablemente lleve a perder un 10% de los datos. Situado en órbita polar, está suponiendo una continuidad para la información que estuvo obteniendo el altímetro de Envisat hasta que perdimos el gran satélite europeo en el 2012.

¿Qué por qué es tan importante el océano? Bueno, sencillamente, porque en su juego con la atmósfera, en cuanto al transporte de la energía solar se refiere, provoca en gran medida que el ecuador sea cálido y los polos estén congelados. A medida que la atmósfera, movida por los vientos, libera calor, éste último se almacena en los océanos, que es movido por las corrientes. Como las corrientes se mueven lentamente, y liberan el calor almacenado también muy despacio, su influencia sobre el clima es menor a corto plazo, pero muy importante a largo plazo. Así, las aguas ecuatoriales se cargan de calor, lo que las vuelve más ligeras y menos densas, luego empiezan a dirigirse hacia los polos, perdiendo el calor almacenado por el camino, hasta acabar transformadas en aguas más frías y densas, hundiéndose más profundamente en el océano, para hacer el camino inverso hasta el ecuador. Todo este efecto de almacenamiento y liberación a lo largo del espacio y el tiempo (hasta 1.000 años puede llegar a durar este proceso) es lo que maneja en gran medida el clima. Por esto es necesario ampliar lo máximo posible la escala temporal de las mediciones, para así conseguir conclusiones y modelos más precisos sobre los efectos que tuvo y va a tener sobre el planeta.


El programa de estudio de la topografía oceánica es uno de los más importantes que hay, y cuanto más en el tiempo se extienda, mejor conoceremos como funciona nuestro planeta. Y que conste en acta, Jason 3 no es la última misión con este objetivo. Todo lo contrario: la misión posterior a ésta irá un paso más allá en el conocimiento de la mayor característica de nuestro planeta. Como se suele decir, cuanto más, mejor.

jueves, 31 de diciembre de 2015

Resumen del año 2015

En fin, es el momento de resumir este año. Ya lo prometíamos el año pasado, y se ha cumplido con creces. Sí, nos referimos a la salsa de este año: la llegada de Dawn a Ceres y el importantísimo y emocionante sobrevuelo al sistema de Plutón por parte de New Horizons. El seis de marzo, su impulsión iónica depositó en órbita del mayor asteroide del cinturón principal a Dawn con gran 
suavidad, como ya hiciera en Vesta en el 2011. Desde entonces, y hasta ahora, le ha estado investigando desde diversas órbitas, estando ahora en la más baja, y allí se quedará, ya que en el momento en que su combustible se acabe, su misión concluirá. No sabemos cuándo pasará, pero todos esperamos que dure todo el año que viene. De Ceres, decir que es un lugar intrigante, más parecido a diversos satélites del sistema solar exterior que a los asteroides anteriormente investigados. Y el 14 de julio, con enorme ansia, alcanzamos y sobrepasamos la última terra incógnita del sistema solar. Tanto Plutón como sus satélites han sido revelados como cuerpos increíbles, y New Horizons nos ha entregado varias imágenes para la historia. Plutón es un mundo 
vivo, con casquetes helados en movimiento, posibles criovolcanes, pero también con marcas de sus primeros tiempos tras su formación, y envuelto en una tenue atmósfera de un fantástico color azul. Y sus satélites, Caronte revela una historia mucho más brutal de la que se suponía (sin olvidarnos ese parche oscuro que domina su superficie), y los más pequeños, siendo irregulares y caóticos. New Horizons está en descarga sistemática, por lo que los resultados llegarán periódicamente, aunque con cuentagotas, a lo largo del año que viene. Pero, a pesar de esto, hay otros lugares de interés en el sistema solar. Así, en Marte ha habido alguna cosilla de interés. En cuanto a las misiones orbitales, lo más importante es que MAVEN, con apenas un año de vida alrededor del planeta rojo, 
ha confirmado que el viento solar es el principal mecanismo que provoca su pérdida atmosférica. Mientras, la misión hindú MOM, tras superar sus objetivos tecnológicos, está proporcionando ciencia con la que completar lo que ya se sabe. En cuanto a los que ya estaban, siguen con sus tareas (Mars Odyssey sigue rompiendo récords y ha cambiado la orientación de su órbita) sin problemas notorios. Y por la superficie, tierras prometidas. Así, alrededor del cráter Endeavour, el Mariscal de Marte sigue practicando ciencia de altura, casi a punto de cumplir su DUODÉCIMO año continuado en la superficie, llegando al fin a su nueva meta, el prometedor Marathon Valley, que es donde está ahora indagando. Y todo esto, tras superar la distancia de la maratón, convirtiéndose en el vehículo autopropulsado que más distancia ha recorrido en un mundo distinto a la Tierra, dejando atrás la marca del rover lunar soviético Lunokhod 2. En la otra punta del planeta, Curiosity continúa recorriendo los estratos bajos del Aeolis Mons, con algunos problemas por el camino, pero que no han imposibilitado completar algunas investigaciones muy importantes, y otras que confirman lo que 
Spirit ya vio en el cráter Gusev: sílice en grandes cantidades, algo imposible si el agua corriente no interviene. Y por Saturno, hemos cerrado un capítulo de la exploración por allá, ya que Cassini ha practicado los últimos sobrevuelos cercanos a los satélites helados del Señor de los Anillos, incluyendo esa parte fundamental del Muro de las Rarezas que es Encélado, con su vigesimosegundo acercamiento practicado hace unos días. Y de resultados, lo más fascinante llega precisamente desde allí, ya que parece confirmarse que, bajo su helada superficie, existe un océano global de agua líquida que alimenta esos géiseres del polo sur. No nos podemos olvidar de lo que acontece en el cometa 67P/Churyumov-Gerasimenko. Junto con las cada vez más increíbles imágenes que nos entrega, Rosetta ha estado laborando a todo gas a lo largo de este año, que ha coincidido con el perihelio del cometa, el 13 de 
agosto, de manera que hemos sido testigos del despertar del cometa, desde un cuerpo pequeño y congelado con apenas actividad, a un sitio al que mejor no acercarse. Entre lo visto, los primeros cambios, casi en directo, en su superficie como consecuencia de la insolación procedente de nuestra estrella y la pérdida de material. Y no nos podemos olvidar de su pequeño complemento de superficie porque, a mitad de julio, la noticia, casi literalmente, estalló: Philae había despertado, pudiendo recibir sus primeras transmisiones desde que su batería se agotó en noviembre del año pasado. por desgracia, su comunicación con Rosetta ha sido intermitente e irregular, y ha sido imposible reanudar operaciones en la superficie. Seguiremos con los dedos cruzados. Mirando hacia el universo, son muchas las noticias que nos han llegado, desde los observatorios en operaciones, pero siempre son las de los exoplanetas los que copan titulares. El dominador sigue siendo Kepler, ya que ha localizado el 
primer planeta extrasolar similar a la Tierra orbitando a una estrella tipo Sol. El denominado Kepler-452b es mayor que nuestro planeta, aunque como consecuencia de esto, es posible que se parezca más a Venus que a la Tierra. También la gente del ESO ha dado un paso muy importante al conseguir, por primera vez, separar la luz emitida de una estrella de la luz reflejada por un exoplaneta, permitiendo obtener información nueva sobre ellos. Un paso adelante. Mucho más cerca, la ciencia terrestre sigue imparable, mostrando lo, por decirlo suavemente, poco cuidadosos que somos con nuestro planeta, además de poder ser testigos, mejor que nunca, del fenómeno del El Niño más potente desde 1997 que, a decir verdad, es ya más potente que el de aquella fecha. El caso es que ahora tenemos más y mejores satélites que antes, por lo que somos capaces de diseccionarlo para ver cómo influye al sistema terrestre por todos sus ámbitos. En cuanto a la lista de altas de este año, casi todos de ciencia terrestre: el instrumento CATS a la ISS, el satélite de humedad del suelo de la NASA SMAP (cuyo radar se averió pocos meses después del despegue, quedándose solo con el radiómetro), el 
esperadísimo Observatorio Climatológico de Espacio Profundo DSCOVR, mezcla de observador terrestre y sistema de alarma temprana de la meteorología espacial, que está entregando las primeras imágenes globales de nuestro planeta tomadas desde el punto L1, en cuarteto de satélites magnetosféricos MMS, a la búsqueda de la reconexión magnética para aplicaciones de meteorología espacial de física de partículas, el observador terrestre Sentinel-2A, para complementar y ampliar lo que los satélites Landsat nos proporcionan, el último satélite meteorológico europeo de órbita geoestacionaria de segunda generación, el MSG-4, el observatorio astronómico hindú multilongitud de onda Astrosat, y el demostrador tecnológico europeo LISA-Pathfinder, que pretende demostrar, a pequeña escala, la instrumentación necesaria para poder detectar desde el espacio ondas gravitacionales. Pero siempre que hay altas, debe haber bajas, y este año ha habido tres, dos esperadas, y una imprevista. El gran satélite de precipitación TRMM, tras agotar su combustible, provocando su final reentrada, el adiós inesperado a la conjunción Aquarios/SAC-D, por avería en un sistema crucial, y el más triste de todos, el fin de misión de MESSENGER en Mercurio. Una misión que ha rozado la perfección en
todas sus etapas, sin sufrir averías, después de practicar maniobras impensables, entregando información hasta el amargo fin, y proporcionando mucho más de lo prometido inicialmente, por lo que el planeta que ha dejado es, si cabe, más apasionante de lo que cualquiera podría haber imaginado. Tardaremos en volver, pero lo haremos. Y han ocurrido también diversas cosas. Por ejemplo, la ESA es ya la cuarta organización espacial con capacidad de reentrada, después de un vuelo sin tacha por parte del vehículo IXV. Este vehículo no es más que un precursor de futuras naves capaces de dar servicio a satélites y volver, sin necesidad de tripulación. En los frentes de la ISS, un par de piedras por el camino. Si el año anterior la explosión del lanzador Antares impedía que la nave de carga Cygnus cumpliera su tercera misión oficial de abastecimiento, este año les ha tocado a los otros dos de vuelo regular, primero a una Progress rusa (la etapa superior colisionó con ella, averiándola gravemente, para después reentrar) y después a la nave Dragon de SpaceX, cuando la segunda etapa del Falcon 9 explotó en vuelo como consecuencia de la inundación del helio en los tanques de combustible. Por suerte, este ponente cohete ha vuelto a volar recientemente, con éxito, y con el añadido fantástico de poder aterrizar la primera etapa después de cumplir su misión, como uno de los pasos necesarios para poder reutilizarlas. Sobre el progreso de las naves comerciales para transporte de tripulación, progresan adecuadamente, pasando SpaceX una prueba importante, el test de abortamiento el plataforma de su vehículo, mientras que la torre de acceso para la nave de Boeing CST-100 Starliner toma forma. Más recientemente, el Japón ha triunfado dos veces, ya que su misión Hayabusa2 practicó sin problemas su sobrevuelo a nosotros, poniéndose en ruta hacia el asteroide Ryugu en el que, como su desdichada hermana, recogerá muestras de su superficie para entregarlas, y poco
después, la resucitada sonda venusina Akatsuki, cinco años después de su primer intento, ha entrado, al fin, en órbita de su destino. Estando en una órbita gigantesca, podrá cumplir casi todos sus objetivos de proyecto. Lo merece. Y mientras, el más veterano observador solar, el excepcional observatorio solar SOHO ha cumplido 20 años desde su lanzamiento, siendo ya el que más tiempo lleva enseñándolos a Helios. Y entre todo lo que ha visto, el descubrimiento de más de 3000 cometas, convirtiéndose en el más fructífero de la historia en este sentido. Y otras cosas de las que no nos acordamos. Y todo lo que nos espera en el 2016: el séquito marciano a lo suyo, el último año completo de Cassini en torno a Saturno, el inicio de las operaciones de Akatsuki en Venus, el fin de misión de Rosetta en el 67P (que promete ser espectacular), la llegada de Juno a Júpiter, la descarga sistemática de todo lo que todavía está en el cofre del tesoro de New Horizons, y el lanzamiento de más misiones: más satélites clase Sentinel (al menos tres, puede que cuatro), el observador de vientos europeo ADM-Aeolus, la constelación medidora de vientos CYGNSS, un nuevo y potentísimo satélite GOES, la primera parte del nuevo programa marciano ESA-Roscosmos (el orbitador ExoMars TGO y su lander Schiaparelli), la misión asteroidal clase New Frontiers OSIRIS-REx, y el que será la referencia en la observación de los rayos X, el observatorio japonés Astro-H. Será sin duda interesante, y estaremos aquí para relatarlo. 

Ventana al Espacio (LXXVIII)


El cúmulo estelar Westerlund 1, desde Swift

martes, 1 de diciembre de 2015

Las próximas misiones a Venus: Akatsuki

El Japón se inició tarde en esto de lanzar sondas espaciales, y se arrancó enviándolas a pares. Estos dos primeros vehículos eran Sakigake y Suisei, miembros de la armada del Halley, que llegaron a las cercanías del cometa en marzo de 1986. En la década de 1990 lanzaron dos: la tecnológica Hiten a la Luna, y la enormemente científica Nozomi, con rumbo a Marte, pero que por desgracia, a causa de problemas propios y ajenos, no llegó a su destino como se había previsto. En el 2003 puso en el espacio su primera misión hacia un asteroide, la caótica Hayabusa que, a pesar de todos los problemas y averías que sufrió, entregó una pequeña muestra del asteroide Itokawa. Y después, con destino a la Luna, la gigantesca sonda Kaguya, que completó un programa muy científico alrededor de Selene. De esta manera, viendo la lista, de los objetivos “fácilmente” alcanzables en el sistema solar interior, falta uno. Nos referimos, como está claro, al planeta más cercano a nosotros: la diosa de la belleza, Venus.

Como el segundo planeta al que más sondas espaciales hemos enviado, el segundo planeta del sistema solar todavía es un misterio, y lo es principalmente por esa densa capa de nubes que lo cubre completamente. Una cámara convencional no puede observar la superficie si no está allí mismo, de manera que la única forma aceptable es usar sistemas de radar tipo SAR. Con la superficie ya ampliamente conocida, el enfoque ha pasado a la atmósfera. El objetivo de la misión europea Venus 
Express se centró casi exclusivamente en esta parte de Venus, y nos ha proporcionado información muy valiosa. Por desgracia, la misión acabó, y aunque todavía hay mucho que rascar en este sentido, sigue dejando misterios. La característica más notoria de las nubes venusinas es que tardan unos cuatro días en dar una vuelta completa al planeta (lo que se conoce técnicamente como súper rotación), por lo que es de suponer que la velocidad del viento en altitud es enorme. Si bien a ras de superficie la velocidad del viento es casi nula, más arriba la atmósfera es bastante dinámica, pero no se comprende del todo. Cuando las agencias espaciales japonesas iniciaron el planteamiento de una misión allá, enfocaron su vista en tratar de entender esta dinámica, a la usanza de los satélites meteorológicos terrestres.

El proyecto arrancó bajo la denominación provisional de Planet-C, como la tercera de la saga (siendo Planet-A la cometaria Suisei y Planet-B la marciana Nozomi), en el año 2002, y después de definir sus objetivos, recibió una denominación más clara: Venus Climate Orbiter, o VCO. El proyecto avanzó progresivamente, no a la carrera, y para avanzar un poco en tecnología, decidieron acoplar desarrollos en propulsión y comunicaciones para reducir masa e incrementar su tolerancia al calor. No fue hasta el 2009, un año antes del lanzamiento, que recibió su nombre definitivo de Akatsuki, amanecer en japonés, haciendo referencia a que Venus es conocido por ser el lucero del alba. Con un, en apariencia, equipo científico compuesto por cinco cámaras en distintos rangos de visión, el propósito es averiguar por qué se produce la súper rotación de Venus y, globalmente, investigar la meteorología y la climatología del planeta.

Akatsuki es una sonda de dimensiones comedidas, con un bus que posee unas medidas de 1.04 x 1.45 x 1.40 metros, siendo sus únicos apéndices sus paneles solares. Se ha diseñado para tolerar el calor en y alrededor de la órbita venusina, por lo que se equipó con mantas multicapa de color dorado para evitar la entrada de exceso de calor en el interior de la sonda, además de otros elementos habituales en sondas con destino a este lugar del sistema solar. Está estabilizada en sus tres ejes, empleado los sistemas habituales, véase dos escáneres estelares, sensores solares, dos unidades de medición inercial, un grupo de ruedas de reacción, además de propulsores de maniobra para apoyar a estas últimas. Su ordenador es común al de sondas anteriores, por lo que está más que probado en el espacio profundo. Su propulsor principal es una de las novedades. Si bien la configuración del sistema es convencional (propulsión química quemando hidracina como combustible y tetróxido de nitrógeno como oxidante), la tobera del motor es de nuevo diseño. A diferencia de propulsores similares, la de Akatsuki se construyó a partir de materiales cerámicos, por lo que no solo resulta capaz de aguantar en el caluroso entorno venusino, también puede soportar un encendido durante más tiempo. Otros propulsores de a bordo solo usan hidracina, y se distribuyen en dos grupos, ocho para maniobras de corrección, y cuatro para cambios de actitud y desaturar las ruedas de reacción. Otras novedades llegaron en su sistema de comunicaciones. Trabaja en banda-X, esto no es novedad, pero para una misión japonesa sí lo es el equipar una antena de alta ganancia del tipo conjunto de fase, el mismo empleado a bordo de la sonda mercuriana MESSENGER. En este caso es un disco de 1.6 metros de diámetro, fijado en la cara opuesta a la del motor principal, y su principal ventaja es que no hace falta variar la posición de la sonda para emitir sus señales a la Tierra, ya que un sistema electrónico se encarga de apuntar el haz de comunicaciones hacia donde debe. Acompañado a esto se encuentra un transpondedor de medición regenerativa, una tecnología solo usada en New Horizons para impulsar la fuerza de su señal. Además de la de alta ganancia, posee de dos de media ganancia, y dos de baja ganancia. Estas últimas están fijas sobre la estructura, y las primeras, de tipo cuerno, se sitúan en plataformas pivotantes. Las de baja ganancia solo se usan para recibir comandos, mientras que las otras tres exclusivamente para emitir telemetría y datos científicos. La energía la recoge del Sol, empleando sus paneles solares rotatorios, que totalizan 1.4 metros cuadrados de superficie activa, alimentando los sistemas de la sonda, y (por primera vez en una sonda espacial japonesa) cargando baterías de ión-
litio. En total son seis experimentos científicos los que realizará, empleando cinco cámaras y su sistema de comunicaciones. IR1, cámara de un micrón, es un sistema infrarrojo que detectará las radiaciones en esta longitud de onda. Emplea un sistema refractivo f/4 de 84.2 milímetros, y frente a la óptica hay un enorme bafle que evita la entrada de luz no deseada. Sirve a un sensor CCD de silicio de 1040 x 1040 pixels (solo 1024 x 1024 utilizables) sensible al infrarrojo, y emplea una rueda de filtros de diversas posiciones para enriquecer sus mediciones. A pesar de su nombre, detecta el infrarrojo alrededor de un micrón, en cuatro bandas distintas: 1.01 micrones (para ver la superficie y las nubes bajas por la noche), 0.97 micrones (observación nocturna de vapores por la superficie), 0.90 micrones (propósitos idénticos que el canal de 1.01 micrones) y 0.90 micrones (para ver las nubes durante el día) con resoluciones que varían de los 16 km. a 80.000 km. de distancia a los 6 km. desde aproximadamente 31.000 km. Durante el día tratará de ver nubes de los niveles bajos y medios de la capa global, con la intención de obtener los perfiles de viento con una razonable exactitud. Por su parte, durante las observaciones nocturnas, detectará la radiación termal que se origina principalmente desde la superficie, y también un poco de las zonas más bajas de la atmósfera. De esta forma, podrá caracterizar las propiedades superficiales, y sobre todo, podrá denunciar la presencia de volcanes activos. Una ventaja del sistema es que no emplea refrigeración activa. IR2, Cámara de 2 micrones, resulta casi idéntica a su antecesora, solo que registra una longitud de onda distinta. El sistema óptico es una réplica del anterior, solo varía la posición de la rueda de filtros de seis posiciones (solo cinco utilizables), el tipo de CCD (de silicio y platino), el envoltorio alrededor del sensor, y la utilización de refrigeración activa mediante un criorefrigerador de ciclo Stirling de una etapa. Son en total cinco longitudes de onda alrededor de los dos micrones: 1.735 micrones (para visión nocturna de las nubes y la distribución del tamaño de partículas), 2.26 micrones (igual que la anterior), 2.32 micrones (para detectar monóxido de carbono por la zona nocturna), 2.02 micrones (observación diurna de la capa superior de nubes) y 1.65 micrones (para observaciones de la luz 
zodiacal durante la fase de crucero). Este sistema está especializado en observar la atmósfera en el rango de altitudes de entre 35 y 50 km. de la superficie, usando principalmente la longitud de onda de los 2.26 micrones para seguir los movimientos de las nubes, intentando obtener mapas de viento por encima de los 50 km. de altitud. Por su parte, su seguimiento del monóxido de carbono permitirá saber a dónde va, después de ser originado sobre la capa de nubes, algo que se desconoce actualmente. También permitirá conocer, en conjunción con IR1, las variaciones espaciales y temporales en el tamaño y densidad de las partículas de las nubes para saber de qué moléculas están compuestas. Un bonus adicional es poder observar la variación en la altitud de la capa superior de nubes con respecto a la radiación solar que recibe. Y por último, la banda de detección de luz zodiacal apunta a observar la nube de polvo interplanetario para tratar de averiguar su origen construyendo una representación de distribución tridimensional de estas moléculas espaciales. UVI, Cámara UltraVioleta, es un sencillo sistema de campo ancho completamente refractivo diseñado para capturar todo el globo venusino en su sensor, un detector CCD de silicio de 1024 x 1024 píxels, con resoluciones que varían de los 16 km. a 80.000 km. de distancia a los 6 km. desde aproximadamente 31.000 km. El ultravioleta es importante ya que es el principal detector para ver la estructura de la capa superior de nubes, vista por primera vez por Mariner 10 en febrero de 1974. El sistema dispone de una rueda de filtros, con solo dos posiciones utilizables científicamente: 283 nanómetros, para la detección de dióxido de azufre en la capa superior de nubes, y 365 nm, para la detección del absorbente misterioso de la luz ultravioleta. El propósito es observar la formación de las capas superiores de nubes (hasta una altitud de 65 km.) siguiendo el dióxido de azufre, y a partir de ahí, detectar sustancias químicas no identificadas que absorben el ultravioleta, para después construir mapas de la distribución de la velocidad del viento a la altitud de las capas más altas de la cubierta de nubes. El descubrimiento de ese absorbente del ultravioleta misterioso sobre todo dará pistas acerca de la química atmosférica, y también acerca del equilibrio energético y la dinámica atmosférica, ya que influye en la luz reflejada (albedo) y en el perfil de calentamiento de la atmósfera. Además, observando el limbo planetario, registrará la distribución vertical de las partículas tanto de las nubes como de la capa de neblina que existe sobre la capa de nubes principal. LIR, Cámara de Infrarrojos de longitud de onda Larga, se centrará en observar el planeta tanto de día como de noche. Como UVI, es un sistema refractivo de campo ancho (f/1.4) con un módulo de lentes de germanio para poder obtener imágenes de todo el globo venusino, con resoluciones que varían de los 70 km. a 80.000 km. de distancia a los 26 km. desde aproximadamente 31.000 km., protegido por un bafle para evitar la luz solar no deseada. El detector es un conjunto de microbolómetros (no necesitan refrigeración activa), similar al del sensor THEMIS-IR de Mars Odyssey, formando un sensor de 320 x 240 pixels (solo se usan 240 x 240). Dispone de un obturador mecánico, y se ha diseñado para tomar varias decenas de imágenes cada pocos segundos para componer una representación de los datos más clara. Sensible al infrarrojo en el rango de entre 8 a 12 micrones, cartografiará la temperatura en la capa superior de nubes venusinas, mostrando la distribución de la altitud de las nubes y la de la temperatura atmosférica. El propósito es detectar células de convección y olas en la cubierta de nubes. Cuantas más imágenes acumule, más información obtendrá para construir vectores de viento en ambas caras de Venus, siendo los que elabore en el hemisferio nocturno una novedad. Estos cuatro sistemas están controlados por la Unidad de Electrónicas Digitales de los Sensores, generando los comandos para los cuatro sistemas, para después procesar y comprimir los datos, para almacenarlos en un grabador de datos con capacidad de 512 MB. El último sistema de visión, LAC, Cámara de Rayos y Brillo de aire, es un sensor de alta velocidad con el propósito de observar los flashes provocados por las descargas de rayos en el hemisferio nocturno del planeta, además de ver el brillo de aire de diversos componentes en las capas altas atmosféricas. LAC también es un sistema de campo ancho, pero este emplea un espejo, con una inclinación de 45º, para llevar la luz que recoge a su sensor. Lo curioso es que en la apertura, tras el filtro de banda ancha que equipa, hay una lente que divide la luz, de manera que cuando estos dos haces de luz rebotan en el espejo, alcanzan secciones distintas del sensor, creando imágenes que poseen resoluciones que varían de los 35 km. a 1000 km. de distancia a los 850 km. desde aproximadamente 18.500 km. El detector es un fotodiodo de avalancha multiánodos, con una matriz 8 x 8 de píxels de 2 milímetros cuadrados. Una sección de la matriz de 4 x 8 es la diseñada para detectar los flashes de los rayos a una longitud de onda de 777.4 nm, mientras que para el brillo de aire utiliza secciones de 1 x 8 para las longitudes de onda de 552.5, 557.7 y 630 nm a partir de filtros de interferencia rectangulares. Además, hay una última sección de 1 x 8 sintonizado a 545 nm para obtener imágenes de fondo libres de brillo de aire. La banda de los 557.7 nm está centrado en la detección de brillo de aire de oxígeno atómico, y las otras dos para oxígeno molecular. El propósito de LAC es observar al fin los flashes de rayos que, se cree, que existen, mediante exposiciones de 30.000 veces por segundo, ya que otros sensores a bordo de otras sondas espaciales, han registrado fenómenos asociados a ellos. Todo esto nos proporcionará información acerca de cómo se cargan, cómo descargan, de la física de las nubes de ácido sulfúrico, la meteorología a mesoescala, y su impacto en la química atmosférica, además de estudiar el fenómeno de ascenso de las regiones de las nubes para monitorizar la convección vertical en las capas de las nubes. En cuanto a las mediciones de brillo de aire, realizando una cada 20 segundos, se centrarán en la termosfera, donde se producen estos fenómenos mediante la recombinación del oxígeno atómico mientras desciende, además de tratar de ver en la atmósfera estructuras tipo olas creadas por ondas de gravedad, posiblemente relacionadas con la conexión entre las atmósferas baja y alta. Y para acabar, su experimento de radiociencia centrado en un oscilador ultraestable (USO), con el objetivo de sondear la atmósfera para construir mapas de la estructura termal a partir de las diferencias de temperatura medidos a partir de los cambios de frecuencia e intensidad de las señales de radio emitidas desde la sonda a las antenas terrestre cuando pasan por la atmósfera venusina. Además, permitirá conocer la cantidad de vapor de ácido sulfúrico así como de la densidad de electrones en las capas altas atmosféricas. En el momento del lanzamiento daba un peso en báscula de 517.6 kg.

Como hemos dicho, el ámbito de exploración primario de Akatsuki es obtener mediciones de la atmósfera y su capa de nubes global. Con este equipo, conseguirá un perfil tridimensional de la dinámica atmosférica venusina, viendo así toda su atmósfera en movimiento por primera vez. El programa científico se centra en estas preguntas: ¿por qué ocurre la súper rotación?, ¿cómo funciona la circulación en el plano meridional?, ¿cómo se forman las nubes?, ¿se producen rayos y truenos?, y ¿hay volcanes activos? Una vez se contesten a estas preguntas, los científicos esperan entender lo siguiente: movimientos de las ondas y de las corrientes turbulentas que contribuyen a la súper rotación; la estructura de la circulación en el plano meridional; la circulación de sustancias en la capa de nubes y su papel en mantenerla; distribución espacio-temporal de la descarga de rayos y su generación; y distribución espacio-temporal del brillo de aire y la circulación de las capas de la alta atmósfera. Para ello la sonda debía colocarse en una órbita retrógrada altamente elíptica de 300 x 80.000 km., con una inclinación de 172 grados con respecto al ecuador venusino, tardando en completarla 30 horas.

El lanzamiento se produjo desde el Centro Espacial de Tanegashima el 20 de mayo del 2010, a bordo del lanzador más potente del Japón, el H-IIA. Después de cumplir su misión, la etapa superior liberó tanto a Akatsuki como una vela solar, de nombre IKAROS, con rumbo de transferencia al planeta nuboso. Pocos días después, a modo de prueba, varios instrumentos de Akatsuki fueron encendidos, tomando secuencias de la Tierra, demostrando un rendimiento estupendo.

El viaje de crucero fue tranquilo, por lo que la gente de la misión de Akatsuki tuvo tiempo de ponerlo todo a punto para el gran evento de la inserción orbital. Entre todas las cosas, una prueba de encendido del propulsor principal, con un rendimiento satisfactorio, tanto en funcionamiento del sistema como de la resistencia de la tobera cerámica. La fecha para la inserción orbital se fijó para el 7 de diciembre del 2010, y llegado el momento, con los comandos a bordo, la sonda inició la maniobra autónomamente. El centro de control tuvo confirmación del inicio de la maniobra, que debía durar 12 minutos, y poco después pasó por detrás de Venus, bloqueando las señales. En el momento en que Akatsuki debía reemerger desde el otro lado del planeta, no apareció. El pánico empezó a surgir, y buena parte de las antenas de espacio profundo existentes en el mundo empezaron a buscar. Una antena consiguió localizar las señales de la sonda, y un análisis de ésta mostró que estaba más allá de Venus, en rumbo de alejamiento del planeta. No solo eso, ya que, una vez se vio que comunicaba a través de una de las antenas de baja ganancia, había entrado en modo seguro, y rotaba sobre sí misma con una revolución cada 10 minutos. A causa de la lentitud de las señales de radio transmitidas, resultó inicialmente complicado saber lo que había pasado. De esta forma, se anunció que la sonda había fallado en su objetivo en insertarse en órbita venusina, declarando inicialmente la misión por perdida.

Tras devolverla a modo de crucero normal, comenzó el volcado de la telemetría grabada durante el evento. Al tiempo, se comprobó el estado de los instrumentos, y las imágenes devueltas demostraron que seguían en buen estado. Después de analizar lo ocurrido, se llegó a una conclusión: parte del helio presurizante del sistema se había infiltrado en los conductos de transferencia, congelándose, y quedándose fijada en la válvula de paso. En el proceso de pasar el combustible del tanque a la cámara de combustión, la válvula no se abrió completamente, por lo que la cantidad de combustible que llegaba al motor era insuficiente, entregando una potencia inferior a la esperada. Por ello, la sonda detectó una anomalía y, como consecuencia, entró en modo seguro. Dos pruebas posteriores demostraron que la potencia entregada por el propulsor había caído al 8% de la de proyecto, por lo que era imposible usarlo de nuevo. Sin embargo, a pesar del problema, la sonda funcionaba dentro de los parámetros, por lo que a pesar de lo anunciado anteriormente, se empezó a preparar todo para, en el año 2015 o 2016, intentar de nuevo la inserción orbital.

Otro problema apareció tras el intento fallido y el sobrevuelo practicado. El paso cercano a Venus generó un cambio orbital que llevó a la sonda a aproximadamente la distancia media entre las órbitas de Mercurio y Venus, de manera que tendría que soportar temperaturas más altas de las previstas. De esta forma, tuvieron que desarrollar técnicas para manejar la sonda con cuidado en y alrededor de los
perihelios, además de métodos para alargar su vida previa al segundo intento de inserción orbital, como por ejemplo colocarla en hibernación. Entre tanto, después de tanto dar vueltas alrededor del Sol, y aunque parezca raro, ha proporcionado un resultado interesante acerca del viento solar. Utilizando la presión de este flujo de partículas como método de navegación y control de actitud, y forma de reducir su velocidad orbital, parece que en una zona aproximada situada a unos 5 radios solares (aproximadamente 5 millones de km. de su superficie) hay una suerte de aceleración anómala de este viento solar. Parece que la causa de esto es un súbito calentamiento provocado por una fuente de energía asociada a las ondas generadas por el propio viento solar. Casi nada.

Desde después del problema a esta parte, los ingenieros de Akatsuki han estado ideando la forma de volver a intentar la entrada en órbita. Con el motor principal fuera de la ecuación, la única forma aceptable era usar el resto de propulsores, básicamente el grupo intermedio. Para permitirlo, previamente se expulsó al espacio el helio del sistema presurizante, haciendo la sonda más ligera para así usar menos combustible. Si bien inicialmente había, de acuerdo con lo dicho, dos oportunidades (2015 y 2016), los científicos preferían esta segunda fecha, ya que afirmaban que permitirían colocar la sonda en un perigeo cercano al de proyecto. Sin embargo, al emplear el rozamiento del viento solar para frenarla, como si de una vela se tratara, se ha visto que Akatsuki ha perdido más velocidad de la esperada, de manera que el intento se producirá este próximo 7 de diciembre, exactamente cinco años después del intento inicial. Sin embargo, han anunciado que esta será el último intento. Usar los propulsores intermedios será tan estresante para todos los componentes, que no se garantiza que la sonda pueda sobrevivir a otra maniobra. Todas las correcciones ejecutadas para situarla en el corredor de inserción orbital la han puesto en rumbo, y tras soportar su noveno (y esperemos que último) perihelio, todos los esfuerzos se centrarán en los preparativos de la entrada en órbita.

Todos estaremos con los dedos cruzados el 7 de diciembre, deseando una inserción orbital tranquila esta vez. Eso sí, a consecuencia de la utilización de la propulsión intermedia, la órbita estará lejos de ser la pretendida. Si bien el perigeo será parecido al de proyecto, se calcula que su apogeo quedará a una distancia de entre 300.000 y 400.000 km. Akatsuki se quedará en esa enorme órbita para cumplir el programa científico, que ha sido revisado para acomodarse a esa órbita tan elíptica. Así, este apogeo tan distante provocará que la sonda observe durante más tiempo el globo venusino (a altitudes superiores a los 61500 km.) para así comprender sus nubes, su atmósfera profunda y su superficie. Por debajo de esa distancia, el programa está esencialmente sin cambios.

Serán dos años de misión los que le esperan, y a pesar de la distancia, se espera conseguir la construcción de un modelo meteorológico para comprender cómo funciona el clima de un planeta tan parecido pero tan diferente a la Tierra. Lo dicho, estaremos con los dedos cruzados para que llegue esta vez sin problemas. Mucha suerte.