Phoenix, un tributo

lunes, 14 de julio de 2014

Lo que sabemos (ahora) de Plutón

Falta exactamente un año para el gran momento, quizás, de nuestras vidas. La llegada a la última frontera del sistema solar, la última terra incógnita de nuestra parcela galáctica. Porque sí, hablamos de Plutón que, tanto para esta crónica como para la gente de la misión que está a punto de llegar allá es, ha sido, y será el noveno y último planeta del sistema solar. Por ello, este es el mejor momento para hacerse esta pregunta: antes de que lo alcance y obtenga información, ¿qué sabemos de Plutón, y más generalmente, de su sistema?

Desde su descubrimiento en 1930, la exploración de Plutón ha estado condicionada por dos factores: su enorme lejanía a nosotros (lo que le hace ser un objeto particularmente débil) y su reducido tamaño (que contribuye a su escaso brillo). A pesar de ello, los astrónomos de aquellos días fueron capaces de computar su órbita, su distancia al Sol y su inclinación con respecto a la eclíptica. La siguiente gran noticia que llegó desde la lejanía fue que este pequeño planeta tenía una luna. Encontrada en 1978, en las imágenes no era más que una suerte de “grano” que aparecía de vez en cuando sobre el disco planetario. Y en 1985, tras una ocultación estelar, astrónomos usando el Observatorio Aerotransportado Kuiper detectaron una atmósfera sobre el planeta.

La primera vez que vimos el sistema Plutón-Caronte como dos cuerpos separados fue tras el lanzamiento del telescopio espacial Hubble en 1990, y este gran observatorio ha sido el que más nos ha proporcionado acerca de este rincón lejanísimo del sistema solar. Ha hecho dos mapas de la superficie de Plutón, en 1994 y en los años 2002 y 2003, encontrando diferencias notables en el brillo superficial. Pero lo mejor ha sido el descubrimiento de cuatro satélites adicionales. Nix e Hydra localizados el 15 de mayo del 2005, Kerberos el 28 de junio del 2011 y Styx el 26 de junio del 2012. Estos descubrimientos han provocado el miedo en el equipo de la misión New Horizons de que pueda existir alguna nube de restos, una suerte de anillo rodeando el planeta. De momento se atienen al plan inicial, pero si de aquí a pocas semanas de la máxima aproximación se confirma su presencia es probable que haya que alterar la misión en cierta medida.

El sistema de Plutón orbita en torno al Sol en aproximadamente 248.09 años (que nadie espere cumplir años allí) en una órbita con un perihelio situado a 4.437 millones de km. (casi 30 unidades astronómicas) de Helios y un afelio de 7.311 millones de km. (casi 40 unidades astronómicas), en una órbita inclinada 17.1º con respecto a la eclíptica. Lo extraño de la órbita no es su excentricidad o su inclinación, sino que durante 20 años su órbita es más interior que la de Neptuno, y el último periodo en que esto sucedió ha sido recientemente, entre el 7 de febrero de 1979 al 11 de febrero de 1999, pero no hay que preocuparse. Como la inclinación orbital de ambos planetas es tan distinta, nunca colisionarán. Pero es más, Neptuno y Plutón tienen una resonancia orbital 3:2. Queda claro que para llegar allí no es fácil ni rápido.

Su diámetro aproximado es de 2306 km., aunque existe una incertidumbre de unos 20 km. arriba o abajo sobre las dimensiones exactas del planeta. Rota sobre sí mismo en 6.39 días, y como ya hemos comentado alguna vez, es el mismo tiempo que tarda Caronte, su mayor satélite, en rodearlo, y también es lo que tarda en dar una vuelta sobre sí mismo. Esto provoca que ambos cuerpos se ofrezcan siempre la misma cara el uno al otro. Lo más extraño es que todo el sistema orbita alrededor de un baricentro. Al igual que el sistema Tierra-Luna, todo su sistema rota alrededor de un punto imaginario en el centro de su esfera 
de influencia. Aquí apenas se nota porque el baricentro está dentro de la propia Tierra. Allí los seis cuerpos orbitan alrededor de ese baricentro de manera que Plutón parece que bambolea a medida que rota sobre su eje, inclinado 120º respecto a la vertical. Su densidad media, calculada gracias a la influencia gravitacional de Caronte, nos indica que existe una apreciable cantidad de hielo y una importante cantidad de roca, que podría ir de un 50-50 % en la distribución de material a un 70% de roca y un 30% de hielo, aunque estas son solo estimaciones brutas. A partir de esto se nos indica que el tamaño del núcleo de Plutón es aproximadamente un 70% del radio total del planeta.

La atmósfera de Plutón es extremadamente delgada, todavía más que la de Marte. Mientras la Tierra la presión media es de 1.000 milibares (un bar), la de Marte es de unos 6 milibares, y la de Titán, el satélite gigante de Saturno es de 1.600 milibares, se calcula que la de Plutón es de apenas 24 microbares cuando es más densa. Los estudios realizados desde Tierra indican la presencia de nitrógeno, metano y monóxido de carbono. La presencia del metano en su atmósfera provoca que la temperatura a 10 km. de altitud de su superficie la temperatura sea levemente más alta que en la propia superficie. Hay que decir que la atmósfera es el principal responsable de que sea difícil calcular el diámetro exacto del planeta, y se ha teorizado que podría existir algún tipo de neblina que cubriera la superficie a los ojos de cualquier vehículo espacial que desee explorarlo. Otra cosa acerca de la atmósfera es la que provocó toda esta prisa por lanzar una sonda espacial hacia allí: a medida que se va alejando del Sol, esta minúscula envuelta gaseosa se congela y queda atrapada en su superficie. Este proceso, teorizado de que empezara a ocurrir a partir del 2010, de momento no existe, es más, la presión atmosférica parece haberse incrementado, de manera que New Horizons sea capaz de examinarla al milímetro.

Tendrá que ser New Horizons quien tenga que decirnos (si el planeta contribuye) cómo es su superficie. La mejor resolución que tenemos es de varios cientos de km., por lo que es imposible distinguir formaciones geológicas. Todos los mapas muestran enormes variaciones de brillo, desde regiones oscuras directamente negras, a naranjas y rojas. En el espectro infrarrojo también hay enormes diferencias a medida que el planeta rota, por lo que es uno de los cuerpos celestes más variables que existen. Todo esto nos indica que Plutón debe tener de todo, aunque adivinar ese “de todo” será sin duda complicado hasta la llegada de New Horizons. Una cosa si sospechan los científicos: es muy probable que su superficie sea casi un calco que la que se encontró Voyager 2 en Tritón, la mayor luna de Neptuno. Eso sí, su temperatura es de -230º C. la espectroscopia realizada de Plutón nos revela un planeta cubierto en un 98% de nitrógeno helado, con trazas de metano, etano y monóxido de carbono, es decir, los mismos constituyentes de la atmósfera. En cuanto a la distribución, el hielo de metano parece concentrarse más en el hemisferio que ofrece a Caronte, mientras que en el hemisferio posterior la abundancia la tiene el nitrógeno y el monóxido de carbono.

Hasta la fecha, se han descubierto 5 satélites en torno a Plutón, aunque hay estudios que sugieren que podría haber más. Existe una fórmula que indica hasta qué punto máximo puede mantener un cuerpo celeste en su campo gravitatorio a otro, lo que se suele llamar la esfera Hill. En Neptuno hay alguna luna que se encuentra a un 40% de la distancia del radio de la esfera Hill, y se cree que en Plutón podría haber algo orbitando a una distancia del 53% (o 69%, en caso de orbitar de forma retrógrada) del planeta, o más lunas o un anillo. El caso es que los cinco satélites ocupan un 3% de este radio, lo que añade todo un nuevo potencial de descubrimiento, y de riesgos.

En orden de distancia, Caronte es el más cercano, y es el más grande. Lo insólito del caso, como ya comentamos en su día, es que el diámetro de Caronte es aproximadamente el de la mitad de Plutón, inaudito en todo el sistema solar. La siguiente mayor proporción entre un planeta y su mayor satélite es el sistema Tierra-Luna, en el que Selene tiene un 1/81 del tamaño de la Tierra. Su diámetro estimado es de 1.206 km. (más o menos 3 km.), y su distancia al baricentro des de unos 17.536 km., y a 19.571 km. del centro de Plutón. Orbita prácticamente en el ecuador de Plutón, y siempre ofrece su misma cara al planeta. Su densidad media es algo menor que la de Plutón, por lo que su contenido en hielo es mayor (55% roca, 45% hielo). Se sospecha que su interior está diferenciado (corteza, manto, núcleo) y su superficie, más oscura, ofrece una banda ecuatorial más brillante y unos polos más oscuros. En cuanto a la superficie, los estudios afirman que está compuesta en su mayoría por hielo de agua, y análisis más recientes afirman haber detectado hidratos de amoniaco y cristales de hielo de agua, por lo que se aventura a afirmar que Caronte podría ser geológicamente activo, en forma de criogéiseres. Ese estudio afirma que bajo la capa de hielo de agua existe en determinadas regiones depósitos de agua y amoniaco mezclados, que permanecen en estado líquido. Hasta donde sabemos, carece de atmósfera.

Los otros cuatro satélites son mucho más pequeños. Styx es el segundo en orden de distancia. Orbita alrededor del baricentro en unos 20 días a una distancia de aproximadamente 42.000 km. Se calcula su diámetro medio entre los 10 y los 25 km., y es probable que tenga forma irregular. Su superficie se afirma que está compuesta por hielo de agua. Nix es el tercero desde Plutón, y dista del baricentro unos 48.708 km., tardando en dar una vuelta en aproximadamente 24 días. Su diámetro estimado va de los 23 a los 68 km. (por lo que será posiblemente irregular)  y también se cree que está compuesto por hielo de agua. La cuarta en distancia es Kerberos, que dista del baricentro 59.000 km., y tarda en rodearlo en  32.1 días. Y por último, Hydra es el satélite conocido más lejano a Plutón, dista del baricentro 65.000 km., y da una vuelta completa en 38.2 días. Es un 25% más brillante que Nix, y su diámetro calculado va de entre los 30 y los 84 km. Lo más notable de todo es la interrelación entre Caronte y los otros cuatro satélites, ya que existe una casi resonancia entre ellos de 1:3:4:5:6. Lo que queda claro es que debido a su escaso tamaño, tendrá que ser New Horizons quien proporcione luz a cómo son estos satélites.

Hay otras propiedades del sistema de Plutón que son imposibles de investigar desde la Tierra, como por ejemplo si posee campo magnético, o cómo influye el viento solar en el entorno de estos seis cuerpos desconocidos, en la atmósfera de Plutón como en las superficies de los cinco satélites. La verdad es que si tuviéramos que hablar de lo que NO sabemos de Plutón y sus acompañantes, la entrada sería sin duda mucho mayor, y por suerte New Horizons está extraordinariamente equipada para responder a buena parte de estas preguntas, aunque seguramente provocará que formulemos muchas preguntas nuevas.

Antes de su despegue, veíamos a Plutón como un destino extremadamente distante, no en cuanto a distancia, si no en lo que tardaría en llegar, nueve años empleando la gravedad de Júpiter. Pero ahora solo estamos a un año, y que su cámara más potente ya sea capaz de distinguir separadamente a Plutón y Caronte es algo que nos llena de alegría y entusiasmo. Cuando sea despertada este mes de diciembre, New Horizons empezará a estudiar intensivamente el sistema plutoniano ya hasta pocos días después de su máxima aproximación. Aunque tardará todavía varios meses en entregarnos lo que recolecte por allá, si escribiéramos una entrada nueva siguiendo esta como patrón, será mucho mayor. Queda un año, lo dicho, así que no perdáis de vista esta misión. 

miércoles, 25 de junio de 2014

Misión al planeta Tierra: OCO-2

El díóxido de carbono, aunque es uno de los gases de menor concentración en la atmósfera terrestre, tiene un muy fuerte impacto en la climatología. Por pequeña que sea la concentración, provoca efectos profundos sobre lo que ocurre en todo el planeta. Deberíamos estarle eternamente agradecidos todo el mundo porque sin su presencia, nuestro planeta sería una esfera congelada. Pero eso teniendo una concentración adecuada. Pero si nos pasamos un poco, en vez de convertir la Tierra en un témpano, provocaríamos que fuera un abrasador erial. Su poder de retener la energía infrarroja emitida desde Helios y reflejada por la superficie terrestre se incrementa de manera proporcional a la concentración existente en la atmósfera. En esta época en la que se habla de calentamiento global, cambio climático, y otros eventos similares, conocer la concentración de este gas es posiblemente más importante que nunca, y ahora que tenemos los medios a nuestro alcance, no hay que dejar escapar la oportunidad.

Este gas, formado por dos moléculas de oxígeno y una de carbono (su representación química es O=C=O), es emitido de manera natural por una amplia cantidad de fuentes: actividad volcánica, respiración de plantas y animales, la descomposición de los restos orgánicos (véase los seres vivos muertos). Pero además, existen en nuestro planeta formas de controlar la concentración emitida naturalmente: por meteorización en las rocas (la lluvia o el agua marina absorbe el dióxido de carbono y reacciona con los minerales de la corteza terrestre) que acaba formando minerales carbonatados, por la fotosíntesis de las plantas, que lo convierten en oxígeno, y por el consumo de componentes orgánicos por parte de la vida animal. Cuando existe un exceso de material orgánico, a lo largo del tiempo acaba formando carbón o petróleo y se acumulan en depósitos. Allí queda encerrado gran parte del dióxido de carbono para así mantener la concentración atmosférica en niveles aceptables. El problema empezó cuando se inició la revolución industrial a mediados del siglo XVIII. Pronto las fábricas crecieron, y para cambiar la mano de obra manual por otra mecánica, hacía falta combustible, y éste vino principalmente del carbón. A medida que pasaban las décadas las fábricas se ampliaban, la población aumentaba, y sus necesidades también. Actualmente muchas actividades emiten grandes cantidades de dióxido de carbono a la atmósfera: la generación de energía, la fabricación de productos de consumo, los sistemas de calefacción de los edificios (tanto aires acondicionados para dar frío como las estufas para proporcionar calor), la fabricación de cementos para construcción, y en menor medida, el transporte. Después se han añadido otros, tales como la deforestación, los incendios forestales, quemado de biomasa, así como otros procesos. De esta manera, y a través de los estudios realizados, se sabe que la concentración de dióxido de carbono ha aumentado de 280 partes por millón a 400 desde el comienzo de la revolución industrial, un incremento brutal. Lo peor no es eso, es que la inmensa mayoría del carbono emitido es de una variante de un peso isotópico muy pesado, lo que significa que es muy difícil de eliminar. De esta manera, aunque el dióxido de carbono emitido naturalmente se disipa con facilidad, el producido por las actividades humanas es altamente complicado de expulsar. Con ello, se ha podido ver que durante todo el siglo XX, la temperatura global ha aumentado en 0.6º C por causa del efecto invernadero. Por todo esto, y otras cosas, se hacía necesaria una misión espacial cien por cien dedicada a estudiar todo lo relacionado con el dióxido de carbono atmosférico.

Actualmente, tenemos muchas misiones que están observando el sistema terrestre de diversas formas para completar una imagen global de nuestro planeta. Así, satélites como Terra o Landsat 7 son capaces de adquirir imágenes en las que se muestra la extensión de las masas de vegetación sobre la superficie, para observar cambios estacionales en la masa vegetal por causas naturales o provocadas por el ser humano, para luego juntarlas con la información de los sensores MOPITT de Terra, AIRS de Aqua y TES de Aura, y con ellos, saber la concentración existente y relacionarlo con los cambios en la superficie. En especial los instrumentos AIRS y TES son bastante adecuados para la detección del dióxido de carbono, pero como también monitorizan otros gases de escasa concentración (monóxido de carbono, metano, etc.) que suponen solo un 1% de la composición total atmosférica, no se puede extraer la información necesaria para crear una imagen global de lo que ocurre con el dióxido de carbono.

Perteneciente al programa Earth Science System Pathfinder de la NASA (que maneja misiones como
GRACE o Aquarius), una combinación de misiones tanto científicas como tecnológicas con objetivos científicos muy concretos usando vehículos de tamaño pequeño o medio, el satélite OCO (Observatorio Orbital del Carbono) es una herramienta muy especializada dedicada en exclusiva a la tarea de seguir allá a donde vaya el dióxido de carbono. Aunque es un satélite pequeño, se encuentra perfectamente equipado para la labor, y desde la órbita prevista, es capaz de completar una visión global de la Tierra cada 16 días. Seleccionado en julio del año 2002, recorrió un largo camino hasta que pudo colocarse en la punta de su lanzador. Especialmente, su único instrumento resulta ser de nueva concepción, con una aproximación inédita, aunque usando componentes ya probados y fiables en el espacio. En el 2008 llegó a su base de lanzamiento, y estaba listo para ser enviado el 23 de febrero del 2009.

OCO-2 es el reemplazo del satélite original, perdido en el despegue cuando la cofia protectora no se separó, impidiendo así a la última fase del lanzador colocar al satélite en su órbita a causa de la masa extra añadida, provocando así la reentrada y posterior colisión con el océano Índico cerca de la Antártida. Tres días después de la pérdida del vehículo, el equipo científico solicitó a la NASA el presupuesto necesario para construir un segundo satélite. Si esta financiación llegaba inmediatamente, el nuevo observatorio del carbono estaría en el espacio al final del 2011. No fue hasta casi un año después que recibieron la autorización y la liquidez necesaria para ello, y como el programa resultaba idéntico, incluyendo el mismo tipo de lanzador, si subsanaba los problemas, se esperaba lanzar a OCO-2 en febrero del 2013. Por desgracia, tras dos años en Tierra, el cohete Taurus XL 3110 de la empresa Orbital, es decir, el mismo modelo que falló en el 2009 y que debía elevar al segundo satélite en el 2013, volvió a fracasar, y por el mismo motivo (la no expulsión de la cofia), provocando la pérdida del satélite de monitorización de partículas de aerosol Glory el 4 de marzo del 2011. A causa de la falta de información sobre el por qué de este fallo en dos misiones consecutivas (tras dos años de margen) la NASA y la empresa Orbital decidieron poner fin al contrato de lanzamiento. Esto provocó un nuevo retraso en el lanzamiento de OCO-2, esta vez hasta el 2014. Entre las posibilidades para lanzarlo estaba el Pegasus XL, el Falcon 9 de SpaceX, el Delta 2 (cuyo último lanzamiento fue a finales del 2011) o el potente Atlas V. La decisión final se tomó en el verano del 2012, y el 16 de julio se anunció el seleccionado.

OCO-2 supone un ejemplar prácticamente clónico del perdido en el 2009, de manera que sus características son idénticas, aunque dispone de elementos mejorados y a la última. Emplea la plataforma LEOStar-2 de Orbital, usada para dar forma a satélites terrestres como SORCE, AIM o Glory, para construir observatorios astronómicos como GALEX o NuSTAR, o la de momento única sonda de espacio profundo desarrollada por la compañía, la asteroidal Dawn. Es un bus de forma hexagonal altamente configurable, pudiendo acomodar todo tipo de hardware a petición del cliente. Así mismo, los componentes vitales para su funcionamiento también son customizables. Puede tener capacidad de propulsión o no, y puede disponer de redundancia completa, selectiva, o sin redundancia. Para el caso de OCO-2, se ha elegido esta última, junto con la capacidad propia de propulsión. La plataforma LEOStar-2 suele ser una caja de medidas contenidas, aunque para esta misión se tomó la decisión de prolongar la estructura para incorporar en su interior su único instrumento científico. Con 2.12 metros de largo y 0.94 de ancho, está fabricado usando secciones en panal de abeja elaboradas en aluminio, almacenando en su interior casi todo el hardware del satélite. En el exterior se sitúan las antenas,
algunos elementos del sistema de control de actitud y elementos del sistema de protección termal. El ordenador se basa en el extremadamente fiable procesador RAD6000 (empleado en numerosas misiones espaciales como orbitadores y aterrizadores marcianos, y en este caso reformado para incorporar una nueva memoria RAM estática), y maneja todas las operaciones de a bordo, utilizando un software de vuelo altamente flexible y casi autónomo del control de Tierra, siendo capaz de monitorizar el estado de sus sistemas, resuelve algunos problemas de a bordo, recopila la información científica, mantiene la actitud apropiada, distribuye los comandos recibidos de las estaciones de control, etc. La unidad de electrónica central posee una memoria RAM de 1 GB, junto con 3 MB de memoria no volátil para almacenar información sensible a pesar de perder la energía. Dos tarjetas independientes se encargan del manejo del flujo de órdenes y datos por todo el sistema informático. Una tarjeta de carga, que opera de manera independiente a la unidad central se encarga de recibir, validar y descodificar los comandos enviados por el control para después dirigirlos a las secciones apropiadas, mientras que una tarjeta de descarga prepara los datos guardados tanto de mantenimiento como del instrumento para su posterior transmisión hacia las antenas terrestres. Además, a través de ella se controla el continuo almacenado tanto de datos científicos como de información de telemetría de los sistemas de a bordo en un grabador de estado sólido con capacidad de guardar hasta 128 gigabits de información (por 96 del primer satélite). El sistema de comunicaciones empleaba dos sistemas. Por una parte usa receptores redundantes (de lo poco en el satélite) en banda-S digitales (analógicos en el primer OCO) para recibir comandos del control de Tierra mediante dos antenas helicoidales omnidireccionales colocadas en las secciones exteriores superior e inferior de la estructura. La transmisión de datos científicos y telemetría de mantenimiento se realiza vía transmisor de banda-X conectada a una antena de tipo parche fijada a la estructura y apuntada en dirección hacia la Tierra, a un ratio de 150 megabits por minuto. Si falla, dispone de un transmisor de banda-S, con capacidad para enlazar con las estaciones terrestres o con el control de misión por medio de la red de satélites TDRS. Está estabilizado en sus tres ejes de manera totalmente autónoma, de manera que no necesita intervención de los técnicos. Para controlarlo, usa un escáner estelar (de nuevo modelo con respecto al satélite original), una unidad de medición inercial, trece sensores solares digitales (emplea células de arseniuro de galio en vez de las de silicio de la misión anterior), un receptor GPS, ruedas de reacción (para reorientar al satélite sin necesidad de usar combustible, de nuevo tipo para asegurar un largo tiempo de funcionamiento) y sistemas de descompensación electromagnéticos unidos a un magnetómetro triaxial. Se complementa además con el sistema de propulsión consistente en cuatro pequeños propulsores, con la misión de colocar al observatorio en su órbita prevista, y una vez allí, de mantenerla en los parámetros específicos para el satélite. En total carga 45 kg. de hidracina para los propulsores. Obtiene su energía a través de dos paneles solares situados en zonas opuestas de la estructura del vehículo, y cada uno está formado por dos secciones de 0.66 por 1.47 metros. En total, la superficie activa es de 3.88 metros cuadrados, y proporcionan una envergadura de 9 metros una vez en su lugar. Cada panel es plenamente orientable para seguir al Sol el máximo tiempo posible a lo largo de su órbita, y una vez OCO-2 en la zona de sombra obtiene la energía necesaria mediante una batería de níquel hidrógeno. El control termal se garantiza mediante calentadores, radiadores termales, mantas multicapa y pinturas especiales. El instrumento tiene su propio control termal. Aunque es un satélite de cuerda única, aún dispone de cierta redundancia tanto física como funcional. De esta manera existe una segunda unidad del receptor de banda-S, una cuarta rueda de reacción, electrónicas de los mecanismos de despliegue de los paneles solares o propulsores. Entre la redundancia funcional está la del sistema de control de actitud, ya que si el único escáner estelar del vehículo falla, la función de mantenerse en su posición se puede conseguir usando los sensores solares y el receptor GPS. Solo dispone de un instrumento científico, que consiste en tres
espectrómetros de infrarrojo cercano paralelos que reciben la luz solar reflejada por la superficie terrestre de un único telescopio Cassegrain f/1.8, todo enclaustrado en una estructura de 1.6 x 0.4 x 0.6 metros, que pesa 140 kg., consume aproximadamente 105 vatios y utiliza componentes basados en los instrumentos AIRS de Aqua y TES de Aura. Para cumplir los requisitos de la misión adopta un diseño de óptica rápida para permitir que los espectrómetros realicen 12 sondeos por segundo. Por su parte, cada espectrómetro, de alta resolución, utiliza rejillas holográficas y un conjunto de detectores de plano focal bidimensional de 1024 x 1024 pixels, derivados de los que se usan para la astronomía. Dos de los espectrómetros están sintonizados para captar dióxido de carbono (uno para absorción débil, otro para absorción fuerte) y el tercero para la detección del oxígeno molecular, llamado espectrómetro de banda-A. Un sistema especial permite entregar la luz recogida por el telescopio a los tres espectrómetros a la vez, de manera que analizan la misma secuencia. Con esta combinación, y un campo de visión estrecho de 10 km., puede hacer barridos estrechos de 3 km. cuadrados en el hemisferio iluminado de la Tierra. A través de su ciclo de repetición será capaz de completar una imagen completa de la Tierra en 16 días. Respecto al instrumento del satélite original, el de OCO-2 ha sido retocado para corregir algún problema descubierto en las pruebas del primero, tales como anomalías del alineamiento de la rejilla, o para mitigar un problema de imagen residual. Como instrumento de infrarrojos que es, necesita estar bien refrigerado para adquirir mediciones precisas. De esta manera, las ópticas se mantienen a -6º C por medio de un radiador pasivo, los detectores del plano focal para los espectrómetros sintonizados para el dióxido de carbono (fabricados mediante la combinación mercurio-cadmio-telurio) deben estar a -150º C, que lo consigue usando un crio refrigerador (de nuevo diseño respecto al original), y los detectores del plano focal del espectrómetro de banda-A (elaborados en silicio) a -91º C utilizando un crio refrigerador de tubo por pulsos, consistente en un radiador pasivo enganchado a una especie de chimenea colocada debajo del escáner estelar. El satélite da un peso en Tierra, a plena carga, de 455 kg. (por los 441.4 kg. del primero)

Como su desdichado hermano, será lanzado desde la Base de la Fuerza Aérea de Vandenberg,
California, aunque esta vez en dentro de un Delta 2-7320. Será lanzado el 1 de julio del 2014, y una vez en torno a la Tierra, comenzará a realizar las maniobras orbitales correspondientes para colocarle en la posición correcta, en una trayectoria casi polar, sincrónica solar a 705 km. de altitud, cruzando el ecuador de sur a norte a eso de la 1:15 de la tarde. De esta manera, tras 30 días después del lanzamiento, OCO-2 se convertirá en el satélite líder de la Constelación de la Tarde, también conocido como Tren-A. De esta manera, las mediciones que obtenga se podrán unir a las que hagan el resto de satélites de la constelación.

Los objetivos de OCO-2 son muy importantes, divididos en tres secciones: 1º, adquirir las mediciones necesarias para conseguir estimaciones de concentración de dióxido de carbono con un margen de error de 0.3% en zonas de 1000 x 1000 km. sobre los continentes y los océanos en el hemisferio iluminado por el Sol, 2º, grabar, calibrar, validar, publicar y archivar registros de datos científicos y productos de datos geofísicos para su uso por la comunidad científica, y 3º, validar esta aproximación de medición para, con la experiencia acumulada, ser utilizada en misiones futuras de monitorización sistemática del dióxido de carbono. Sin duda, el más importante es el primero, ya que a partir de la información que proporcione podrán detectarse las fuentes de dióxido de carbono, las regiones de máximo “hundimiento” (es decir, las zonas de absorción y almacenamiento de este gas atmosférico), medir la eficiencia de estos dos procesos, así como otras investigaciones, tales como: la dinámica en la que el océano intercambia carbono, la dinámica estacional de los ecosistemas del hemisferio norte, el intercambio de carbono en las regiones tropicales entre la atmósfera y el ecosistema debido al crecimiento de las plantas, la respiración y los incendios, el movimiento de plumas de combustibles fósiles por el hemisferio norte, el efecto de los frentes de tormenta y huracanes en el intercambio de dióxido de carbono entre diferentes regiones geológicas y ecológicas, y la mezcla de gases atmosféricos entre hemisferios. Su período de misión principal es de dos años.

El instrumento funcionará en esencia en tres modos de operación. El primero es el modo vertical, de manera que OCO-2 mantiene apuntado el telescopio directamente en la vertical del planeta en el hemisferio diurno de la Tierra, para adquirir información de alta calidad y alta resolución espacial, obteniendo hasta 35.500 mediciones en cada órbita. Eso sí, este modo no permite hacer mediciones sobre zonas cubiertas de nieve o sobre superficies oceánicas oscuras. El segundo modo es el llamado modo de destello, mediante el cual el observatorio apunta su telescopio al punto más brillante, es decir, a la zona superficial en el que la reflexión de la luz solar es más brillante, y es adecuado para obtener la información precisa sobre las superficies oceánicas oscuras gracias a que en este modo recoge 100 veces más señal que en el modo de apuntamiento vertical. El tercer y último modo es el de seguimiento de objetivo, con el cual, durante al menos 9 minutos, fijará su vista sobre una región específica de la superficie, y coincidirá frecuentemente con zonas en las que existen instrumentos basados en Tierra aptos para calibrar los tres espectrómetros. Además, el instrumento ha sido optimizado para compensar y mitigar los efectos tanto de las nubes como de las partículas de aerosol (humo, niebla y polvo desértico) realizando mediciones muy densamente espaciadas, con los que se espera tener, en regiones libres de nubes, mediciones muy precisas con un margen de error de entre un 0.3% y 0.5%, lo que significa de una a dos partes por millón de concentración. El efecto de las nubes puede llegar a ser tal en el espectrómetro de banda-A que solo existe un aparato todavía más sensible, el CALIOP de CALIPSO. La información tomada por OCO-2 se complementará más tarde con OCO-3, que no será más que una unidad idéntica a la transportada en el satélite, pero que se instalará en la ISS, para así obtener el doble de datos desde dos posiciones distintas, y además podrá hacer mediciones coordinadas con el satélite japonés Ibuki (GOSAT, Satélite de Observación de Gases de efecto Invernadero), que fue lanzado un mes antes que el OCO original y que se esperaba que funcionaran en coordinación.

Si la NASA ha apostado por reconstruir la misión, es por lo sumamente importante que es. Muchos de los indicadores existentes muestran una cada vez más alta concentración, con unos niveles que no se habían visto en este planeta hace más de seiscientos mil años. El efecto invernadero es algo muy serio, y cuanto más dióxido de carbono haya en la atmósfera, más se elevará la temperatura. Si queréis un planeta como Venus, vosotros mismos.

lunes, 5 de mayo de 2014

Caza mayor

Esos errantes vagabundos del sistema solar, los cometas, han sido mirados con temor durante siglos. Ahora son observados con fascinación. Hemos aprendido mucho acerca de ellos, y de todas las exploraciones realizadas hasta la fecha obtenemos la conclusión de que son, aún más que los propios asteroides, los restos más antiguos de la época de la formación del sistema solar. Tanto, que están prácticamente sin cambios desde entonces. Comenzamos la exploración cometaria utilizando sondas espaciales allá por 1986 cuando una legión de vehículos fue al encuentro del célebre cometa Halley (sobre todo la valiente y pionera Giotto) y en los albores del siglo XXI hemos visto como las misiones hacia estos viajeros errantes se han incrementado. Actualmente, desde cerca, hemos investigado seis cometas, de los cuales hemos obtenido imágenes de su núcleo sobre cinco de ellos. Hasta la fecha, el encuentro más cercano de un vehículo espacial con uno de ellos ha sido el realizado por Stardust al 9P/Tempel 1 el 14 de febrero del año 2011 pasando a apenas 181 km. de su superficie.

Hay que decir que todas estas misiones han sido programadas para realizar sobrevuelos, de manera que la oportunidad de recolectar información científica se ha limitado a entre 4 y seis horas entre la aproximación, mínima distancia al núcleo y alejamiento. Como ha ocurrido en la exploración del sistema solar, la mejor forma de obtener información de un cuerpo celeste de cualquier tipo es entrar en su órbita. Mediante una investigación sistemática se pueden obtener lecturas de mayor y mejor resolución que nos permitirá conocer con mayor fidelidad cómo es el objeto a orbitar. Se ha hecho con la Luna, con Marte, con Venus, con Júpiter, con varios asteroides, con Saturno y con Mercurio. ¿Para cuándo un cometa? En breve.

La ESA inició el proyecto Rosetta en 1993 siguiendo la misma idea que la misión de la NASA CRAF. En resumidas cuentas, se trata de dar diversas vueltas alrededor del Sol sobrevolando distintos planetas para ganar velocidad y por el camino, encontrarse con algún asteroide. Después de la cancelación definitiva de la misión de la NASA, la gente de Rosetta abrió la puerta a que los científicos del otro lado del charco participaran en su misión. Este proyecto obtiene su nombre de la famosa piedra de Rosetta, un trozo de roca basáltica que en su superficie se descubrió la clave para leer los jeroglíficos egipcios. En cuestión cometaria, Rosetta pretende hacer lo mismo pero en los cometas: proporcionar las pruebas necesarias para entender los cometas, y con ello, cómo era el sistema solar en las primeras congojas de su nacimiento. Como también se sospecha que estos cuerpos celestes no solo trajeron a la Tierra toda el agua que actualmente corre por la superficie de nuestro planeta, también los elementos orgánicos necesarios para iniciar la creación de las formas de vida.

La misión original de Rosetta debía iniciar el 13 de enero del 2003, para después realizar una trayectoria MEEGA (asistencias gravitatorias Marte-Tierra-Tierra) sobrevolando el planeta rojo el 26 de agosto del 2005 para después hacer lo propio con la Tierra los días 28 de noviembre de los años 2005 y 2007. Entre medias, sobrevolaría los asteroides 4979 Otawara (11 de julio del 2006), un tipo S de apenas 4 km. de diámetro, y 140 Siwa (24 de julio del 2008), un enorme tipo C de 110 km. de diámetro, y al final alcanzaría su destino, el cometa 46P/Wirtanen, en noviembre del 2011. Por desgracia para la misión, un problema serio en el lanzador Ariane 5 provocó que la sonda se quedara en Tierra, perdiendo la ventana de lanzamiento hacia su objetivo. Hasta que no se solucionaran los problemas del cohete no sería posible lanzar la misión.

Una vez resuelto el problema, se comenzó a diseñar un plan nuevo. Lo primero era que había que localizar un nuevo cometa que interceptar, luego planificar el rumbo, para después ver si existía la posibilidad de alcanzar algún asteroide por el camino. El cometa seleccionado fue el 67P/Churyumov-Gerasimenko, y para alcanzarlo en el momento deseado se diseñó una trayectoria EMEEGA (asistencias gravitatorias Tierra-Marte-Tierra-Tierra), además de proporcionar la oportunidad de sobrevolar los asteroides 2867 Steins y 21 Lutetia. Aunque el nuevo cometa obligó a reconstruir el tren de aterrizaje del vehículo destinado a aterrizar sobre la superficie cometaria, no se retrasó la nueva fecha de lanzamiento y, el 2 de marzo del 2004 fue lanzada con destino al 67P. Eso sí, este nueva ruta provocaría un largo viaje de nada menos que 10 años.

La sonda ha funcionado excelentemente durante todas sus maniobras, y todos los sobrevuelos, ya fueran a la Tierra, a Marte, o a los asteroides, se han cumplimentado perfectamente. Solo existen dos preocupaciones actualmente. Por un lado, la presión en el tanque de combustible del motor principal es menor a la proyectada, por lo que la potencia que entrega es menor a la de diseño. La otra preocupación es la más que probable avería de dos de las cuatro ruedas de reacción que permiten modificar la orientación de la sonda sin necesidad de utilizar los propulsores de a bordo. También hay que recordar que la cámara de ángulo cercano dejó de funcionar durante el sobrevuelo al asteroide Steins, un comportamiento anómalo que no se ha repetido. En todo lo demás, de libro.

Rosetta es la primera sonda en ir más allá del cinturón de asteroides utilizando únicamente células solares. Para ello, como ya hemos explicado alguna vez, dispone de la mayor superficie activa de todas las sondas espaciales. Esto ha sido necesario ya que debía pasar bastante cerca de la órbita de Júpiter, donde la iluminación solar es enormemente inferior a la que existe en la órbita terrestre. Aún con eso, no tendría energía suficiente para hacer funcionar todos los sistemas de a bordo, por lo que se tomó la decisión de, un año después del encuentro con Lutetia, colocar la sonda en hibernación. De tal manera, el 20 de junio del 2011, se colocó a la sonda en una lenta rotación con los paneles solares apuntando directamente a Helios, y se desactivó todo salvo el ordenador de a bordo y los calentadores eléctricos. Un reloj interno quedó encendido para que, llegado el 20 de enero del 2014, a las 10 de la mañana hora de Greenwich, se generara una serie de comandos que iniciaría la sonda, reactivando los sistemas esenciales, fijándola en modo seguro, y finalmente, enviar una señal indicando que se había despertado con éxito. En este tramo de su largo y frío viaje, Rosetta alcanzaría el afelio, y se reactivaría en el momento en que los paneles solares serían ya capaces de dotar de la electricidad necesaria para las habituales actividades de a bordo.

El día 20 de enero, el día del despertar, la atención mediática se fijó en el Centro de Operaciones Espaciales Europeo, situado en Darmstadt, Alemania, donde se controlan prácticamente todas las misiones de la ESA. El ambiente era el de las grandes citas (Giotto en 1986, Huygens en el 2005) y la gente de la misión, ociosa (en su mayoría) durante todo el tiempo que duró la hibernación, se congregó para recibir las primeras palabras de la sonda desde la lejanía en el sistema solar. Para recibir la muy débil señal, la antena DSN de 70 metros de diámetro que la NASA tiene en Goldstone, California, una de las más sensibles del mundo, estaría a la escucha. La señal de Rosetta se esperaba para las 18:30 (hora española) si el
despertar era nominal, teniendo en cuenta además el retraso en la radioseñal, de aproximadamente 45 minutos. Esta al final llegó, más tarde de lo previsto, a las 19:17, y los ingenieros, hasta unos minutos antes con unas caras que llegaban al suelo, empezaron a gritar de emoción: la sonda había despertado.

La razón de la llegada tardía de la señal se supo al poco: en algún momento del despertar, el ordenador se reinició, por lo que tuvo que volver a iniciar todos los protocolos programados antes de transmitir. En apenas un día, los controladores recuperaron el control completo de Rosetta y fijaron de nuevo su actitud en sus tres ejes. Desde entonces, todos los sistemas de a bordo, desde los sistemas básicos hasta la instrumentación, al igual que su aterrizador Philae han sido verificados y se ha confirmado que mantienen un estado de salud óptimo.

Es ahora cuando empieza lo importante de verdad, la caza del cometa. La órbita del 67P se conoce de una manera un tanto básica. Se sabe a qué distancia tiene su perihelio y su afelio, así como el tiempo que tarda en rodear a Helios. Para que Rosetta le alcance, ahora debe comenzar a adquirir imágenes de navegación para que, a lo largo de los próximos días, se pueda computar una solución más exacta para su órbita, para proceder a programar las maniobras. De esto se encargan dos cámaras gemelas de navegación óptica, con la tarea de encontrar un pequeño punto de luz en movimiento entre un fondo de puntos de luz fijos en la bóveda celeste. A partir de los análisis de estas imágenes de navegación óptica, los expertos serán capaces de predecir dónde se encontrará el cometa en un momento determinado de la órbita y las maniobras que serán necesarias para encontrarse con él.

Cuando todas estas correcciones hayan tenido lugar, ya en agosto, Rosetta ya estará siguiendo al 67P en una trayectoria paralela, estudiándolo con sus instrumentos (el sistema de televisión OSIRIS, el espectrómetro infrarrojo VIRTIS, el espectrómetro ultravioleta Alice, el instrumento de microondas MIRO, el sondeador de radio CONSERT, los espectrómetros de masa COSIMA y ROSINA, el sensor de polvo GIADA, el microscopio MIDAS, el paquete de partículas y campos RPC y el sistema de radio ciencia RSI) para posteriormente entrar en su órbita. Una vez allí, la tarea será usar los sistemas OSIRIS y VIRTIS para encontrar un buen lugar de aterrizaje para Philae.

El aterrizaje sobre el cometa se espera que ocurra en noviembre, ya con una buena información
en la mano. Como Philae carece de propulsión, será Rosetta quién le impulse en su trayectoria hacia la superficie. A medida que va descendiendo va adquiriendo imágenes del cometa con su sistema ROLIS, y a una distancia determinada de su superficie, disparará un arpón para anclarse. Si no dispusiera de este elemento, rebotaría en tras contactar con el cometa, y debido a su bajísima gravedad, saltaría y se perdería al espacio. Una vez ya se haya asentado en el 67P, comenzará su tarea, que se desarrollará en unas pocas horas. Si sobrevive a la maniobra, y si los resultados adquiridos con los 10 experimentos (los sistemas de imágenes CIVA y ROLIS, el

espectrómetro alfa de rayos X APXS, el sondeador de radio CONSERT, los espectrómetros de masa/cromatógrafos de gas COSAC y MODULUS PTOLEMY, los sensores de propiedades físicas MUPUS y SESAME, el magnetómetro ROMAP y el sistema de taladrado y distribución de muestras SD2) son positivos, su misión podrá durar lo que le permita el cometa. Aunque su fuente de energía primaria es la batería, también posee de paneles solares, en torno a casi todos los lados de la estructura, para recargarla y continuar trabajando. Este pequeño vehículo de 100 kg. de masa comunicará sus resultados al centro de control usando a Rosetta como intermediario.

Con Philae ya en superficie, comenzará para la misión la llamada fase de escolta, en la cual Rosetta irá estudiando y observando cómo evoluciona el 67P a medida que se aproxima al perihelio, y durará, según los planes previstos, hasta diciembre del 2015, cuando la máxima aproximación a Helios ya ha quedado muy atrás y la actividad cometaria ha caído perceptiblemente.

Lo realmente interesante es que esta misión observará el cometa en su momento de mínima actividad poco después de su afelio, algo que ninguna misión anterior ha contemplado, y por lo tanto, será la primera misión que observará los cambios que se producen en el cometa a medida que se aproxima al Sol, por ello es una misión que promete ser revolucionaria.

Ninguna misión anterior ha prometido viajar más atrás en el tiempo que Rosetta, y el retorno científico que nos suministre será de una importancia capital. Pocas misiones pueden prometer esto. Hemos tardado algo más de 10 años para llegar aquí, por lo que la paciencia que hemos estado recolectando nos servirá para no estar ansiosos cuando llegue a la altura del cometa. Mucha suerte.

miércoles, 30 de abril de 2014

lunes, 14 de abril de 2014

Las Próximas Misiones a Marte: MOM

Antes que nada, disculparnos. Disculparnos porque hemos empezado a conocer muy recientemente la astronáutica hindú por lo que sabemos de ella es bastante limitado. Varias cosas sí sabemos. Por ejemplo, sabemos que en 1963 abrieron una instalación de lanzamiento de cohetes de sondeo atmosférico, y a partir de la experiencia obtenida (propia y ajena) se dieron cuenta que la mejor manera era hacerlo desde el espacio. Por ello el ISRO, la Organización de Investigación Espacial de la India, diseñó su primer satélite, llamado Aryabhata, dedicado a astronomía de rayos X y aeronomía, y lanzado por su asociada la Unión Soviética en 1975. Este satélite no tuvo fortuna, pero demostró la capacidad técnica y científica hindú. Además de diseñar y construir más satélites, decidieron comenzar a desarrollar cohetes propios para lanzar sus satélites. A medida que iban ganando experiencia establecieron instalaciones de investigación tanto tecnológica como científica. Pronto ISRO se convirtió en una agencia especializada en misiones de observación terrestre y satélites de comunicaciones, y solo les faltaba tener un lanzador propio, cumpliéndose el sueño el 20 de septiembre de 1993. Aunque la misión fracasó, las lecciones aprendidas fueron enriquecedoras y, salvo un fallo parcial, el primer lanzador hindú tiene un registro de éxitos formidable: de 25 lanzamientos, 23 éxitos hasta la fecha. Los primeros éxitos de este cohete provocó que ISRO tomara dos decisiones: ofrecerlo al mercado mundial de lanzadores, y acometer su primera misión de
espacio profundo. El resultado fue la célebre misión lunar Chandrayaan-1. Lanzada el 22 de octubre del 2009, fue la última de las tres misiones asiáticas a la Luna, y cargaba con cinco investigaciones científicas indígenas (TMC, HySI, LLRI, HEX y MIP) acompañadas por seis extranjeras (M3 y Mini-SAR de la NASA, C1XS, SIR-2 y SARA de la ESA y RADOM de la Academia de Ciencias Búlgara). Entró en la órbita lunar el 8 de noviembre de ese año, y tenía por delante una misión primaria de dos años, pero después de 312 días en el espacio enmudeció. Una deficiente protección termal había acabado con el hardware de Chandrayaan-1, pero en el intervalo proporcionó información nueva sobre la Luna, siendo sin duda lo más relevante la detección directa de vapor de agua en el entorno lunar. Con las lecciones anotadas, comenzaron a realizar estudios para una posible misión a Marte. Después de finalizar el estudio, las autoridades del país apoyaron entusiásticamente el proyecto y fue autorizado el 3 de agosto del 2012. Lo que sonaba como rumor se convirtió en realidad.

La intención de ISRO era lanzar su misión marciana en la primera oportunidad disponible, y como habréis visto, apenas tuvieron un año y tres meses desde la autorización y el lanzamiento. Muchos (un servidor incluido) dudaban que fueran capaces de cumplir un calendario tan apretado, por lo que aseguraban que tendrían que esperar hasta la ventana marciana del 2016. Pues dando una bofetada en la boca de todos los que dudaban, la nave espacial fue acabada y lanzada a tiempo.

Todo el mundo, tras la noticia de la autorización, comenzó a llamar este proyecto como Mangalyaan, o Nave Marciana en sánscrito, y ahí tampoco acertaron. La sonda recibe el anodino acrónimo de MOM, Misión del Orbitador Marciano. Hay que decir que del proyecto a lo que realmente se ha colocado en el espacio ha habido varias diferencias. La principal es el lanzador. Para esta misión ISRO pretendía usar su segundo, más moderno y potente lanzador GSLV, sin embargo este lanzador tuvo que ser quitado del calendario de lanzamientos por los repetidos fallos, en especial el penúltimo, en el que usaba por primera vez una etapa superior criogénica totalmente diseñada y construida en la India (las anteriores eran de diseño ruso). A modo de detalle, este lanzador ha vuelto al servicio, y esta vez esta etapa criogénica indígena cumplió su papel con nota alta. A causa de perder el GSLV, el único en ser capaz de colocar un vehículo espacial en ruta de escape terrestre, tuvieron que recurrir al menos potente pero más fiable PSLV. Esto provocó que la sonda perdiera instrumentación científica y ganara combustible, teniendo que cumplir un plan de vuelo similar al seguido por Chandrayaan-1 para llegar a la Luna.

La clave de la rapidez de la construcción de MOM ha sido la disponibilidad de piezas de repuesto de otros proyectos, tanto de satélites terrestres como de la nave lunar. Su estructura es una estructura cúbica de aproximadamente 1.5 metros de lado elaborada en aluminio y materiales compuestos, y se basa en el bus I-1 K usado en satélites geoestacionarios y en Chandrayaan-1, y de él nacen dos apéndices en lados opuestos de la estructura. La infraestructura informática es la básica usada en sus muchos proyectos centralizada en un procesador MAR31750, una variante del 1750A usado en Mars Global Surveyor y Mars Express, y dispone de dos grabadores de datos con capacidad de 16 gigabits de información cada uno. Está estabilizado en sus tres ejes, empleando en su orientación una unidad de referencia inercial con acelerómetros y giróscopos, dos escáneres estelares, un grupo de sensores solares (uno en el panel solar y 9 en la estructura) y ruedas de reacción. La propulsión se basa en sistemas también masivamente usados en proyectos anteriores. El motor principal recibe el nombre de LAM, Motor Líquido de Apogeo, y entrega potencia suficiente para la inserción en órbita marciana. Para esta misión ha sido modificado para poder encenderse después de casi un año de viaje. En cuanto a los propulsores de maniobra, cuenta con ocho de menor potencia que complementarán a las ruedas de reacción y proporcionarán el cambio de velocidad y rumbo durante las maniobras de corrección camino de Marte. Su sistema de comunicaciones resulta ser un sistema muy sencillo: un transmisor-receptor de banda-S (ISRO tiene capacidad de banda-X, como demostró Chandrayaan-1), que ha sido montado más por llegar a la fecha de lanzamiento que por carecer de sistemas más
potentes. Este sistema está conectado a una antena de baja ganancia, una antena de media ganancia, y a una antena de alta ganancia de 2.2 metros fija sobre la estructura. Este sistema permite que, en los momentos óptimos de alineamiento entre la Tierra y Marte, el ratio de transmisión de datos sea de 40 kbps., poco comparado con los hasta 6 Mbps. de MRO.  En el lado opuesto se encuentra el único panel solar de MOM. Mide 1.8 x 1.4 metros, rota sobre un eje y dispone de tres secciones, alimentando una batería de ion-litio. En cuanto a la protección termal, está compuesta por mantas multicapa, calentadores eléctricos y radiadores. Su instrumentación está compuesta por cinco experimentos científicos indígenas. Su sistema de televisión recibe el nombre de MCC, Cámara a Color de Marte. Se trata de un sistema muy ligero (apenas 1.27 kg.) equipado con un sistema CCD y un filtro Bayer para hacer imágenes a todo color de la superficie marciana. Básicamente es un instrumento de campo medio capaz de obtener secuencias del planeta con una resolución máxima de 25 metros, mientras que en el apogeo es capaz de observar todo el globo marciano. Entre sus objetivos también está el adquirir imágenes de las dos lunas marcianas a distintas resoluciones, monitorización atmosférica, así como contexto para los otros instrumentos. Equipa un experimento para estudios mineralógicos llamado TIS, Espectrómetro de Imágenes de infrarrojo Termal. Este instrumento, la verdad, hará el mismo trabajo que han hecho los sistemas TES de
Mars Global Surveyor y THEMIS de Mars Odyssey: la cartografía de la superficie marciana, así como de las lunas marcianas, en infrarrojo termal, tanto en luz diurna como en la oscuridad. Lo interesante de TIS es que recurre a una tecnología de detectores que no necesita refrigeración activa, lo que simplifica enormemente su operación. Otros dos experimentos tienen como labor examinar la atmósfera. LAP, Fotómetro Lyman-Alpha se trata de un sistema basado en una célula de absorción enganchado a un tubo fotomultiplicador. Escaneando a través de la importante línea de absorción ultravioleta situada a 121.6 nanómetros, la sensible al hidrógeno, pretende estudiar la relativa abundancia de hidrógeno e hidrógeno pesado (también conocido como deuterio) en la atmósfera de Marte, así como averiguar el ratio de deuterio a hidrógeno como indicador del agua perdida a lo largo de la historia del planeta. Este es el segundo instrumento de este tipo enviado al planeta rojo después del colocado en la sonda soviética Mars 5. MSM, Sensor de Metano para Marte, supone
una interesante primicia en la exploración de nuestro vecino. Su propósito es confirmar o descartar el descubrimiento realizado por Mars Express: que existe una pequeñísima, pero detectable, cantidad de metano en la atmósfera marciana. Si este instrumento infrarrojo lo detecta, será capaz de calcular la abundancia con una exactitud de partes por billón y cartografiar sus fuentes. Por ello se adelanta a la exclusiva misión ExoMars TGO de ESA/Roscosmos (prevista para su lanzamiento a principios del 2016) en cuanto a la búsqueda de este gas importante tanto para la biología como para la geología. El último es MENCA, Analizador de Composición Neutral de la Exosfera Marciana, es un espectrómetro de masa cuádruple con la misión de descubrir la composición y relativa abundancia de gases neutrales en la exosfera marciana. Resulta similar en estructura y objetivos al NGIMS de MAVEN, y harán ciencia correlacionada ya en órbita. Con la carga de combustible y lista para el lanzamiento, MOM declaraba una masa de 1340 kg.

Su lanzamiento se programó para el 28 de octubre del 2013, pero se pospuso al 5 de noviembre para dar tiempo a los buques equipados con instrumentación de seguimiento a colocarse en sus puestos en el Océano Pacífico. El lanzador fue el PSLV-XL, la variante más potente de este tipo,
cuyo primer vuelo había sido el de Chandrayaan-1. La fecha se cumplió, y el cohete se elevó estupendamente, y aunque las tres primeras etapas proporcionaron algo más de energía de la prevista, la cuarta etapa entregó MOM en la trayectoria geocéntrica prevista. El PSLV es el primer lanzador desarrollado y producido por la India, y alterna etapas sólidas y líquidas, siendo la primera una de las mayores etapas de cohete de combustible sólido del mundo. Además de las cuatro etapas (habitual en los PSLV) porta seis aceleradores de combustible sólido. Todos los lanzamientos realizados usando tanto el PSLV como el GSLV se hacen desde el Centro Espacial Satish Dhawan, ubicado en la isla de Sriharikota.

El objetivo del lanzamiento era colocar a MOM en órbita de transferencia geoestacionaria, a partir de la cual emplearía su motor principal en el perigeo para ir aumentando progresivamente su apogeo. Estaban previstos cinco encendidos para modificar su apogeo de casi 24.000 km. sobre la Tierra a unos 200.000 km. Las tres primeras maniobras (días 6, 7 y 8) se completaron sin problemas. La cuarta, el día 10, fue más corta de lo proyectado. En aquellos momentos estaban probando los sistemas redundantes del motor LAM y parece que la configuración en la que se encontraba no era aceptable para el ordenador de a bordo, que canceló la maniobra. Tras reconfigurar los sistemas de control de acuerdo con la experiencia obtenida, se tuvo que realizar una maniobra suplementaria (día 12) que proporcionó el resto del cambio de trayectoria deseado. Después, el 15, llegó la última maniobra que la colocó en el apogeo buscado, y allí se quedó dos semanas hasta que la alineación planetaria fuera óptima. Ese tiempo lo dedicó a la
prueba del resto de sistemas de a bordo, incluyendo su instrumental científico, y de esas pruebas tenemos la única imagen realizada por la sonda que ha sido publicada hasta ahora, mostrando de lo que será capaz una vez en Marte. Llegado el 30 de noviembre, el motor LAM se encendió una última vez para iniciar la trayectoria marciana, maniobra completada con enorme éxito.

No hace falta decir que MOM es el vehículo hindú que más lejos ha ido de la Tierra, y en su camino hacia Marte ya ha realizado una maniobra de corrección de rumbo (11 de diciembre). Le esperan tres más, una este mes, otra en agosto y una última a pocos días de
entrar en órbita. De momento el viaje de crucero está siendo bastante tranquilo, con poca información acerca de sus actividades, aunque bueno, pocas o ninguna noticia suelen ser buenas noticias. Si todo va bien, MOM entrará en órbita marciana el 24 de septiembre, dos días después de MAVEN. La órbita escogida para el orbitador hindú será elíptica, con un perigeo de 365 km. y un apogeo de 80.000 km., inclinada sobre el ecuador del planeta 150º. Si lo consigue será la cuarta organización astronáutica en lograrlo (recordemos que el Japón lo intentó con Nozomi y China con Yinghuo-1).

Los objetivos de esta misión, como los de su proyecto lunar, son eminentemente tecnológicos. ISRO quiere probar su capacidad de diseñar y construir un orbitador marciano capaz de sobrevivir a un largo viaje de crucero de más de 300 días, ejecutar su inserción orbital y operar en órbita marciana, su capacidad de seguimiento de una sonda de
espacio profundo con instalaciones propias (ISTRAC), de navegar una sonda de la Tierra a Marte, y de planificar y dirigir sus operaciones. Aunque la más importante será la de probar características autónomas para manejar situaciones de contingencia, en esencia un software capaz de responder ante cualquier problema sucedido a bordo sin asistencia de los ingenieros en la sala de control debido al gran retraso en el tiempo de viaje ida y vuelta de las comunicaciones, que puede ser de un máximo de 42 minutos. Los objetivos científicos no son tan específicos: en esencia estudiar la geografía, morfología, topografía, mineralogía y la atmósfera marciana con instrumentos desarrollados en instituciones hindúes.

No queremos ser gafes, pero esta situación (emplear componentes preparados para órbita terrestre para una sonda de espacio profundo) nos recuerda a lo acaecido en las cercanías de Marte en agosto de 1993. Sí, nos referimos a Mars Observer. La primera misión marciana de la NASA después de Viking usó en su mayoría mucha tecnología usada en satélites de observación terrestres, y se afirmaba que este empleo en un proyecto de espacio profundo provocaría un ahorro de costes (que no se produjo, por cierto) que haría las misiones más allá del sistema Tierra-Luna una alternativa barata. El caso es que una válvula se rompió en pleno proceso de presurización del sistema de combustible, un procedimiento normal antes de encender un motor para cualquier tipo de maniobra, que se hacía con el transmisor apagado. Debido a ello, nunca volvimos a saber de ella, y ahora es un derrelicto flotante en órbita solar. Como hemos dicho, gran parte del hardware de MOM es adaptado del usado en satélites terrestres, incluyendo el importante motor principal LAM. Aunque es capaz de un tiempo de servicio de más de 11.000 segundos, nunca ha sido sometido a una prueba tan dura. Para garantizar su funcionamiento han añadido toda una serie de sistemas no solo por duplicado, sino que por triplicado, incluyendo toda una serie de válvulas que se pretenden usar para la inserción orbital. No decimos que vaya a ocurrir, decimos que el precedente está todavía muy cercano. Desde aquí le mandamos a MOM toda la suerte que tengamos por aquí.

Nos imaginamos lo que estáis pensando: ¿cómo es posible que la India tenga un programa espacial? Este no es el lugar para hablar o debatir de esas cosas. Este es un lugar en el que hablar de astronomía y astronáutica, y no nos importa de donde venga, siempre es bienvenida. Y si MOM llega a Marte con éxito, lo aplaudiremos y lo remojaremos sin dudar.

¿Por qué redactar esto ahora y no antes del lanzamiento? Bueno, si miras al cielo, es posible que encuentres un punto rojo prominente en el cielo. Eso significa que este mes Marte está en oposición, por lo que la distancia entre nosotros y el planeta rojo es mínima. Si tenéis un telescopio a vuestro alcance, no perdáis oportunidad.