Phoenix, un tributo

jueves, 31 de marzo de 2016

lunes, 7 de marzo de 2016

Las próximas misiones a Marte: ExoMars TGO

Todo comenzó pocos meses después del inicio de la misión Mars Express en el planeta rojo, cuando su sensor PFS evidenció la presencia de metano en su atmósfera. Si bien la cantidad que existe allí es muy pequeña (inferior incluso a la de la Tierra) su presencia es algo significativo. Lo es porque solo hay dos fuentes capaces de expulsarlo a una atmósfera: por procesos geológicos (volcanes, terremotos, géiseres, fumarolas, etc.), o más importante aún, por procesos biológicos, básicamente el metabolismo. Pero lo es más aún saber cuánto tiempo lleva. El metano es un gas que, si no se suministra constantemente, desaparece en 300 años, poquísimo en escalas geológicas. Por ello, su descubrimiento puede informarnos dos cosas distintas: o Marte es un planeta vivo geológicamente (y vistos sus volcanes es una probabilidad), o posee algún tipo de vida emitiendo este metano. Por desgracia, las misiones enviadas en los años posteriores han carecido de la capacidad de profundizar en ello. Aún así, a pesar de lo irrebatible del hallazgo, todavía provoca controversia.

Después del éxito de su primera misión marciana, la ESA se embarcó en un nuevo programa más ambicioso. Bajo el denominado Programa Aurora, se comenzó a desarrollar la misión ExoMars, cuyo elemento principal es un vehículo autopropulsado, con un claro parecido en los dos de la misión MER de la NASA. A medida que iba progresando el concepto, alguien tuvo la idea de transformar la fase de crucero que enviaría este rover al suelo marciano en un orbitador que, además de proporcionar sus servicios de retransmisión de datos entre el elemento de superficie y el control de misión en Tierra, pudiera investigar aspectos que a Mars Express se le habían escapado. Razones presupuestarias evitaron su creación. El diseño continuó avanzando, si bien con algunas dificultades, hasta que el año 2009 llegó un cambio de rumbo en la exploración marciana.

La NASA llevaba lanzando misiones al planeta rojo continuamente desde 1996, y en el 2008 habían seleccionado una nueva, además de haber visto el retraso de MSL (Curiosity, para entendernos) del 2009 al 2011. Sin embargo, más allá, no había nada aprobado, ya que, en aquel momento, después de MAVEN, no existía misión de la NASA que lanzar ni en el 2016 ni en el 2018, y mucho menos en el 2020. Eso sí, había diversas propuestas, como un proyecto de orbitador denominado Mars Science Orbiter, así como un rover exobiológico llamado MAX-C. El caso es que la ESA estaba preparando su propio rover exobiológico (de ahí su nombre de ExoMars, Exobiología Marciana), y dada la reducción presupuestaria en misiones planetarias, se decidió el comienzo de conversaciones con la agencia europea para preparar un programa conjunto con el que explorar nuevos aspectos de Marte.

Después de confirmar el programa marciano ESA/NASA, se organizó un grupo de trabajo conjunto para definir las siguientes misiones. Como MAVEN iba a lanzarse en el 2013, había que planificar el programa a partir del 2016. Después de mucha discusión, el rover ExoMars se dejó para la oportunidad más lejana, el 2018, dejando la del 2016 para un orbitador dedicado a la búsqueda tanto de metano como de otros gases de concentración tan baja que no aparecen habitualmente en las mediciones convencionales, los denominados gases traza. El diseño final de la misión dividía las responsabilidades entre las agencias: la ESA proporcionaría la plataforma de la sonda, un instrumento (NOMAD), el control de misión, y su red de seguimiento de espacio profundo, además de un vehículo demostrador de tecnologías para entrada, descenso y aterrizaje, mientras la NASA proporcionaría los cuatro experimentos restantes (MATMOS, EMCS, MAGIE y HiSCI), el relé UHF Electra, el lanzador (un Atlas V-431) y las antenas de su red DSN. Todo parecía progresar sin problemas hasta que el 13 de febrero del 2012 la NASA se retiró del programa conjunto a causa de recortes presupuestarios (dinero dedicado al próximo gran telescopio James Webb), por lo que la ESA se quedó con un orbitador con un instrumento, con módulo demostrador, pero sin el resto de la carga útil y sin lanzador. Esto no supuso que la ESA diera fin a la misión, todo lo contrario. No era la primera vez que una colaboración conjunta NASA/ESA acababa mal (existen los ejemplos de las misiones Giotto y Ulysses), y siempre la ESA ha continuado hacia adelante. De manera que se tomó la decisión de asociarse con la otra organización espacial con una gran experiencia en enviar sondas a Marte.

La decisión de juntarse con Roscosmos, la agencia espacial rusa, está llena de lógica, ya que sus lanzadores Soyuz habían lanzado varios satélites y sondas espaciales para la agencia europea. Roscosmos también tenía razones de peso para unirse al proyecto ExoMars: en noviembre del 2011 lanzaron su primera misión marciana desde Mars 96, Phobos-Grunt, que tuvo un desenlace idéntico al de su antecesora. La oportunidad brindada por la ESA permitiría a los científicos rusos reconstruir algún instrumento de los perdidos en Phobos-Grunt apto para las misiones marcianas en planificación. Los acuerdos oficiales, firmados en el 2013, detallaban las responsabilidades de cada agencia, confirmando el orbitador para el 2016 y el rover para el 2018.

La verdad es que la búsqueda de metano en la atmósfera marciana ya ha comenzado. A pesar de ser preparada casi a la carrera, la misión hindú MOM transportó al planeta rojo una carga útil interesante que incluye el denominado MSM. El Sensor de Metano Marciano es un instrumento infrarrojo que está diseñado para detectarlo empleando dos bandas espectrales: una exclusivamente para la detección de metano, y un canal de referencia con el que compararlo. De momento, no tenemos resultados, solo las lecturas del canal de referencia que demuestra que el aparato es plenamente funcional. La primera misión ExoMars irá todavía más allá.

El orbitador responde al nombre de ExoMars Trace Gas Orbiter, o ExoMars TGO, y ha sido desarrollado casi por completo por la ESA. No se parece en nada a su antecesora Mars Express, ya que mientras que el veterano orbitador emplea una estructura en forma de caja, ExoMars TGO emplea un bus rectangular, o así. El núcleo de la estructura (como es norma en casi todos los orbitadores) es un cilindro central de 1.2 metros de diámetro que supone la
principal pieza estructural del conjunto, y sobre la cual se han instalado todos los soportes y piezas que le dan su forma definitiva, además de ser el interfaz entre la sonda y la última etapa del lanzador, y en su interior alberga el tanque de combustible y el propulsor principal de a bordo. La sonda está realizada enteramente en aluminio, empleando secciones con núcleo en forma de panal de abeja, y sobre ellas, láminas homogéneas en sus lados internos y externos. Una vez en el espacio, tendrá unas medidas de 3.5 metros de alto, dos metros de lado, dos de ancho, y una envergadura de 17.5 metros con los paneles solares extendidos. La estructura ha sido realizada por la firma alemana OHB, con sede en Bremen. Sobre ella se han ido instalando los distintos componentes del hardware. Su ordenador se basa en las actuales infraestructuras empleadas por la ESA, con un procesador ERC-32 al mando de todos los procesos y operaciones realizadas a bordo, y acompañado de un grabador de estado sólido de gran capacidad (128 gigabits) para almacenar tanto telemetría de ingeniería como datos de los instrumentos. Esa información sería inútil si no se enviara a la Tierra, por lo que dispone de un sistema de comunicaciones normal: trabajando en banda-X, dispone de una antena de
alta ganancia de 2.2 metros de diámetro (herencia Rosetta) situada sobre una plataforma móvil en dos ejes, lo que le permitirá apuntarla hacia nuestro planeta en todo momento. Para otras situaciones (primera fase tras el lanzamiento, maniobras de corrección de rumbo, entradas en modo seguro) empleará las dos antenas omnidireccionales de baja ganancia. Como otros orbitadores actuales, también tiene equipo para comunicar con los vehículos situados en la superficie. Suministrados por la NASA, ExoMars TGO equipa dos relés UHF Electra (conectados a una antena helicoidal), paquetes de alto rendimiento que no solo sirven para enlazar con los rovers o plataformas estáticas para compartir datos y comandos de forma bidireccional, también permite establecer con un alto grado de exactitud la posición de estos recursos de superficie, algo útil cuando se trata de elementos autopropulsados. La energía la recoge del Sol, empleando dos paneles solares gemelos de dos secciones cada uno (sobre plataformas rotatorias en un eje) cubiertos de células de alta eficiencia (20 metros cuadrados de superficie activa), alimentando los sistemas de a bordo, y cargando dos baterías de ión-litio. Estabilizada en sus tres ejes para su orientación, mantendrá siempre una de las caras mirando a Marte, y para ello emplea dos unidades de medición inercial, dos escáneres estelares, sensores solares, ruedas de reacción como actuadores para cambiar la orientación de la sonda, junto con un grupo de propulsores. ExoMars TGO está optimizada para mirar al limbo atmosférico mediante una serie de maniobras y cambios de actitud nunca antes realizadas en Marte. Para la inserción orbital, y otras maniobras menores, empleará su motor principal, que a diferencia de los grupos usados por MRO o MAVEN, es único, entregando toda la potencia él solo durante el tiempo necesario. El control termal es el usual, es decir, mantas multicapa, radiadores (concentrados en los lados antisolares) y calentadores eléctricos. En la sección opuesta al motor está el montaje para el módulo demostrador de entrada, descenso y aterrizaje, incorporando las uniones mecánicas, eléctricas y de datos, además del mecanismo de liberación mediante sistemas pirotécnicos. La carga útil científica se divide en cuatro
aparatos. Desarrollado por la ESA, NOMAD (Vertical y Ocultación para Descubrimiento Marciano) es un paquete que combina tres espectrómetros. El primero es SO, Ocultación solar, y es una réplica del canal SPICAV-SOIR de Venus Express, es decir, un sensor que equipa un filtro sintonizable acusto-óptico formado por un cristal de dióxido de telurio que lleva la luz a una rejilla de difracción tipo echelle, y de ahí al detector de Mercurio-Cadmio-Telurio HgCdTe (refrigerado por un enfriador tipo Stirling), y servido por una única apertura (un periscopio de tres espejos planos, uno de ellos inclinado 67.07º para permitir la entrada de la luz) que apunta hacia el sol para operaciones de sondeo del limbo y de ocultación estelar. Está sintonizado para detectar el infrarrojo cercano entre 2.2 y 4.3 micrones. El canal LNO, Limbo, Vertical y Ocultación, es idéntico al SO, solo que registra las longitudes de onda entre 2.2 y 3.8 micrones, y además,
dispone de ópticas para operaciones de limbo  y ocultación y para mirar a la vertical del planeta (similar al de LNO, solo que con dos espejos planos, mientras que un tercero motorizado sirve para la entrada vertical). El tercer canal es UVIS, Ultravioleta y Visible, y emplea, como el canal LNO, dos aperturas, una para mirar a la vertical planetaria (sirviendo directamente a un pequeño telescopio) y un periscopio (empleando un espejo plano para servir al telescopio de recogida) para operaciones de ocultación y sondeo del limbo, empleando un sistema fuera de ejes (un espejo de colimación y uno de enfoque), con una rejilla de difracción y un sensor CCD como detector final (y sobre él un filtro de segundo orden), registrando el espectro electromagnético entre los 200 y los 650 nm. Para seleccionar entre ópticas, se emplean cables de fibra óptica para llevar la luz que recogen los dos espejos parabólicos al espectrómetro. Todo el paquete está controlado por un microprocesador LEON3. Con esta combinación de espectrómetros, NOMAD es capad de no solo detectar gases (y partículas de aerosol como polvo en suspensión) en concentraciones muy pequeñas en la atmósfera, también será capaz de localizar sus fuentes de emisión. En el modo de ocultación solar, tanto SO como LNO pueden obtener hasta 300 espectros en cada longitud de onda durante una de estas operaciones, que durarán unos 5 minutos, completando un perfil atmosférico desde la alta atmósfera hasta prácticamente la superficie. En el modo vertical, LNO estudiará la composición atmosférica, además de examinar características de la superficie marciana como hielo y escarcha, en mediciones que se realizarán, de media, cada tres o cuatro soles marcianos, para así examinarlos dependiendo de la luminosidad o del momento del día. Por su parte UVIS registrará todo el espectro al que es sensible, tanto en vertical como en ocultación, cada segundo, pudiendo registrar más información sobre moléculas más interesantes como el ozono o el ácido sulfúrico, además de medir el contenido de aerosoles en la atmósfera. En modo de ocultación, los tres canales muestrearán la atmósfera en secciones de un km. cada una para obtener perfiles verticales de alta resolución; en modo vertical, tanto LNO como UVIS crearán columnas verticales con resoluciones espaciales de 3 x 12 km. y 5 x 6 km. (alta y baja resolución de LNO) y 8 x 5 km. para UVIS, ambos recogiendo un espectro cada segundo, mientras que en el modo del limbo se obtiene información complementaria, aunque limitada, para apoyar los otros dos modos. Con este equipo, la misión espera obtener información no solo del dióxido de carbono y sus derivados, también monóxido de carbono, vapor de agua (y derivados), dióxido de nitrógeno, óxido nitroso, ozono, metano (y derivados), acetileno, etileno, etano, formaldehido, cianuro de hidrógeno, sulfuro de carbonilo, dióxido de azufre, cloruro de hidrógeno, y otros, además de caracterizar su variabilidad espacial y temporal, recuperando información sobre temperaturas y densidades totales atmosféricas, mientras que puede localizar lugares de emisión de gases (por ejemplo, metano en concentraciones tan bajas como 1 parte por billón de moléculas atmosféricas) en una región de 30 x 300 km. cuadrados, junto con el estudio de las fuentes y “hundimientos” de gases como monóxido y dióxido de carbono, vapor de agua y otros gases traza detectados. Además, empleando el canal LNO en modo vertical, podrá hacer un sondeo de la composición superficial centrado en zonas ricas en filosilicatos y sulfatos para tratar de explicar los fenómenos de expulsión de gases, en combinación con el sensor OMEGA de Mars Express y CRISM de MRO. Un paquete tremendamente versátil desarrollado en el Instituto Belga de Aeronomía Espacial, con contribuciones importantes del Instituto de Astrofísica de Andalucía, Instituto Nacional de Astrofísica italiano y la Open University del Reino Unido.
Proporcionado por Roscosmos, ACS (Juego de Química Atmosférica) es un conjunto de espectrómetros que complementan lo que NOMAD puede conseguir. Está compuesto de tres canales: NIR, o canal de infrarrojo cercano, es una casi réplica de los canales SO y LNO de NOMAD, solo que sintonizado para registrar su longitud de onda entre los 0.7 y los 1.6 micrones, e incorpora ópticas para observación tanto en la vertical del planeta como para operaciones de ocultación, y ambas sirven a un conjunto detector final de arseniuro de indio y galio; MIR, canal de infrarrojo medio, es un espectrómetro del tipo Echelle siguiendo el concepto de dispersión cruzada, similar al módulo VIRTIS-H a bordo de Rosetta y Venus Express, en el que emplea dos rejillas de difracción, una Echelle fija y una ordinaria móvil, y solo operará en modo de ocultación solar obteniendo espectrometría de alta resolución entre los 2.3 y los 4.2 micrones empleando un detector HgCdTe refrigerado activamente; TIRVIM, Montaje de Interferómetro en forma de V de Infrarrojo Termal, es un espectrómetro del tipo  transformación Fourier empleando la configuración de doble péndulo, siendo similar al espectrómetro PFS de Mars Express, aunque cubriendo el infrarrojo de 1.7 a 17 micrones en un único canal y con un divisor de haz elaborado en bromuro de potasio, sirviendo a dos detectores HgCdTe enfriados mediante un criorefrigerador tipo Stirling (uno para el rango arriba indicado, otro cubriendo el rango de 1.7 a 4.5 micrones) además de a un conjunto de detectores piroeléctricos (no necesitan refrigeración) trabajando en el rango de 1.7 a 25 micrones, y empleará un puerto para visión del Sol (ocultación) y un escáner para sondeos en la vertical planetaria, y un espejo móvil servirá para permitir la entrada de una u otra apertura. la operación estará controlada por un microprocesador central, que dispone además de una memoria flash de 32 GB. Con los dos primeros canales, ACS podrá obtener perfiles verticales de la atmósfera (temperatura y densidad) tanto del dióxido de carbono como de otros gases menores conocidos como el metano, vapor de agua y monóxido de carbono, entre otros, en los terminadores del amanecer y anochecer entre los 10 y los 80 km. de altitud; perfilar ratios isotópicos de los principales constituyentes de la atmósfera; buscar gases no detectados como acetileno, etileno, etano, dióxido de azufre, peróxido de hidrógeno, cloruro de hidrógeno, entre otros; además de hacer búsquedas altamente sensibles de brillos nocturnos provocados por hidroxilo, oxígeno, u óxido nítrico, mientras TIRVIM se encargará de derivar perfiles verticales atmosféricos desde la superficie hasta los 55 km. con una resolución relativamente alta en la banda de los 15 micrones, especialmente sensible al dióxido de carbono; monitorizar la cantidad de polvo en la atmósfera así como nubes de condensación; registrar la temperatura superficial; cartografiar el metano en el lado diurno con su banda de 3.3 micrones; así como buscar otros gases desconocidos en la atmósfera marciana empleando su modo de ocultación. Los módulos NIR y MIR derivan del sistema TIMM-2 de Phobos-Grunt, mientras el canal TIRVIM lo hace del AOST, también de Phobos-Grunt. ACS ha sido diseñado por el Instituto de Investigación IKI de Moscú, con colaboración francesa, alemana e italiana. Diseñada a la carrera en Suiza, CaSSIS (Sistema de
Imágenes de la Superficie en Color y Estéreo) cumplirá las necesidades de la misión de saber dónde, en alta resolución, existe emisión de gases. Para ello cuenta con telescopio fuera de ejes con un espejo primario de 13.5 cm. de diámetro, una longitud focal de 88 centímetros (f/6.5), sirviendo a un sensor tipo CMOS híbrido, herencia del sistema SIMBIO-SYS de la misión a Mercurio BepiColombo. El telescopio emplea tres espejos con recubrimiento de plata, y existe un cuarto, parcialmente motorizado, que es el que lleva la luz al detector. El sistema no dispone de rueda de filtros, sin embargo utiliza una placa situada directamente sobre el sensor, en el que se han construido las tiras que conforman los filtros usados durante la misión, y también supone herencia de la misión mercuriana. La diferencia es que usa cuatro bandas distintas, especializadas para la observación marciana, y son: pancromática (650 nanómetros), infrarroja (0.95 micrones), infrarrojo cercano (0.85 micrones), y azul-verde (475 nm). En vez de tomar imágenes como si se tratara de una cámara de fotos normal, empleará una modificación del modo pushbroom denominado “Push-frame”, una estrategia ya usada en Marte en los sistemas THEMIS de Mars Odyssey y MARCI de MRO. En este modo, en vez de arrastrar un único conjunto de detectores formado una fila de píxels, va arrastrando los filtros a medida que va orbitando. Empleando sus electrónicas de gestión (basadas en BepiColombo, y usando como corazón un procesador de doble núcleo Leon 3FT) el sistema irá acumulando barridos de la superficie (hasta 8 km. de ancho desde su órbita de trabajo, entre medias de los anchos de las cámaras CTX e HiRISE de MRO) en cualquiera de las cuatro bandas a la que es sensible, combinando una, dos, tres, o las cuatro al mismo tiempo, creando así imágenes en color real y falso color del suelo marciano, con una resolución máxima de 4.6 metros. Sin embargo, la clave está en su capacidad de crear imágenes estereoscópicas sin necesidad de combinar dos observaciones distintas en dos órbitas distintas. Para ello se ha construido un mecanismo motorizado que rota completamente el telescopio 180º en al
menos 15 segundos. A causa de la extraña estrategia de apuntar sus paneles solares a nuestra estrella, y debido a la inclinación orbital, ExoMars TGO puede estar mirando levemente hacia delante en la dirección orbital, de manera que el telescopio apunta y barre una zona específica de la superficie, y mientras orbita, se posiciona de manera que el telescopio mira hacia el mismo punto, solo que ya está detrás de la sonda, por lo que, girando al máximo la cámara, volverá a barrer el mismo punto de la superficie. De esta forma, creará pares estéreo en aproximadamente 47 segundos, algo estupendo dado que el sitio a fotografiar tendrá las mismas condiciones de iluminación. De esta manera, CaSSIS se encargará de obtener imágenes de zonas identificadas como fuentes potenciales de gases traza emitidos a la atmósfera; investigar procesos dinámicos de la superficie (vulcanismo, erosión, sublimación) que ayude a restringir el inventario de gases atmosféricos; y no menos importante, ayudar a certificar futuros lugares de aterrizaje en busca de desniveles no aptos para vehículos de superficie. CaSSIS ha sido desarrollado por la Universidad de Berna, con amplias contribuciones de instituciones italianas, alemanas y polacas. Y como última contribución rusa, FREND (Detector de
Neutrones Epitermales de Resolución Precisa) es la penúltima realización de la familia de sensores de neutrones que ya han volado a otros destinos del sistema solar (HEND de Mars Odyssey, LEND de LRO, DAN de Curiosity) y pretende continuar el trabajo iniciado por el primero, solo que en alta resolución. Para ello, cuenta con cuatro contadores proporcionales rellenados con gas (Helio-3, a una presión de seis bares) y un cristal de escintilación de stilbene, con protección anticoincidencia, situados detrás de un módulo de colimación que estrecha el campo de visión para proporcionar una resolución de 40 km., en comparación con los sensores omnidireccionales del HEND de Mars Odyssey, que han creado un mapa con una máxima resolución de 600 km. Este sistema registrará neutrones con energías que van de los 0.4 a los 500 keV con los contadores proporcionales, y neutrones rápidos, de 0.5 a 10 MeV para el cristal escintilador. Acoplado a FREND hay un dosímetro, denominado Liulin-MO, encargado de detectar el flujo, dosis absorbida, e intensidad de dosis de las partículas cargadas de los rayos cósmicos. Usa un colimador, cinco detectores, y el módulo de control y dosimetría, fijado a la parte superior de FREND. De esta manera, complementará al sensor RAD de Curiosity tomando datos complementarios durante el viaje de crucero a Marte, y luego medirá la dosis en órbita marciana, así como mediciones de dosis en la superficie del planeta, todo en preparación para un eventual viaje tripulado. De esta manera, FREND está diseñado para completar un mapa de alta resolución de flujos de neutrones epitermales y rápidos desde la superficie marciana; determinar flujos de neutrones y partículas cargadas durante periodos tranquilos de actividad solar así como en épocas de emisión de partículas solares energéticas; construcción de mapas de concentraciones de hidrógeno bajo el suelo marciano a alta resolución; y comparar los datos obtenidos con los registrados por el DAN de Curiosity, así como del sensor ADRON, que estará instalado en ExoMars Rover, que debe llegar a la superficie marciana en el 2019. Con su carga de combustible a bordo, ExoMars TGO declara una masa de 3732 kg. Por su parte, el
Módulo Demostrador de Entrada, Descenso y Aterrizaje (EDM), bautizado como Schiaparelli, en honor al astrónomo italiano que afirmó observar los “canalí” en Marte, es principalmente un demostrador de tecnologías para situar en el futuro cargas útiles sobre suelo marciano. Está compuesto por varias partes: aerovaina, escudo de reentrada, y el propio módulo que se posará en su destino. Todo el conjunto posee un diámetro de 2.4 metros, y posee la misma forma que otros sistemas de reentrada empleados en misiones anteriores. El escudo de reentrada, elaborado en aluminio (núcleo en forma de panal de abeja) y láminas exteriores homogéneas elaboradas en polímero reforzado por fibra de carbono, tiene en su parte externa el material que ofrecerá a la atmósfera marciana, un nuevo tipo de placas ablativas llamado Norcoat Liege. La aerovaina sigue una construcción similar, salvo que no usa el material ablativo. En el interior de la aerovaina está el paracaídas que frenará parte del descenso por la atmósfera, y mide 12 metros de diámetro. En cuanto
al propio módulo Schiaparelli, emplea una plataforma base (construida en SENER Bilbao) sobre la que se fija todo el hardware que amartizará, que posee un diámetro de 1.65 metros. Cuenta con su ordenador, sistema de comunicaciones (transmisor UHF unido a ina antena omnidireccional), unidad de medición inercial, generación de energía, (mediante baterías), un retroreflector láser y el sistema de descenso terminal, empleando un radar altímetro Doppler y 9 motores de descenso modulados por pulsos (el mismo tipo empleado para el aterrizaje de Phoenix en mayo del 2008). Por todo el vehículo se han dispuesto cientos de sensores, tanto en las partes que soportarán el contacto con la atmósfera (sensores de medición de temperatura), sensores de presión, y de telemetría para registrar todos los parámetros del vuelo, así como un sensor solar para medir la actitud inercial antes de la entrada. Además, la propia plataforma dispone, en su sección inferior, de una parte de estructura aplastable, diseñada para amortiguar el contacto final con la superficie marciana. Se ha diseñado para poder lidiar con aterrizajes sobre terrenos rocosos con piedras de hasta 40 cm. de altura, o caer sobre desniveles inferiores a 12.5º. A pesar de estar dedicado a la prueba tecnológica, también hará ciencia. La investigación AMELIA (Investigaciones y Análisis de Entrada Atmosférica y Aterrizaje en Marte) empleará los datos derivados de su unidad de medición inercial durante el descenso para derivar perfiles de densidad, temperatura y presión con alta resolución espacial, así como revelar el comportamiento de la polvorienta atmósfera marciana, para así mejorar los modelos existentes para su uso en misiones futuras. Durante el descenso también usará su DeCa, una cámara de descenso monocromática que tomará secuencias desde la separación del escudo de reentrada hasta la llegada a la superficie, de forma similar a la realizada por el sistema MARDI de Curiosity, salvo que lo hará en blanco y negro, tomando unas 15 imágenes, a una cadencia de una cada 1.5 segundos. Esta es la única capacidad de Schiaparelli de tomar imágenes en Marte. Una vez en superficie, activará su investigación DREAMS (caracterización de Polvo,
verificación de Riesgos, y Analizador Medioambiental en la Superficie Marciana), y es una suerte de avanzado paquete meteorológico autónomo que incorpora un sensor de viento bidimensional (MetWind, Universidad de Oxford), un termómetro (MarsTem, Universidad de Padua), un sensor de presión (DREAMS-P, Instituto Meteorológico Finlandés), un sensor de humedad (DREAMS-H, Instituto Meteorológico Finlandés), un sensor de campos eléctricos (MicroARES, LATMOS de Francia, ESA-ESTEC de Holanda), un sensor de irradiación solar (SIS, INTA) para medir la concentración de polvo atmosférico, junto con su Unidad de Electrónica Central y una batería independiente. Junto con las habituales mediciones meteorológicas para caracterizar el estado básico de la meteorología marciana (temperatura, presión, velocidad y dirección del viento), ayudará a cuantificar peligros (tanto para vehículos robóticos como para futuros seres humanos) tales como velocidad del polvo aerotransportado, carga electrostática, existencia de descargas, “ruido” electromagnético que pueda interferir las comunicaciones, así como intensidad de radiación ultravioleta. Sin embargo, lo novedoso es que realizará la primera investigación de fenómenos
eléctricos en la atmósfera marciana, tales como si existe una suerte de circuito eléctrico atmosférico global entre la superficie y la ionosfera; fuerzas electrostáticas por el polvo cargado eléctricamente que podría afectar a las dinámicas de las tormentas de polvo; así como interacción entre la superficie y los gases atmosféricos gobernada por campos eléctricos atmosféricos, que puede tener efectos en los procesos que gobiernan la química de los materiales de la superficie y la producción de materiales oxidantes en la atmósfera, lo que puede tener amplio impacto en la sostenibilidad de las condiciones apropiadas para la vida. Todo el paquete, tras recibir su carga de combustible, ofrece un peso en tierra de 600 kg. Con los dos vehículos unidos, la masa máxima en el momento del lanzamiento es de 4332 kg.

Para elevar semejante masa rumbo a Marte, se ha contratado uno de los más potentes lanzadores de la actualidad, el cohete ruso Proton. Diseñado en la década de 1960 por Vladimir Chelomei, originalmente se construyó para ser el más potente de los Misiles Balísticos Intercontinentales (bombas nucleares de 100 megatones o más potentes), nunca vio servicio en este papel. Como lanzador espacial, tenía capacidad de elevar naves tripuladas Soyuz con dos cosmonautas a bordo en misiones de ida y vuelta a la Luna, sin embargo, solo lo hizo con los vehículos Zond (Soyuz modificadas para misiones automáticas y con seres vivos en su interior). También tiene el crédito de lanzar muchas de las sondas espaciales soviéticas a Marte, Venus, y al cometa Halley, junto con satélites terrestres y las estaciones espaciales soviéticas Salyut y Mir. La primera vez que occidente pudo ver el lanzador Proton entero fue durante el lanzamiento del módulo núcleo de la estación Mir el 20 de febrero de 1986. Tras la caída de la Unión Soviética, y desde 1996, este cohete es comercializado para lanzar satélites sobre todo a órbitas geoestacionarias. Ahora está en servicio la variante Proton-M, la tercera actualización. Suele disponer de tres o cuatro etapas, dependiendo de la misión, siendo la primera configuración la básica, empleando todas los denominados combustibles líquidos hipergólicos, capaces de mantenerse cargados durante tiempo indefinido dentro de los tanques de combustible de las etapas del cohete, pero tremendamente tóxicos (de ahí que a Korolev no le gustara, y que prefiriera su gran lanzador N1 de oxígeno líquido y queroseno). La variante que lanzará la combinación ExoMars TGO/Schiaparelli empleará como cuarta fase una etapa superior Breeze-M, que también usa combustibles hipergólicos, y se pondrá en marcha desde el cosmódromo de Baikonur el 14 de marzo del 2016.

El viaje a Marte durará unos 7 meses, tiempo en el cual las operaciones serán las mínimas indispensables. El verdadero movimiento comenzará tres días antes de la llegada. Si se respeta la fecha de lanzamiento, el 16 de octubre llegarán los comandos a ExoMars TGO para iniciar los
preparativos para la separación de Schiaparelli, que incluyen una comprobación de sistemas y la carga completa de las baterías. Después de esto, se armarán los sistemas pirotécnicos, mientras que la sonda maniobra para apuntar al módulo de descenso en la trayectoria de reentrada. Tras esto, y después de disparar los pirotécnicos, las conexiones se rompen, y la base de montaje libera a Schiaparelli, provocándole además una rotación de 2.5 rpm para estabilidad durante su breve viaje en solitario. Poco después, ExoMars TGO encenderá su propulsión para desviarse de rumbo de colisión y poder insertarse en órbita marciana. Schiaparelli permanecerá en hibernación los tres días desde la separación hasta la maniobra de entrada, descenso y aterrizaje para ahorrar energía.

La elipse dada para el amartizaje de Schiaparelli tiene unas dimensiones de 110 km. de largo por 25 de ancho, y las coordenadas del centro son 1.82º Sur, 6.15º Oeste, en pleno Terra Meridiani. El proceso de selección ha sido relativamente rápido, ya que se ha escogido uno de los lugares marcianos que tiene una mayor cobertura de imágenes de alta resolución (MOC de Mars Global Surveyor, HiRISE de MRO), de hecho, más del 50% de su elipse coincide con la de Opportunity, y la zona sur de la elipse coincide con el borde oeste del cráter Endeavour, el lugar de trabajo final de este exitoso vehículo autopropulsado. Han sido más motivos de ingeniería que plenamente científicos los que han llevado a seleccionar este lugar.

Lo verdaderamente importante comienza el 19 de octubre, cuando el reloj interno de Schiaparelli genera la señal por la que el ordenador activa todos los sistemas, y establece comunicaciones con ExoMars TGO, al tiempo que los orbitadores que ya están en Marte se preparan para ofrecer cobertura. El procedimiento indica que a 120 km. de altitud sobre la superficie marciana inicie el contacto con las capas altas atmosféricas, para seguir una estrategia de entrada balística, como Mars Pathfinder, Spirit, Opportunity y Phoenix. La inmensa mayoría de la velocidad que llevaba la perderá por el rozamiento atmosférico, y una vez acabe esta etapa, la velocidad habrá bajado hasta 5 veces la
velocidad del sonido. Mientras siga descendiendo, la densidad atmosférica provocará que siga decelerando, y cuando los acelerómetros de a bordo (a aproximadamente 11 km. de altitud) detecten que la velocidad ha caído a unas 2 veces la velocidad del sonido, se provocará la orden para que el mortero dispare el paracaídas, para caer a velocidades subsónicas. Cuarenta segundos después del despliegue del paracaídas, el escudo de reentrada se desprenderá (distancia al suelo, 7 km.), al tiempo que activa el altímetro radar y la cámara de descenso. Una vez alcance una velocidad vertical de entre 60 y 85 metros por segundo, y una altitud de entre 600 a 1250 metros, Schiaparelli se separará de la aerovaina y el paracaídas, para inmediatamente después encender los motores de descenso, para iniciar la fase terminal, con una maniobra de prevención de colisión con los elementos expulsados. El radar seguirá controlando el descenso y, cuando alcance una altitud de unos 2 metros sobre el suelo, o detecte una velocidad vertical de 0.8 (aproximadamente) metros por segundo, los motores se apagarán, y empleará su sección inferior aplastable para ablandar el aterrizaje. Una vez finalice todo el proceso (que puede durar unos ocho minutos) serán casi las tres de la tarde, hora local marciana, iniciará la secuencia de operaciones de superficie, empezando por la transmisión de la señal de llegada, y después de un volcado de parte de la telemetría almacenada. Después de salir de la visibilidad, entrará en hibernación, mientras el paquete DREAMS comenzará a obtener lecturas. Las baterías se han diseñado para aguantar un máximo de 9 días, y en ese plazo se espera que la transmisión de todo lo recogido durante el descenso, además de los datos de DREAMS y la cámara DeCa, se realice empleando principalmente el relé Electra de MRO, aunque también ExoMars TGO, Mars Odyssey, Mars Express y su MELACOM, y MAVEN complementen estas operaciones. Una vez las baterías se agoten, la prioridad de la misión pasará al orbitador.

ExoMars TGO entrará en órbita el mismo 19 de octubre, en una órbita altamente elíptica que durará aproximadamente cuatro soles marcianos, y estará en una inclinación que le permita estar sincronizado con el área de aterrizaje de Schiaparelli. Una vez el módulo de superficie se apague, comenzará una serie de tareas que le lleven a su órbita definitiva. Lo primero será variar la inclinación orbital, pasando a la de trabajo, inclinada con respecto al ecuador marciano 74º, optimizada para operaciones de ocultación solar. Después, empleando su propulsor, reducirá su apogeo de una órbita de cuatro soles de duración a una de un sol de duración. Entonces, estará lista para iniciar la fase definitiva. De esta forma, ExoMars TGO se convertirá en la primera sonda europea que practique operacionalmente la estrategia del aerofrenado. Esta técnica, empleada por primera vez por Magallanes en Venus, ha sido usada con gran éxito por Mars Global Surveyor, Mars Odyssey y MRO para alcanzar sus órbitas de trabajo. Como la ESA carecía de experiencia en estas maniobras, primero tenían que demostrar que eran capaces de hacerlo. Por ello, aprovechando los últimos meses de misión de Venus Express en torno al segundo planeta, se practicó una fase de aerofrenado experimental que redujo eficazmente su órbita en el mes en que lo hizo. Ahora, aprovecharán esta experiencia para llevarla a cabo con su nuevo orbitador marciano. En principio esperan comenzar con el aerofrenado en enero del 2017, y estará realizándolo hasta diciembre del 2017. Cuando finalice, habrá alcanzado su altitud definitiva, a unos 400 km. sobre Marte, pero antes de que pueda iniciar las operaciones, tendrá que pasar una conjunción solar (el momento en que el Sol se interpone en la señal de comunicaciones entre el planeta rojo y nosotros), que durará aproximadamente un mes. Antes de eso, tendrán tiempo de poner a punto la instrumentación, y obtener los primeros datos. Cuando pase la conjunción, comenzará su tarea científica, de un año marciano de duración.

Este tiempo de misión permitirá que la misión cumpla sus tres objetivos. El primero, monitorizar la atmósfera marciana con una sensibilidad sin precedentes. Empleando los paquetes NOMAD y ACS, y a partir, sobre todo, de las operaciones de ocultación solar, aunque también empleando sondeos del limbo y observaciones en la vertical planetaria, detectar y cartografiar los gases traza que allí existen; la primera cartografía del ratio de deuterio a hidrógeno en la atmósfera (información relacionada sobre todo con las reservas de agua existentes); así como la cartografía de los campos meteorológicos, para en esencia obtener las mediciones necesarias para conseguir reconstruir la circulación atmosférica (empleando las técnicas y métodos usados para los estudios meteorológicos en la Tierra) y hacer un seguimiento, hacia atrás en el tiempo, de la cantidad de estos gases traza atmosféricos en tiempos pasados para conocer la climatología pasada. Esta será la primera vez que se use a esta escala la ocultación solar en Marte, ya que es el método más potente que existe para obtener mediciones de gases que existen en una atmósfera en una concentración tan baja que no aparecen en los estudios convencionales. Hay una serie de instrumentos que la NASA ha ido lanzando al espacio desde la década de 1970, los espectrómetros ultravioleta SAGE (cuyo último ejemplar debe ir a la ISS) que han sido muy importantes. Con NOMAD y ACS, realizará al menos 24 perfiles verticales atmosféricos, con resoluciones espaciales que irán de los 500 metros a los 3 km. Guiado por los datos que obtengan sus espectrómetros atmosféricos, la cámara CaSSIS debe cumplir el segundo, caracterizar la apariencia física y la estructura de las fuentes potenciales de gases traza. Empleando su capacidad de crear perfiles estereoscópicos de la superficie a todo color, caracterizará las zonas identificadas como fuentes de estos gases, para así investigar en los procesos dinámicos superficiales, tales como sublimación, erosión o vulcanismo, que puedan contribuir al inventario de gases atmosféricos. FREND se encargará del tercer objetivo, que es ir más allá del HEND de Mars Odyssey, para construir un mapa de alta resolución (hasta 40 km.) del contenido de hidrógeno (y por su detección, de agua) en el primer metro de la subsuperficie marciana, cartografiando las latitudes superiores a 55º Norte para comprender su distribución y su origen; cartografiando la hidratación bajo la superficie en latitudes más bajas; para relacionar posiblemente esas observaciones con fuentes de gases traza y de vapor de agua; y sobre todo, para descubrir nuevas zonas ricas en hidrógeno (agua) en otros lugares de interés. Un programa muy completo, que se complementará, si continúa en operación, su antecesora Mars Express con sus sensores SPICAM y PFS.

Después de acabar su tarea principal, se convertirá en el recurso principal y enlace de ExoMars Rover con el centro de control en tierra, como lo es Mars Odyssey con Opportunity y MRO con Curiosity. Gracias a los paquetes Electra, lo que se quiere hacer es crear una suerte de estándar de comunicación para las futuras misiones a la superficie. Por supuesto, como ya ocurrió en ocasiones anteriores, si está en buena salud, ExoMars TGO continuará sus operaciones científicas, aumentando la información para crear mejores mapas y mediciones, y además para obtener imágenes que se usarán, entre otras cosas, para la búsqueda y caracterización de futuros lugares de aterrizaje, en conjunción con la potentísima HiRISE de MRO, creando mapas tridimensionales de los sitios candidatos en los que buscar grandes desniveles o agujeros peligrosos.

Importante sin duda, ExoMars TGO nos abrirá boca antes de que la misión de superficie, tanto el rover diseñado en Europa como la plataforma estacionaria elaborada por Rusia, llegue al planeta rojo para cumplir la misión de las misiones: buscar rastros de vida bajo la superficie, yendo más allá, evidentemente, que Curiosity en este sentido. Mucha suerte.

miércoles, 17 de febrero de 2016

El paradigma Discovery

Viking, Voyager, Galileo, Cassini. Cuatro misiones, 10 sondas espaciales, una larga ristra de experimentos científicos, y un presupuesto enorme. Todo un paradigma al que la NASA se abrazó para obtener grandes resultados científicos, que los obtuvieron y obtienen hoy en día. El peaje a pagar ha sido la cantidad de dinero que han costado, desde el inicio de cada proyecto hasta la obtención de los preciados resultados científicos. Porque recordemos, Viking fue iniciado a mitad de la década de 1960, no alcanzó Marte hasta el verano de 1976, y su misión no concluyó oficialmente hasta 1983. Voyager, abierto a comienzos de la década de 1970, fue situado en el espacio en el verano de 1977, y continúa proporcionando ciencia. Galileo comenzó en 1977, pero no fue elevada hasta 1989, alcanzando su destino en 1995 y dando por concluida su tarea en el 2003. Y Cassini, puesta en marcha en 1982, no conoció el frío espacial hasta otoño de 1997, alcanzó su destino final en el 2004, y actualmente continúa proporcionando ciencia. Tanto exceso de costes y tanto tiempo de desarrollo provocó en la NASA un cambio de rumbo, provocado principalmente por una reducción de presupuesto considerable. Cuando Viking finalizó, en los despachos de la agencia empezó a avanzar el proyecto de una nueva serie de misiones que, usando una misma base para todo tipo de programas de exploración, generaría la tan buscada reducción de costes, manteniendo a flote la investigación del sistema solar, extendiéndola a los asteroides y los cometas.

El programa Planetary Observer pretendía relanzar la exploración de los planetas internos del sistema solar y los cuerpos menores con misiones que emplearan una misma arquitectura basada fuertemente en la empleada en satélites terrestres, que debería ser mínimamente reformable para dar cabida a los distintos elementos dependiendo de los requisitos de cada proyecto. La única misión que vio la luz 
adscrita a este programa fue la ya tristemente célebre Mars Observer. Ya desde su concepción se empezó a ver que la tan prometida reducción de costes sería papel mojado, debido a que el desarrollo de los distintos componentes del bus de la sonda se retrasó considerablemente, mientras que el añadido de una gran instrumentación añadió complejidad al conjunto, incurriendo en enormes sobrecostes y en el retraso de su lanzamiento. Otros probables proyectos de Planetary Observer, como la propuesta Lunar Observer, quedaron cancelados de inmediato, y aunque el concepto de una visita asteroidal aprovechando esta plataforma había sido discutido y rechazado, en la comunidad científica planetaria se mantuvo el deseo de preparar una misión hacia algún cuerpo menor cercano a la Tierra. El resultado de Mars Observer fue que costó el doble de lo proyectado, resultó más grande y compleja (lo que obligó a emplear un lanzador pesado), y lo peor, fracasó. En los días en que esta sonda se perdió, la idea de misiones planetarias baratas alcanzó otro nivel.

Del 26 al 30 de junio de 1989, la División de Exploración del Sistema Solar de la NASA organizó una conferencia llena de talleres en la Universidad de New Hampshire. Una de las charlas dentro de los talleres se centró en un nuevo concepto de misiones que nada tenía que ver en todo lo anterior. El llamado Grupo del Programa de Misiones Pequeñas, presidido por el doctor Joseph Veverka, del Departamento de Astronomía de la Universidad Cornell, propuso toda una nueva generación de sondas espaciales pequeñas, de muy bajo coste, ciclos de desarrollo muy cortos, y objetivos científicos muy específicos. La propuesta fue recibida con gran escepticismo. Como Planetary Observer había prometido lo mismo varios años antes, nadie estuvo interesado en algo así. Entre los asistentes a la conferencia, se encontraba uno de los científicos prominentes del Laboratorio de Física Aplicada de la Universidad Johns Hopkins. Meses antes de la conferencia, en el Departamento Espacial del APL había nacido el interés de que el Laboratorio desarrollara misiones que abandonaran la órbita terrestre, y centraron las miradas en los cuerpos menores del sistema solar, es decir, los asteroides y los cometas. El físico Stamatios Krimigis, que estudió bajo el célebre James Van Allen en la Universidad de Iowa, tenía una idea muy concreta de lo que debería ser este nuevo programa de misiones interplanetarias. El APL había participado activamente en diversas misiones del programa Explorer de la NASA, que proporcionó a la comunidad de la física espacial frecuentes oportunidades de colocar pequeños, económicos pero avanzados satélites en el espacio desde el inicio de la era espacial. La idea de Krimigis era exportar ese concepto al sistema solar, por lo que los proyectos serían pequeños, de rápido desarrollo, usarían cohetes más económicos, y tendrían objetivos científicos muy concretos. Él mismo estaba trabajando en una misión Explorer de bajo coste, el Explorador Avanzado de Composición ACE (que a modo de apunte, todavía proporciona resultados), cuyo modelo de dirección quería exportar a los proyectos planetarios. Tras la charla de Krimigis, el entonces director de la División de Exploración del Sistema Solar, Geoffrey Briggs, se acercó a él y le preguntó si el APL estaría interesado en realizar una propuesta de misión de acuerdo con sus condiciones. A la vez, se organizó un Grupo de Trabajo Científico que sería el encargado de revisar las propuestas.

El Grupo de Trabajo se reunió a finales de 1989, y otra vez en mayo de 1990. En esas reuniones se revisaron diversas propuestas, pero no se tomó la decisión de aprobar ninguna. La única decisión que se tomó fue el nombre del programa de larga duración bajo el cual estas nuevas misiones baratas debían ampararse: Discovery.

En 1990 Briggs fue sustituido por Wesley Huntress, que reorganizó el Grupo de Trabajo, y solicitó que este eligiera de una vez una misión para probar el concepto. Presidiendo el Grupo colocó a Veverka. En las reuniones posteriores se fijaron las condiciones sobre las cuales debían ceñirse los proyectos que se presentaran al Discovery. La duración del proyecto desde su autorización definitiva hasta la el lanzamiento no debía superar los 36 meses, y en cuanto a presupuesto, en cifras de 1990, el coste máximo de un proyecto (el diseño y desarrollo) tendría un tope de 150 millones de dólares. El cohete (máximo un Delta 2) y las operaciones de misión, además, no tendrían que costar más de 90 millones, y por último también estaba el procesado y archivado de la información. A modo de comparativa, Viking había costado, al cambio en 1990, 3 billones de dólares. Con motivo de esta prisa, tanto el JPL (el experto de la NASA en misiones planetarias) como el APL empezaron a desarrollar sus propuestas que, según el Grupo de Trabajo, debían centrarse en poner en marcha una misión con la tarea de encontrarse con un asteroide cercano a la Tierra. En mayo de 1991, ambas organizaciones se reunieron con el Grupo de Trabajo para presentar sus estudios.

El primero en ofrecer sus conclusiones fue el grupo del JPL. Allí explicaron que les resultaba imposible realizar la misión por la cifra especificada, por lo que ellos incluían en su propuesta un leve incremento en la cifra tope de presupuesto. Luego llegó el momento para el equipo del APL, que afirmaron no solo ser capaces de ceñirse al estrecho margen de presupuesto y tiempo, sino que serían capaces de conseguirlo en un calendario menor al especificado y por un presupuesto todavía menor. En octubre de ese mismo año el Grupo de Trabajo publicó su informe, en el que destacaba las características finales de toda misión Discovery y, aunque la decisión de qué misión aprobar descansaba finalmente en la NASA, recomendó vivamente que una misión para el encuentro con un asteroide debía tener prioridad, y encargó al APL que comenzaran los preparativos para que el proyecto viera la luz.

El paradigma Discovery había calado, y pocos días después del informe del Grupo de Trabajo, el subcomité del Senado estadounidense encargado de la asignación del presupuesto de la NASA se dirigió a los máximos organismos de la agencia para que éstos prepararan un plan “para estimular y desarrollar pequeñas misiones planetarias u otros proyectos de ciencia espacial”, indicando que debían buscar el apoyo o permitir la participación de las comunidades académicas y de investigación, un indicativo de que se debía permitir a instituciones como el APL a entrar en el juego de la investigación del sistema solar. El gran cambio de la NASA se inició el 1 de abril de 1992 cuando Daniel Goldin fue elegido Administrador de la NASA y, al poco de sentarse en su nuevo sillón, descubrió el programa Discovery, calificándolo como “el secreto mejor guardado”. Al poco, apareció el Plan de Pequeñas Misiones Planetarias cuya pieza central era Discovery, e inmediatamente se anunció la primera misión adscrita al programa, y su objetivo era Marte, una misión dirigida por entero por el JPL. Esta decisión no cayó bien en la gente del APL, que rehicieron por completo el plan de misión de su proyecto asteroidal y, con apoyo de la senadora por Maryland (donde se asienta la Universidad Johns Hopkins) Barbara Mikulski, el Senado aprobó la primera inyección de dinero para comenzar el desarrollo y construcción de la sonda. Era el 5 de diciembre de 1993 cuando la segunda misión Discovery quedó aprobada.

La forma de aprobar las primeras misiones del programa distaba de la que debía ser la norma: al igual que las misiones Explorer, las propuestas Discovery serían elegidas siguiendo un proceso altamente competitivo, en las que se tenían en cuenta los objetivos científicos, el calendario de misión, así como los aspectos técnicos que ayudarían a conseguir la ciencia prometida y permitiendo una reducción de costes suficiente como para ser tenida en cuenta para su aprobación final. Siguiendo la fórmula Explorer, las misiones Discovery (salvo las dos primeras) están dirigidas por una figura central denominada Investigador Principal, ocupada por un científico, que se encarga de que todo marche, y reúne un grupo de científicos (no necesariamente del centro al que pertenece) e ingenieros (tanto de la NASA como de las firmas industriales) para diseñar la propuesta, y posteriormente, la misión real. Muchas de las propuestas no pasaron de un esbozo, otras fueron ampliadas para comprobar su viabilidad pero cayeron, y también ha habido propuestas que llegaron a la elección final, plenamente viables y fascinantes, pero que no consiguieron ser aprobadas. De las misiones Discovery, podríamos decir que se pueden haber presentado hasta más de 100 propuestas para su aceptación y final vuelo. Las siguientes son las que han sido colocadas en el espacio.

La primera misión Discovery en ser lanzada, aunque fue la segunda elegida, era la primera dedicada exclusivamente a estudiar sistemáticamente un asteroide. NEAR, acrónimo de Encuentro con un Asteroide Cercano a la Tierra, tenía la misión de obtener la primera visión global de un cuerpo de estas características. Tras los encuentros de Galileo con Gaspra e Ida en 1991 y 1993 respectivamente, se vio que las técnicas de navegación espacial eran capaces de llevar a una sonda espacial a pasar por las cercanías de un cuerpo del sistema solar de este tipo. Diseñada y construida en el APL en un tiempo récord de 27 meses, para conseguirlo se consiguió un diseño enormemente simple, eliminando casi por completo las partes móviles. Estabilizada en sus tres ejes, y con todos su componentes principales fijos sobre la estructura (paneles solares, antenas, instrumentación) la sonda rotaría sobre sí misma para mantener los experimentos científicos continuamente apuntados hacia el asteroide, en concreto el mayor de los NEO’s, el 433 Eros. El objetivo de NEAR era proporcionar información a preguntas realizadas hace tiempo acerca de estos cuerpos, tales como su naturaleza (propiedades físicas y geológicas, composición elemental y mineralógica), el origen de los meteoritos, y la relación entre los asteroides, los meteoritos y los cometas. Para ello, contaba con la cámara multiespectral MSI, el espectrógrafo infrarrojo NIS, la herramienta láser NLR, el doble espectrómetro de rayos X y gamma XGRS (acompañado por un aparato de monitorización de los rayos X solares), el magnetómetro MAG y el sistema de radio ciencia RS. A plena carga la sonda desplazaba 805 kg. Casi toda la sonda (salvo el propulsor principal) fue producida en las instalaciones del APL, y la instrumentación se inspiraba en aparatos científicos previamente desarrollados en el Laboratorio. El Director del Proyecto era Thomas Coughlin, mientras que el Científico del Proyecto era Andrew Cheng. Lanzada el 17 de febrero de 1996 desde Cabo Cañaveral, empleó un Delta 2-7925, y tenía ante sí un camino de casi 3 años, que era la manera más económica, en términos de gasto de combustible, de alcanzar Eros. El tipo de trayectoria, en términos técnicos, se la conoce como Delta-VEGA, siendo el Delta-V la denominación de una maniobra de cambio de velocidad (en este caso, una Maniobra de Espacio Profundo) y la EGA, una Asistencia Gravitatoria a la Tierra. Por el camino, NEAR proporcionó la primera ciencia que una misión Discovery entregó, cuando sobrevoló el asteroide carbonáceo 253 Mathilde el 27 de junio de 1997 de manera exitosa. El sobrevuelo terrestre, ejecutado el 23 de enero de 1998, la colocó en camino hacia el asteroide Eros, pero días antes de la inserción orbital, un problema a bordo, el 20 de diciembre de ese mismo año, evitó la realización de las maniobras previas, aunque proporcionó la oportunidad de tomar breves datos del asteroide. Después de diversas maniobras tras el sobrevuelo a Eros, quedó en una trayectoria en la que interceptaría de nuevo al
asteroide el 14 de febrero del año 2000, y esta vez la maniobra se ejecutó con éxito, y comenzó la fase principal de la misión, que duró un año. Para acabar la misión, el 12 de febrero del 2001, se completó una maniobra espectacular: aterrizar en la superficie de Eros. Realizada con brillantez, NEAR-Shoemaker (nombrada así el 14 de marzo del 2000 durante una conferencia en Houston, en honor al geólogo planetario Eugene Shoemaker, fallecido en 1997 en un accidente de tráfico) sobrevivió, proporcionando 15 días más de información hasta que el 28 de febrero su transmisor fue apagado. NEAR-Shoemaker proporcionó mucha información acerca de Eros, un cuerpo alargado, enormemente craterizado, homogéneo (a diferencia de otros asteroides, es un solo fragmento, no una pila de rocas), cubierto por una enorme capa de regolito. También fue una misión de primicias: primera misión Discovery en ser lanzada, primera en orbitar un cuerpo menor, primera exploración en profundidad de un asteroide cercano a la Tierra, primer reconocimiento de un asteroide tipo C (Mathilde), la primera misión planetaria en usar un lanzador tipo Delta, y la primera en ir más allá de la órbita marciana usando únicamente paneles solares para alimentarse de energía. Demostró ampliamente que el concepto Discovery no solo era realizable, sino también enormemente valioso.

La segunda misión Discovery en ser lanzada, aunque, como hemos visto, fue la primera elegida, tenía como objetivo alcanzar la superficie de Marte. Mars Pathfinder, tal y como fue originalmente propuesta (MESUR Pathfinder) era un demostrador tecnológico que debía probar tanto conceptos como tecnologías nuevas para facilitar y abaratar el amartizaje, así como demostrar el uso de un vehículo autopropulsado semiautónomo para completar reconocimientos del área de aterrizaje. De las 17 misiones que MESUR  contemplaba (la tecnológica más 16 científicas) solo la primera recibió financiación y, como comentamos, quedó encuadrada en el programa. El concepto no había variado nada, ya que era eminentemente una misión de prueba, en que debían demostrarse diversas cosas: el concepto de entrada directa, sin necesidad de inserción orbital (como en el caso de Viking); la utilización de un método novedoso en la NASA para posarse suavemente en la superficie marciana (un sistema de retrocohetes de combustible sólido y un conjunto de airbags inflados por toda la estructura del lander para amortiguar la caída contra el suelo marciano); y lo más importante: la liberación de MFEX, Experimento de VueSojourner. El hardware de la misión se dividía en cuatro segmentos, compuesto por la fase de crucero (325 kg), la cápsula de descenso (200 kg.), el lander Mars Pathfinder (360 kg.) y el rover Sojourner (10.6 kg.). Lo verdaderamente importante de la misión era el segmento de superficie, con un lander con forma de tetraedro que apenas levantaba 1.5 metros del suelo. Tres pétalos se extendían desde una base central proporcionando una amplia superficie de paneles solares y el soporte de sujeción para el rover. A pesar de su carácter tecnológico, también estaba equipado para proporcionar ciencia: un sistema de televisión estereoscópico multiespectral (IMP) y una combinación de investigación de estructura atmosférica (durante la fase de entrada y descenso) y estación meteorológica (ASI/MET) en el lander, y un innovador espectrómetro de protones, partículas alfa y rayos X (APXS) en el rover. Con este equipo (junto con una serie de imanes de distinta potencia y la utilización de las ruedas de Sojourner en el suelo marciano) pretendía cumplir los siguientes objetivos: estudios de la forma y estructura de la superficie marciana y su geología; examinar la composición elemental y la mineralogía de los materiales superficiales; realizar una serie de experimentos atmosféricos; completar pruebas de mecánica del suelo y propiedades de los materiales superficiales; y, usando el sistema de telecomunicaciones del lander, investigar la dinámica rotacional y orbital del planeta. Con todos los elementos juntos, la masa de despegue era de 895 kg. El Director del Proyecto era Anthony Spear, y el Científico del Proyecto, Matthew Golombek, ambos del JPL. Elevada por un Delta 2-7925 desde Cabo Cañaveral el 4 de diciembre de 1996, fue lanzada casi un mes después que su compañera marciana Mars Global Surveyor, pero aprovechando una trayectoria más directa, alcanzaría el planeta rojo casi dos meses antes. El 4 de julio de 1997 realizó toda la coreografía de entrada, descenso y aterrizaje perfectamente, convirtiéndose en el tercer vehículo enviado por el ser humano en funcionar
lo de Microrover, mejor conocido como
con éxito en tan duro ambiente. Sin embargo, las primeras horas de Mars Pathfinder en Ares Vallis, el punto escogido para el desembarco, fueron problemáticas. Una mala recogida de los airbags impedía desplegar las rampas para el descenso de Sojourner a la superficie, y también había problemas en la comunicación entre el lander y el rover. El segundo día (o sol) quedó todo resuelto, por lo que en el tercero, Sojourner dio sus primeros pasos por el oxidado suelo de Marte. El tiempo de misión principal de cada vehículo era breve (30 soles para Mars Pathfinder, 7 para el rover), pero fue ampliamente sobrepasado. Mientras que el lander duró tres veces más, Sojourner aguantó 12 veces más, lo que permitió un examen muy interesante del entorno, plagado de rocas de distintas formas y tamaños. Por desgracia para la misión, la batería de Mars Pathfinder falló, lo que provocó la avería de los componentes principales de a bordo, por lo que el 27 de septiembre de 1997 recibimos la última transmisión. Sojourner todavía podría estar vivo, pero necesitaba del lander para comunicar con el centro de control. A pesar de durar apenas tres meses en el suelo marciano, puso del revés todo lo que creíamos saber del planeta rojo y que las dos sondas de aterrizaje Viking nos mostraron: la andesita es la roca principal en Marte; la existencia de conglomerados (una roca que solo se forma en ambientes acuáticos); el hallazgo de sales en el suelo; y la constatación de que, en proporción, el núcleo de Marte es de un tamaño similar al de la Tierra. Una misión que no solo proporcionó una ciencia inesperada, también enganchó a muchísima gente que provocó una enorme avalancha en la página web de la misión, algo desconocido en los primeros tiempos de internet. Una triunfadora.

La tercera misión Discovery (la primera seleccionada competitivamente y siguiendo el método de dirección de las misiones Explorer) devolvía la NASA a un cuerpo del sistema solar que no había visitado en 25 años: la Luna. Seleccionada en febrero de 1995, LunarProspector fue propuesta para responder a una duda, surgida durante el vuelo de la misión de la sonda Clementine en 1994, que se podía resumir así: ¿existe hielo en la Luna? Este proyecto se inició con esto en mente, pero un repaso a todo lo que se sabía acerca de nuestro satélite indicaba que existían enormes lagunas de conocimiento sobre diversos aspectos de Selene. Lunar Prospector tenía el propósito de resolver algunas de ellas de una forma sumamente económica. La sonda de la misión era enormemente simple, estabilizada por rotación, bastante ligera, y equipada potentemente para responder a su programa científico. Resumiendo, la sonda debía proporcionar información acerca de abundancia elemental de los minerales superficiales, un nuevo estudio del campo gravitatorio, la comprobación final acerca de la existencia de campos magnéticos lunares, eventos de expulsión de gases, y por supuesto, la existencia de hielo de agua. De las cinco investigaciones, cuatro se montaron en tres mástiles que nacían del cuerpo central de Lunar Prospector: un espectrómetro de rayos gamma (GRS), un novedoso espectrómetro de neutrones (NS), un espectrómetro de partículas alfa (APS), y una combinación de magnetómetro y reflectómetro de electrones derivada de la usada en Mars Global Surveyor (MAG/ER). La quinta investigación era el tradicional experimento de radio ciencia, denominado aquí DGE. Dada la utilización de mucho hardware sencillo y más que probado en el espacio, se consiguió una cifra de gasto hasta la fecha inigualada: 63 millones de dólares, contando también en esa cantidad el cohete, y la utilización de materiales ultraligeros como el grafito-epoxi permitió una sonda que declaraba una masa de apenas 296.4 kg. a plena carga. El Investigador
Principal era el Dr. Alan Binder, del Instituto de Investigación Lunar, y la misión fue dirigida por el Centro de Investigación Ames de la NASA. Lanzada desde Cabo Cañaveral el 6 de enero de 1998, usó un lanzador Athena 2 para situarla en camino. Tardó 105 horas en alcanzar Selene para después usar su propulsor principal para situarse en órbita polar. Después de unos ajustes, quedó en la trayectoria de trabajo, a unos 100 km. de altitud. Su misión primaria era de 1 año, y resultó tan exitosa que inmediatamente se aprobó una extensión de seis meses, en la cual redujo su órbita a apenas 30 km., antes de impactar sobre la superficie lunar el 31 de julio de 1999. La misión fue un éxito absoluto (a pesar del problema con el instrumento APS) y amplió nuestros conocimientos lunares considerablemente: un mapa gravitatorio más preciso; la localización de una anomalía magnética en una región lunar; un mapa químico global de la superficie lunar; y lo mejor, la detección (indirecta, eso sí) de hielo de agua en amplias cantidades en ambos polos lunares, algo que misiones posteriores confirmarían directamente. ¿Se puede hacer más con menos?

La cuarta misión Discovery enfrentaba a la NASA a un terreno desconocido: la investigación cometaria. El primer proyecto de la agencia a estos vagabundos del sistema solar tenía un objetivo apasionante. Nada menos que la recolección de muestras de las partículas expulsadas por el núcleo cometario y que dan forma a la coma y a la cola del objeto. La misión Stardust, seleccionada en noviembre de 1995, se preparó por ello con gran cuidado, ya que como demostraron las misiones de 1986 al cometa Halley, el entorno cometario es sumamente hostil a las sondas espaciales, y solo las fuertemente protegidas pueden sobrevivir con garantías. Dos elementos dominaban la misión. Por un lado, la protección cometaria. Dado el diseño de la sonda, se hizo necesario recurrir a la instalación de tres gruesos escudos Whipple (uno en el bus de la sonda, dos para los paneles solares) en la parte frontal. En la opuesta, por el otro, el sistema de recolección de muestras (denominado WISCER) instalado dentro de una cápsula de retorno. Para recoger los fragmentos de cometa expulsados se diseñó una suerte de raqueta, elaborada en aluminio, cuyo interior se dividió en celdas en ambos lados, que se rellenaron con una sustancia llamada aerogel, un material sólido basado en el silicio, tipo esponja, con un 99% de espacio vacío, lo que lo convierte en la sustancia sólida más ligera que existe. El aerogel se usó tanto para decelerar las partículas expulsadas a alta velocidad como para conservarlas lo mejor posible sin alterarlas. Siendo estos elementos lo principal de la misión, la economía del proyecto llegó por parte de la construcción del bus de la sonda (usando diseños ya existentes), de hardware ya probado en el espacio y de instrumentación derivada de otras ya colocadas en el espacio. Además del sistema de recolección de muestras, dispuso del siguiente equipo científico: una mezcla de cámara de navegación y sistema científico de imágenes (NC), un espectrómetro de masa para las partículas de polvo, tanto cometario como interestelar (CIDA), un instrumento de monitorización de fluyo de polvo situado en los escudos Whipple (DFMI), y el habitual sistema de radio ciencia (DSE). Stardust estaba estabilizada en sus tres ejes y carecía de partes móviles (salvo las pertinentes para el despliegue de los paneles solares). El objetivo científico era simple: cazar un cometa y recoger muestras de su coma y de su cola, mientras la instrumentación proporcionaba contexto en información acerca del objeto, para después entregar las muestras usando la cápsula de retorno de muestras para  analizar lo recogido en laboratorios especializados. Una vez preparada para el lanzamiento, el peso en báscula era de 385 kg. El Investigador Principal era el Dr. Donald Brownlee, de la Universidad de Washington, y la misión estaba dirigida por el JPL. Lanzada el 7 de febrero de 1999 mediante un Delta 2-7426 desde Cabo Cañaveral, tenía ante sí un largo viaje de casi cinco años hasta encontrarse con su objetivo, el cometa 81P/Wild 2, y dos adicionales hasta entregar la
s muestras. Para hacer el trayecto económico en cuestión de consumo de combustible, se programó un sobrevuelo a la Tierra producido el 15 de enero del 2001, que alteró su órbita (aproximándola al cinturón de asteroides) y añadió algo de velocidad. En el intervalo, Stardust sobrevoló un asteroide (5535 Annefrank) el 2 de noviembre del 2002, y al fin alcanzó su destino el 2 de enero del 2004. El sobrevuelo cometario fue sin duda exitoso, y dio su tercera vuelta alrededor del Sol antes de entregarnos sin problemas la cápsula de retorno, mientras la sonda pasaba la Tierra a corta distancia y, días después, colocada en hibernación, en caso de que alguien la reclamara en un futuro. Las imágenes del cometa nos mostraron un objeto enormemente agreste y activo, y las muestras traídas resultaron sin duda fascinantes: elementos orgánicos, hidrocarburos, así como elementos que solo se forman en entornos acuáticos a alta temperatura como el titanio o el vanadio. Los cometas son todavía más complejos de lo que se pensaba.

El objetivo de la quinta misión Discovery no era otro que el de viajar atrás en el tiempo, exactamente al tiempo en que el sistema solar tal y como es no existía. Seleccionada en diciembre de 1997, el propósito de Genesis era el de conocer la composición de la nebulosa planetaria que dio origen a todos los astros de nuestra parcela galáctica, desde Helios a la más diminuta roca que vuela en torno al él. Para lograrlo, debía conseguir casi lo mismo que Stardust: recoger muestras, esta vez de nuestra estrella. No se trataba de ir allí y recoger parte de su masa incandescente (eso está más allá de nuestras posibilidades tecnológicas, actuales y futuras a corto y medio plazo), sino quedarse a una distancia segura y esperar a que ese material solar llegue a ella. Nos referimos, por supuesto, al viento solar. Ese plasma caliente cargado de átomos expulsado por Helios a distintos regímenes puede contener la clave para entender cómo se formó no solo el sistema solar, sino también nuestro propio planeta, mediante la investigación de la composición isotópica del material del viento solar. Los objetivos concretos se colocaban en cuatro categorías: proporcionar datos de la composición isotópica de la materia solar lo suficientemente precisa para los estudios de ciencia planetaria; mejorar significativamente nuestros conocimientos sobre la composición elemental de la materia solar; proporcionar una reserva de muestras suficiente para cumplir las necesidades de la ciencia planetaria del S. XXI; y proporcionar mediciones independientes de los distintos tipos del viento solar. Como gran parte del presupuesto fue a los sistemas de recolección del viento solar, para abaratar el conjunto se recurrió a modelos de bus ya existentes, hardware ya probado y fiable e instrumentación ya diseñada para dar forma a la sonda, sumamente sencilla, estabilizada por rotación, y con una envergadura de 6.8 metros. Sobre ella, iría la cápsula de retorno de muestras (de similar diseño al usado en Stardust, aunque más grande) en cuyo interior se colocaron los dos sistemas de recolección. El principal era un conjunto de 5 placas cosechadoras que cada una fue cargada con una serie de losetas hexagonales elaboradas mediante sustancias distintas y ultrapuras, dos para adquisición de viento solar en bruto, y tres para los regímenes del viento solar. El segundo sistema era el innovador Concentrador Solar, un aparato entregado en exclusiva a la adquisición de átomos de oxígeno, rechazando todo lo demás mediante rejillas cargadas eléctricamente, y concentrando los átomos de oxígeno en un pequeño objetivo compuesto por cuatro pequeñas placas también de material ultrapuro. Para que Genesis conociera qué régimen del viento solar estaba soportando, recibió los monitores de iones y electrones GIM y GEM, herencia de misiones solares como Ulysses y ACE, conectados a un programa informático que, usando la información recogida por los monitores, provocaba la extensión de la placa más conveniente. El peso del conjunto antes del lanzamiento era de 636 kg. El Investigador Principal es el Dr. Donald Burnett, del Instituto Tecnológico de California (Caltech), y la misión estaba dirigida por el JPL. Lanzada mediante un Delta 2-7326 desde Cabo Cañaveral el 8 de agosto del 2001, tenía como destino una órbita de halo en torno al punto L1, a 1.5 millones de km. delante de la Tierra, entre Helios y nosotros, al que llegó el 16 de noviembre. La misión principal comenzó el 3 de diciembre con la apertura de la cápsula de retorno y exponiendo al viento solar los recolectores, y así estuvo hasta el 1 de abril del 2004. El día 22 de ese mes abandonó la órbita de halo rumbo a la Tierra, y en vez de ir directamente, realizó un viaje de unos cinco meses en los cuales rodeó el punto L2 antes de regresar a la Tierra. El motivo de tan largo viaje era entregar la cápsula a plena luz del día, para que unos helicópteros especialmente
equipados la recogieran en el aire y ayudaran a descenderla al suelo en el tramo final. Genesis expulsó la cápsula y ésta reentró en la atmósfera el 8 de septiembre, mientras la sonda sobrevolaba nuestro planeta dirigiéndose de nuevo rumbo al L1, quedando en hibernación el 2 de diciembre. Por desgracia, el plan de recogida previsto falló porque los paracaídas que portaba no se desplegaron (consecuencia de unos sensores colocados erróneamente) y acabó estrellada contra el suelo, quedando lógicamente destrozada. Tras duros esfuerzos de rescate, las placas cosechadoras fueron limpiadas y trasladadas para comenzar los análisis, y a pesar de que muchas estaban en mal estado, las preciadas muestras todavía estaban allí. Todavía quedan muchos análisis que hacer (principalmente por no existir los métodos analíticos necesarios) pero lo conseguido hasta ahora ha provocado que llegáramos a la conclusión de que parte de nuestras teorías acerca del nacimiento del sistema solar estaban equivocadas, así como permitirnos descubrir nuevos fenómenos solares. Por este motivo, el proyecto Genesis bien podemos decir que todavía está abierto, y que todavía nos esperan muchas sorpresas.

La sexta misión Discovery tenía encargada una misión cometaria, pero muy distinta a la de Stardust. El propósito de CONTOUR, o Tour por Núcleos Cometarios (seleccionada a la vez que Genesis), era investigar la diversidad entre los cometas, con una única sonda con los mismos instrumentos. Teniendo en cuenta que no hay un cometa igual a otro (los hay más gastados, los hay casi intactos), los datos que proporcionara servirían para averiguar cómo han ido evolucionando a lo largo del tiempo hasta alcanzar el estado actual. Para hacerlo, el propósito era llegar lo más cerca posible, por lo que se tuvo que diseñar una sonda enormemente protegida para sobrevivir a sobrevuelos con una distancia mínima al núcleo cometario de apenas 100 km. La característica principal de CONTOUR era su escudo Whipple de 25 centímetros de grosor, y tras él estaba la sonda propiamente dicha. Diseñada sin apenas partes móviles, se trataba de un vehículo muy sencillo con forma de octógono, con los paneles solares por los laterales y la parte superior, mientras el hardware se concentraba en su interior. Con dos modos de estabilización, una de las maneras de reducir la factura total del proyecto era sumir a CONTOUR en hibernación el 65% del tiempo total de misión, colocándola en una estabilización por rotación. El resto (sobrevuelos terrestres, encuentros cometarios, envío de datos) lo pasaría estabilizado en sus tres ejes usando la propulsión de a bordo. El plan era atrevido, y a merced de una trayectoria muy inteligente, sería posible, más allá de su tarea primaria, y usando la gravedad terrestre, visitar cualquier otro cometa que se acercara al sistema solar interior. Las mediciones clave a obtener en cada encuentro eran las siguientes: obtener imágenes de muy alta resolución (hasta 4 metros) de cada núcleo cometario para revelar detalles de la morfología y los procesos que muestren cómo funcionan los cometas; averiguar el tamaño, forma, rotación, heterogeneidad de color y albedo, así como actividad mediante la toma de imágenes globales; estudiar la composición de la coma; conseguir mediciones detalladas de la composición del gas y polvo en el entorno del cometa; y verificar el nivel de expulsión de gases a través de sus sensores. Para obtener todo esto, CONTOUR recibió cuatro experimentos: un avanzadísimo conjunto de cámara a color de alta resolución y espectrómetro infrarrojo (CRISP, capaz incluso de ordenar cambiar la orientación de la sonda para obtener las mejores imágenes del núcleo), una cámara a color para propósitos tanto científicos como de navegación (CFI), el repuesto del espectrómetro de masa de partículas cometarias que cargó Stardust (CIDA), y un espectrómetro de masa para analizar los gases e iones en el entorno cometario (NGIMS). Un vehículo compacto cuya masa a plena carga era de 970 kg. El Investigador Principal era el Dr. Joseph Veverka, de la Universidad Cornell, y la misión estaba dirigida por el APL.
Colocada en órbita terrestre por un Delta 2-7425 el 3 de julio del 2002, su plan de misión era bastante inusual. En vez de salir directamente del sistema Tierra-Luna (poniéndose en camino de sus objetivos principales, los cometas 2P/Encke y 73P/Schwassman-Wachmann 3) se quedó en una órbita altamente elíptica hasta que nuestro planeta se colocara en la posición óptima para salir al encuentro con sus objetivos. Para hacerlo, cargó un motor de combustible sólido de alto empuje que debía proporcionar la velocidad necesaria. Esta fue otra de las formas de reducir costes. Si se emplea un cohete más económico, y luego la sonda usa sus propios recursos para salir de órbita, la factura total del proyecto disminuirá significativamente. Sin embargo, la mala fortuna atacó a CONTOUR. El 15 de agosto, tras recibir los comandos para la maniobra de partida, la sonda se puso en marcha en una zona en la que no había cobertura de comunicaciones, y cuando llegó el momento de contactar, nunca lo hizo. A través de telescopios terrestres se vieron varios puntos brillantes (los fragmentos de la sonda) que abandonaban la Tierra en casi la misma trayectoria prevista para la misión. La conclusión a la que se llegó fue que el calor de la expulsión de gases se expandió desde la tobera a la estructura de la sonda, por lo que esta se descompuso, generando los fragmentos. Personalmente, aunque probable, creemos que hay otra alternativa más viable. Un cohete de combustible sólido mal procesado es peligroso, y podría haberse dado el caso de que debido a un manejo incorrecto del combustible del motor principal llevara a éste a sufrir un fallo catastrófico, provocando una explosión que acabó con la sonda. Teniendo en cuenta que tenemos el ejemplo de la sonda europea Giotto (con una arquitectura interna similar, incorporando un cohete de combustible sólido en su interior), la segunda opción es la más probable. En fin, hasta la fecha, CONTOUR es la única misión Discovery que no ha entregado resultados científicos.

La séptima misión Discovery es verdaderamente histórica. Lo es porque, desde Mariner 10 en la década de los años 1970, nadie había vuelto a Mercurio. El objetivo principal de MESSENGER (Explorador de Superficie, Entorno Espacial, Geoquímica y Medición de Mercurio, elegida en junio de 1999) era hacer el primer estudio sistemático del primer planeta del sistema solar, y lo haría desde órbita. El reto de entregar un vehículo espacial a Mercurio, y no menos para rodearlo, es sin duda económico. A pesar que desde la década de 1980 se sabía que era posible alcanzar la órbita mercuriana de manera relativamente barata en términos económicos, hacían falta una gran conjunción de factores. Así, un cohete debe ser lo suficientemente potente como para colocar la sonda en una trayectoria escogida, mientras que ésta tiene que completar todo un conjunto de maniobras que la coloquen en el corredor necesario para entrar en órbita. Por ello, el vehículo a mandar debe disponer de una apreciable cantidad de combustible. Lo difícil era cumplir los estrechos requisitos del programa Discovery y, a su vez, entregar una sonda espacial lo suficientemente bien equipada para proporcionar respuestas a muchas de las preguntas formuladas tras los tres sobrevuelos de 1974 y 1975, que eran las siguientes: ¿por qué es Mercurio tan denso?; ¿cuál es la historia geológica del planeta?; ¿cuál es la naturaleza del campo magnético mercuriano?; ¿cuál es la estructura del núcleo planetario?; ¿qué son los materiales inusuales en los polos mercurianos?; y ¿qué materiales volátiles son importantes en Mercurio? Si se resolvían los problemas de cómo depositar la sonda en órbita mercuriana, todavía había que resolver el problema de soportar el enorme calor del entorno de la órbita del primer planeta. Con una intensidad de la luz solar enormemente superior a la que hay en órbita terrestre, una sonda tiene que estar enormemente preparada para soportar elevadísimas temperaturas. Por ello, se emplearon materiales altamente tolerantes al calor (en especial el uso general del grafito para la estructura principal) y se dotó a MESSENGER, además, de un escudo a base de materiales cerámicos, mientras que para proteger los paneles solares recibió una serie de espejos para reflejar la luz solar y evitar el sobrecalentamiento de las células. Para cumplir el programa científico, la sonda fue dotada de ocho investigaciones: sistema de imágenes dual (MDIS), conjunto de espectrómetro infrarrojo y ultravioleta (MASCS), conjunto de espectrómetros de rayos gamma y neutrones (GRNS), espectrómetro de rayos X (XRS), altímetro laser (MLA), magnetómetro (MAG), conjunto de espectrómetro de partículas energéticas y plasma (EPPS) y el tradicional sistema radio científico (RS). Todo en una sonda de medidas comedidas y cuyo peso en báscula antes del lanzamiento era de 1.107 kg., siendo el 55% el correspondiente al combustible. El Investigador Principal es el Dr. Sean Solomon, del Observatorio Terrestre Lamont-Doherty de la Universidad de Columbia (anteriormente de la Institución Carnegie de Washington), y la misión está dirigida por el APL. Elevada desde Cabo Cañaveral el 3 de agosto del 2004 mediante un Delta 2-7925H, tenía ante sí un largo peregrinaje de 6.7 años, durante el cual usaría tanto su motor principal como un sobrevuelo terrestre (2 de agosto del 2005), dos acercamientos a Venus (24 de octubre del 2006, 5 de junio del 2007), y tres a su destino (14 de enero del 2008, 6 de octubre del 2008 y 29 de septiembre del 2009) para equiparar su trayectoria a la de Mercurio, así como igualar la velocidad orbital del planeta. Todas las maniobras quedaron completadas con grandísimo éxito, y el 18 de marzo del 2011 MESSENGER hizo historia al
entrar en órbita de Mercurio. La misión, hasta la fecha, ha proporcionado resultados de altura: constatación del un vulcanismo planetario; el campo magnético es dipolar como el terrestre; el núcleo ocupa un 85% del radio del planeta, además de estar en gran parte líquido; la exosfera es más dinámica de lo esperado; y lo mejor: existen depósitos de hielo en los cráteres en sombra permanente en el polo norte. Y lo que queda. Una misión tan milimétrica  desde el comienzo llegó a su fin también cumpliendo todas las previsiones, y tras una última y arriesgadísima fase de acercamientos a la superficie inferiores a los 10 km. de altitud, colisionó con su superficie el 30 de abril del 2015, sin haber sufrido problemas graves y con sus instrumentos funcionando como el primer día. Todo un ejemplo.

La octava misión Discovery ha sido sin duda la más atrevida de todas las aprobadas. El propósito del proyecto DeepImpact (seleccionada al mismo tiempo que MESSENGER) era la investigación cometaria, pero de una forma nunca antes intentada. Con el objetivo de ver cómo es un cometa por dentro, la misión intentaría enviar un vehículo inteligente a colisionar con la superficie de un cometa, para sacar a la luz el material que se encuentra en su interior y examinarlo. Para lograrlo, la misión se dividió en dos sondas distintas: la sonda principal de sobrevuelo Deep Impact y el vehículo de impacto. Esto provocó que la instrumentación para la misión fuera escasa, pero potente. La idea detrás de esta misión era organizar la mayor campaña de observación jamás montada, empleando tanto observatorios basados en Tierra como telescopios espaciales en todas las longitudes de onda posibles. De esta forma, las dos sondas, viajando en unidad, se irían aproximando hacia el cometa y, 24 horas antes del impacto programado, la unidad se rompería para tomar cada una rumbos distintos. Así, mientras la sonda principal sobrevolaba el cometa para registrar el impacto y analizar la nube de escombros, el Impactor colisionaba a alta velocidad con su superficie. Gracias a los componentes tecnológicos demostrados en la misión Deep Space 1 (1998-2001) cada parte de la misión incorporó una herramienta de software para navegación autónoma, que permitiría que las sondas tomaran sus propias decisiones respecto hacia dónde ir, especialmente la sonda de impacto, quitando de la tarea a los navegadores en Tierra, con el consiguiente ahorro en el presupuesto. Además de la primicia de impactar con un cometa, Deep Impact fue la primera en usar el nuevo modelo de ordenador principal, más potente y capaz. A diferencia de Stardust y CONTOUR, la sonda de sobrevuelo fue equipada con una escasa protección contra las partículas cometarias, situándola en lugares escogidos para salvaguardar las zonas más sensibles de la sonda. La instrumentación de la misión eran tres sistemas: una combinación de cámara multiespectral de muy alta resolución y espectrómetro infrarrojo (HRI, el sistema más potente jamás montado en una sonda de exploración del sistema solar) y una cámara multiespectral de media resolución (MRI) en Deep Impact, y una copia sin rueda de filtros de la cámara de media resolución (ITS) para navegación en el Impactor. En general, la misión debía cubrir los siguientes objetivos: mejorar dramáticamente el conocimiento de las propiedades clave de un núcleo cometario y, por primera vez, verificar directamente el interior de un núcleo mediante un impactador masivo golpeando la superficie a alta velocidad; determinar las capas superficiales del cometa así como su densidad, porosidad, fuerza y composición; estudiar la relación entre las capas superficiales del núcleo y la posibilidad de materiales prístinos del interior mediante la comparación del cráter generado por el impacto con la superficie pre-impacto; y mejorar nuestro entendimiento de la evolución de los núcleos cometarios, particularmente su aproximación a la inactividad, comparando la superficie y el interior. La masa conjunta de ambos vehículos en configuración de lanzamiento era de 973 kg., siendo 601 los correspondientes a Deep Impact y 372 los del Impactor. El Investigador Principal era el Dr. Michael A’Hearn, de la Universidad de Maryland, y la misión
estaba dirigida por el JPL. Fue colocada en el espacio el 12 de enero del 2005 usando un Delta 2-7925 desde Cabo Cañaveral, y tenía ante sí una carrera de seis meses para interceptar su destino, el cometa 9P/Tempel 1. Aunque surgieron problemas menores a lo largo de su viaje de crucero, la misión cumplió lo prometido, cuando el Impactor colisionó con el cometa el 4 de julio del 2005, mientras que Deep Impact pasaba a una distancia mínima de 500 km. del núcleo. El análisis completado a las partículas expulsadas mostró hielo de agua y de dióxido de carbono, polvo microscópico e hidrocarburos; un estudio de la señal de radio enviada por la sonda principal y de la eyecta tras el impacto demostró que el núcleo está unido gravitatoriamente, siendo una pila de rocas; y también fue capaz de obtener el primer mapa de temperaturas de un núcleo cometario. Deep Impact demostró que el hielo de agua y otros materiales volátiles se concentran bajo una capa de material carbonáceo extremadamente seco. Imposible mejorarlo.

La novena misión Discovery devolvía al programa a uno de los destinos que le dio gloria: los asteroides. Como su propio nombre indica, el proyecto Dawn (seleccionado en diciembre del 2001) quería viajar al amanecer del sistema solar mediante la exploración sistemática de dos grandes cuerpos del cinturón principal. De manera más sencilla, para averiguar qué procesos se producen para formar los distintos tipos de objetos rocosos, de un cuerpo basáltico y seco a uno carbonáceo y lleno de hielo de agua, para crear después los planetas. Si algo extraña enormemente a los científicos es por qué dos asteroides (4 Vesta y 1 Ceres) que orbitan tan próximos entre sí son tan distintos, y la misión Dawn se propuso responder la pregunta. La duda era, sin embargo, cómo conseguir enviar una única sonda espacial a orbitar uno de ellos, luego salir de su órbita, dirigirse al otro y orbitarlo, teniendo tiempo para examinar cada objeto. Ignorando los sistemas de propulsión químicos tradicionales, Dawn abrazó la tecnología de la impulsión iónica para cumplir el demandante perfil de misión que tenía ante sí. Esta tecnología, demostrada con un formidable éxito a bordo de Deep Space 1, debía ser llevada a sus límites para el proyecto asteroidal. A pesar de que muchos críticos no querían usar esta tecnología en misiones puramente científicas por considerarla demasiado experimental, no fue impedimento para que la misión progresara, no sin dificultades. Para conservar la misión, tuvieron que desprenderse de dos de las seis investigaciones previstas inicialmente, pero al fin, la misión vio la luz del día. Las dos características principales de Dawn son tanto sus paneles solares como su sistema de impulsión iónica. Para poder cumplir las demandas energéticas de la misión (funcionar lejos de Helios, dentro del cinturón de asteroides, operar la impulsión iónica) se dotó a la sonda con los mayores paneles solares (en su momento) que un proyecto de espacio profundo de la NASA había cargado, con 32 metros cuadrados de superficie activa, proporcionando una envergadura de 19.7 metros una vez desplegados. En cuanto a la impulsión, para ser capaz de cumplir su larga misión se decidió montar tres unidades de impulsión, compartiendo un único suministro de xenón, totalizando 425 kg. En cuanto a la sonda en sí, se emplearon partes de plataformas comunes de satélites terrestres para dar forma al bus cúbico, tratando de reducir las partes móviles al mínimo, salvo las ruedas de reacción, los mecanismos de despliegue de los paneles solares y los motores para orientarlos, elementos considerados imprescindibles. En cuanto a la ciencia a realizar, finalmente fueron cuatro investigaciones: la cámara visible alemana, mezcla de sistema científico y elemento de navegación (FC, dos unidades gemelas e independientes), el espectrómetro italiano de visible e infrarrojo (VIR, el tercer ejemplar de la serie VIRTIS), el detector estadounidense de rayos gamma y neutrones (GRaND), y el sistema de radio ciencia, para responder los siguientes temas: investigar la estructura interna, densidad y homogeneidad de ambos asteroides; determinar morfología superficial y nivel de craterización vía imágenes globales a color; realizar radio seguimiento para obtener mediciones de masa, campo gravitatorio, ejes de rotación y ejes principales de ambos; determinar forma, tamaño, composición y masa de los dos cuerpos; averiguar la historia termal y el tamaño del núcleo de cada asteroide; comprender el papel del agua que controla la evolución asteroidal; probar y proporcionar contexto acerca de la teoría de origen de los meteoritos HED; y obtener información para completar mapas químicos y mineralógicos con sus dos espectrómetros. Con todo listo declaraba una masa máxima de 1.217.7 kg. en configuración de lanzamiento. El Investigador Principal es el Dr. Christopher Russel, de la Universidad de California en Los Angeles (UCLA), y la misión está dirigida por el JPL. Fue situada en el espacio por un Delta 2-7925H el 27 de septiembre del 2007 desde Cabo Cañaveral, y pocos días después comenzó a usar su impulsión iónica para reformar su trayectoria y llevarla a sus destinos. El 17 de febrero del 2009 aprovechó su encuentro con Marte para usar su gravedad y, más que añadir más velocidad (algo también conseguido) lo que se consiguió fue modificar su inclinación con respecto a la eclíptica, haciéndola parecer más a la de Vesta. Después de dos años y cinco meses más de viaje a impulsión entró en órbita alrededor de Vesta el 16 de julio del
2011, y no la abandonó hasta el 4 de septiembre del 2012, tiempo durante el cual lo examinó desde más de 2000 km. de altitud hasta unos 180 km. de su superficie. Ahora en órbita alrededor de Ceres, no lo alcanzó hasta el 6 de marzo del 2015. A pesar de que aún le queda menos de la mitad de su misión, ésta ya puede calificarse como un éxito absoluto, ya que la información adquirida en Vesta (que aún tiene que sedimentar) nos ha proporcionado mucho acerca de la creación y formación de los cuerpos rocosos del sistema solar. A modo de resumen, este enorme trozo de roca irregular tiene corteza, manto y núcleo, una agreste geografía, plagada de cráteres de impacto (siendo el mayor Rheasilvia, en el mismo polo sur), así como amplias cantidades de materiales hidratados, concentrados en su mayoría en el hemisferio norte. En cuanto a Ceres, mucho prometía, y esa promesa se ha cumplido con creces. Mucho queda por rascar.

La décima misión Discovery es la que apunta más lejos, y es probablemente una de las más importantes de la historia. El propósito del proyecto Kepler (seleccionado al tiempo que Dawn) es localizar planetas extrasolares con suficiente precisión como para averiguar si son rocosos o gaseosos, hasta llegar a la localización de los primeros exoplanetas que, por tamaño, masa y localización orbital con respecto a su estrella, sean gemelos de la Tierra. Globalmente, el objetivo es el de explorar la diversidad y estructura de los sistemas exoplanetarios, comparándolos con el nuestro. El concepto detrás de Kepler se le conoce como fotometría de alta precisión, y es algo que hasta recientemente no se había realizado. Antes de presentar su propuesta al programa, la gente que desarrolló el concepto lo demostró usando telescopios basados en Tierra, pero el espacio ofrece una ventaja muy superior, al quedar por encima de la atmósfera, permitiendo captar objetos más débiles y poder observar una región de manera continua. Debido a los limitados recursos de que dispone cada misión Discovery, se tomó la decisión de que el observatorio estuviera apuntando a la misma región del cielo continuamente. Para abarcar la máxima área galáctica disponible, por ello, se decidió dotar a Kepler de un telescopio con una corta longitud focal para lograrlo. Para elegir la sección del cielo a observar, se buscaron tres criterios: debe ser observable continuamente desde la órbita del telescopio; el campo debe ser rico en estrellas similares al Sol; y el conjunto de la misión debe encajar en la cofia de un lanzador Delta 2. Por diseño, Kepler es capaz de observar secciones del campo estelar a 55º o más por encima o por debajo de la eclíptica, lo que dejó dos opciones, y la seleccionada es el llamado Campo Cygnus-Lyra porque su campo estelar es mucho más rico en estrellas tipo Sol que el mismo situado en sentido opuesto. Eso dejaba a Kepler observando continuamente una pequeña sección de la galaxia que contiene más de 100.000 estrellas. Con una misión primaria de 3.5 años por delante, debía cumplir los siguientes objetivos: determinar la frecuencia de planetas terrestres o mayores en o cerca de la zona habitable (la región en torno a una estrella en la que un planeta rocoso puede poseer agua líquida en su superficie, así como temperaturas benignas) en una amplia variedad de estrellas de distinto tipo espectral; determinar la distribución de tamaño de los planetas y sus respectivas órbitas; estimar la frecuencia de planetas extrasolares en multitud de sistemas solares; tratar de conseguir los parámetros orbitales, albedo, tamaño y densidad de los gigantes gaseosos de periodo corto; identificar miembros adicionales de cada sistema planetario descubierto fotométricamente usando técnicas complementarias; así como averiguar las propiedades de las estrellas que albergan los sistemas exoplanetarios; y completar estudios de astrosismología para conocer la masa, edad y el tamaño de las estrellas, y a través de ellos, saber a qué distancia se encuentran de nosotros. Para cumplir semejante cometido, la plataforma de Kepler se diseñó para ser extremadamente estable y para tener una capacidad de apuntamiento desconocida para los observatorios espaciales ya lanzados, y para lograrlo equipó un nuevo diseño de ruedas de reacción capaces de entregar la precisión y estabilidad proyectadas. Para el bus se usó una plataforma común de satélite, por lo que lo importante, salvo las ruedas de reacción, estaba en la parte superior. El telescopio de Kepler es un reflector tipo Schmidt con una apertura de 0.95 metros y un espejo primario de 1.4 metros. En el lugar que debería ocupar el espejo secundario se sitúa el instrumento científico, el fotómetro de alta precisión, compuesto por 21 módulos de dos CCD’s especialmente formulados cada uno, totalizando 42, creando la cámara espacial más potente del momento con 96 megapixels, aunque en el sentido estricto de la palabra, no es una cámara (aunque tiene capacidad para ello) sino un aparato que monitoriza la luz que llega de cada estrella. Por ello, Kepler está optimizado para descubrir planetas usando el método del tránsito, y como se sitúa por encima de la atmósfera terrestre, es capaz de estudiar la luz que le llega de estrellas extremadamente débiles, aunque si éstas se sitúan a más de 3.000 años luz, serán demasiado débiles como para que el fotómetro las registre. A plena carga en el momento del lanzamiento desplazaba 1.052.4 kg. El Investigador Principal es el Dr. William Borucki (retirado), del Centro de Investigación Ames de la NASA, la institución que dirige el proyecto. Elevada el 6 de marzo del 2009 en la punta de un Delta 2-7925 desde Cabo Cañaveral, su destino se situaba en una órbita de seguimiento terrestre, similar a la que ocupa el observatorio de infrarrojos Spitzer. Desde allí tenía acceso directo y continuo a su campo de visión sin que la luz solar interfiera. Su tarea primaria comenzó en el verano, y hasta que dejó de operar en su modo científico el 11 de mayo del 2013, a causa de la avería de dos de las vitales cuatro ruedas de reacción, se ha convertido en una máquina de descubrimientos. A pesar de algunos problemas inesperados (las estrellas han resultado más
“ruidosas” de lo anticipado, además de sufrir también problemas de “ruido” por parte del instrumento) ha localizado más de 1000 planetas extrasolares (incluyendo varios tipo Tierra, el más prometedor Kepler-186f), con más de 4000 candidatos a probables planetas, además de proporcionar una inesperada y contundente prueba de la Teoría de la Relatividad de Einstein, y obtener los mejores datos de astrosismología jamás capturados. Actualmente está en una nueva misión, denominada K2, usando un nuevo método de control de actitud usando las dos ruedas de reacción restantes y la presión del viento solar sobre las superficies de los paneles solares que, aunque provocará una sustancial pérdida de precisión en sus mediciones fotométricas, todavía le permitirá encontrar planetas, eso sí, abandonando su zona de caza primigenia, registrando en su lugar secciones de la galaxia situadas en la eclíptica, y se prevé que su misión se alargue hasta el 2017. Por cierto, todavía queda más de un año de datos que analizar, por lo que las sorpresas están garantizadas.

La undécima, y por el momento, última misión Discovery en volar, ha devuelto a la NASA a la Luna. A pesar de tener desde el 2009 una misión en órbita selenita, el objetivo de GRAIL (Laboratorio de Interior lunar y Recuperación de Gravedad, seleccionada en septiembre del 2008) era obtener el mapa gravitatorio definitivo de la Luna, con una resolución y exactitud sin paralelo. Basándose en el concepto de una misión terrestre muy similar (GRACE), GRAIL estaba destinada a convertirse en el primer proyecto de vuelo en formación de dos sondas casi gemelas en un astro distinto a la Tierra, generando grandes retos en cuanto a control orbital y distancia entre ambos vehículos. La gravedad lunar es terriblemente irregular, como grumosa, y debido a esto los orbitadores que se encuentran en trayectorias enormemente bajas se ven enormemente influenciados por esta gravedad, generando fuertes modificaciones indeseadas en la órbita, lo que lleva a gastar el preciado combustible de a bordo para regresar a los parámetros originales. Con un mapa como el que prometía GRAIL, cualquier vehículo navegando alrededor de la Luna sería capaz de reducir al máximo su consumo de combustible, consiguiendo con ello una prolongación de su misión y una superior capacidad de retorno de datos. Claro, aunque el propósito del mapa era suficientemente importante, a partir de los datos de gravedad se podría conseguir muchísima información acerca del interior selenita, y partiendo de ellos, y comparándolos con las bases de datos planetarias acerca de la gravedad y estructura interna de los planetas rocosos (incluida la Tierra), se podría intentar realizar una suerte de comparación acerca de los procesos de formación de los cuerpos telúricos del sistema solar interior. Al tratarse de dos sondas, cada vehículo careció de redundancia. Básicamente, el material que suele incorporarse a una nave, se distribuyó entre ellas. El bus era una estructura común y compacta probada ya en el espacio, y gran parte del hardware ya era más que conocido y fiable, por lo que no se arriesgaba nada. El sistema de medición de gravedad LGRS se basaba en sistemas de señales de microondas enviados y recibidos por cada sonda, para con ello calcular la distancia entre ellas, y a partir de esto, generar los datos requeridos. La información que proporcionara LGRS serviría para cumplir los siguientes seis objetivos: cartografiar la estructura de la litosfera selenita; comprender la evolución termal asimétrica de la Luna; determinar la estructura subsuperficial de las cuencas de impacto, así como el origen de los mascones; averiguar la evolución termal de la formación de nuevas rocas por cementación partiendo de rocas antiguas, así como del magmatismo; restringir la estructura del interior lunar a partir de las mareas; y colocar límites al tamaño de un posible núcleo interno sólido. Un segundo instrumento de a bordo que podríamos llamar científico era un sistema de cuatro cámaras digitales por vehículo, pero su misión era muy distinta. Dadas las posibilidades de su baja órbita (55 km.), las sondas GRAIL eran plataformas ideales para la observación de la superficie lunar. El propósito verdadero del sistema MoonKAM era servir al programa educacional y de divulgación pública del proyecto. El objetivo era involucrar a los alumnos de colegios e institutos en las tareas de planificar, adquirir y procesar las imágenes captadas por cada sistema y publicarlas en internet donde, libres de cargo, cualquiera es capaz de cogerlas. En realidad los proyectos educacionales y de divulgación pública son uno de los objetivos principales de cada misión Discovery, para promocionar la investigación espacial a las futuras generaciones de científicos e ingenieros, y con MoonKAM, GRAIL iría más allá. Cada sonda estaba estabilizada en sus tres ejes, y salvo las ruedas de reacción, carecía de partes móviles. Con la carga de combustible, cada sonda desplazaba una masa de 307 kg. antes del lanzamiento. La Investigadora Principal es la Dra. Maria Zuber, del Instituto Tecnológico de Massachusetts (el mítico MIT), y la misión estaba dirigida por el JPL. Elevadas por un Delta 2-7920H desde Cabo Cañaveral (el último despegue de este tipo de lanzador desde Florida) el 10 de septiembre del 2011, tuvieron un trayecto bastante peculiar para alcanzar la Luna. Debido a su reducido tamaño y a la escasa cantidad de combustible almacenada, realizaron un viaje de crucero de baja energía que les llevó a pasar y rodear el punto L1 antes de regresar hacia nosotros para realizar la maniobra de inserción orbital lunar a una velocidad relativamente lenta. Así, la Nochevieja del 2011 y el día de año nuevo del 2012, GRAIL-A y GRAIL-B (renombradas Ebb y Flow una vez en torno a Selene, después de un concurso entre colegios e institutos de todo Estados Unidos) comenzaron sus maniobras para situarse en la órbita de trabajo,
como hemos dicho, a 55 km. sobre la Luna, para después empezar a sincronizar sus trayectorias de modo que una iba delante de la otra. La misión principal, de 82 días de duración (marzo-mayo) finalizó con gran éxito un día antes de lo previsto, y en vista del rendimiento de las sondas y de la calidad de los datos transmitidos, quedó autorizada una extensión de misión, a una altitud de entre 23 y 30 km. Tras superar un eclipse solar en el mes de junio y subir su órbita para conservar recursos, en agosto comenzaron a reducir sus trayectorias hasta alcanzar las nuevas órbitas, y tras sincronizarse, comenzar un nuevo periodo de cartografía, del 30 de agosto al 3 de diciembre. Con poco combustible en sus tanques, y fuertemente influenciadas por la irregular gravedad selenita, ambas sondas colisionaron contra la base de una montaña el 17 de diciembre, poniendo fin a sus operaciones, pero no a su misión. Lo conseguido hasta ahora por GRAIL es lo siguiente: el mejor mapa de gravedad de un cuerpo distinto a la Tierra; la explicación al por qué de los mascones; y la resolución al enigma de por qué las dos caras de la Luna son tan distintas. Inmejorable.

El programa Discovery, además, ha dado pie a otro tipo de proyectos. Al igual que el Explorer, que de vez en cuando financia lo que se conoce como Misiones de Oportunidad (proyectos que no se basan en un vehículo espacial, sino en un único instrumento), Discovery se abrió a este tipo de proyectos. Las Misiones de Oportunidad del programa de misiones planetarias, a diferencia de los proyectos Explorer, se dividen en dos conceptos: ofrecer un instrumento a una misión interplanetaria internacional, o reproponer los objetivos a una sonda espacial ya existente en el espacio, y con un presupuesto máximo que no superara los 35 millones de dólares. Hasta la fecha, han sido cuatro las Misiones de Oportunidad Discovery las practicadas.

La primera Misión de Oportunidad Discovery comenzó su viaje en la primavera del 2003 con rumbo al planeta rojo. Se trata de la contribución de la NASA a la primera misión europea a Marte, Mars Express. De la heterogénea instrumentación que lleva, está el sistema ASPERA-3, el Analizador de Plasmas Espaciales y Átomos Energéticos, y el 3 denota que es el tercer tipo de este instrumento que vuela al espacio. El sistema ASPERA original fue ideado por el Instituto Sueco de Física Espacial y, en cooperación con los científicos de la Unión Soviética, dos ejemplares idénticos volaron en cada una de las sondas Phobos enviadas al planeta rojo en 1988. La única que alcanzó su destino fue la segunda, y el instrumento operó estupendamente hasta que se perdió la comunicación con la sonda. La segunda evolución de este sistema detector fue colocada en la desafortunada Mars 96, que no fue capaz de abandonar la órbita y acabó reentrado en la atmósfera terrestre. Cuando se anunció la aprobación de Mars Express, y la selección de una nueva versión del ASPERA (la que nos interesa), esta vez los rusos declinaron participar en el desarrollo del aparato. Buscando un socio potente con el que compartir el desarrollo de la instrumentación, contactaron con el Instituto de Investigación del Suroeste (SwRI), de San Antonio, Texas, y éste, a su vez, solicitó a la NASA la financiación para colaborar con el proyecto. Para acomodarse al objetivo de la misión, la agencia americana recurrió al Discovery y creó la fórmula en la que se ampara. Los objetivos de ASPERA-3 en Marte son estudiar la interacción entre el viento solar y la atmósfera marciana así como caracterizar el plasma y gas neutral en el espacio 
cercano al planeta. De los cuatro elementos que conforman el paquete detector, dos (el espectrómetro de electrones ELS y el Detector de Imágenes del IMA, Analizador de Masa de Iones) han sido diseñados y construidos en el SwRI, y financiados por el programa Discovery. El Investigador Principal de la parte americana del proyecto es el Dr. David Winningham, del SwRI. Mars Express fue elevada por un vector Soyuz-Fregat desde el cosmódromo de Baikonur el 2 de junio del 2003, y alcanzó la órbita del planeta rojo el 25 de diciembre de ese mismo año. Tanto la sonda como la instrumentación funcionan estupendamente, y desde su llegada hasta que MAVEN entró en órbita marciana en septiembre del 2014, ha sido la única fuente de datos acerca del escape de iones de la alta atmósfera al espacio, en general hidrógeno y oxígeno, un mecanismo dominado fuertemente por los flujos del viento solar y de la radiación ultravioleta solares. También ha sido instrumental en la localización de auroras en la atmósfera marciana, formadas por la canalización de los átomos energéticos por parte de las anomalías magnéticas de la corteza del planeta. La misión ha sido extendida diversas veces, y la última durará hasta finales del 2016. A modo de apunte, existe un ASPERA-4 a bordo de la misión Venus Express, esta vez sin colaboración de ningún tipo.

Las segunda y tercera Misión de Oportunidad Discovery pertenecen al segundo tipo de ellas, al de usar alguna sonda existente para otros cometidos. Lo curioso es que ambas se anunciaron a la vez, el 3 de julio del 2007. La primera en entrar en actividad científica se le ha conocido como EPOXI, y recurrió a la sonda principal de la misión Deep Impact. En realidad, se trata de dos misiones distintas que la misma sonda debía practicar. La primera en realizar se denominó EPOCh, Exploración y Caracterización de Planetas Extrasolares, y los objetivos eran observar múltiples tránsitos de exoplanetas gigantes para mejorar nuestro conocimiento sobre ellos; encontrar planetas adicionales, hasta del tamaño de la Tierra, a partir de la búsqueda de tránsitos y de las perturbaciones en los tránsitos de los gigantes; buscar anillos y lunas asociadas a estos enormes cuerpos celestes; detectar la luz reflejada de los planetas gigantes, para conocer más acerca de las nubes y sus atmósferas; y
caracterizar la Tierra como un análogo de planeta extrasolar. Para ello, usaría su sistema HRI (a merced de su enorme telescopio, y aprovechando el problema del curvado del espejo secundario como virtud) a modo de fotómetro, anticipándose así a Kepler en unos cuantos meses. Como los CCD de las cámaras digitales comerciales, los sensores idénticos usados para captar las imágenes disponen de distintos formatos de tamaño, y la cámara multiespectral de HRI era capaz de un tamaño máximo de 1024 x 1024 píxels a uno reducidísimo de 64 x 64. Para EPOCh se decidió usar el tamaño de 128 x 128 para poder grabar tantas imágenes como se pudiera y para tener suficiente capacidad fotométrica para extraer información valiosa. A su vez, MRI sería usado como sensor de guiado preciso, y las ruedas de reacción de a bordo debían proporcionar una actitud lo suficientemente estable como para hacer la fotometría con una gran precisión. Una vez acabado EPOCh, comenzaría DIXI, la Investigación Extendida de Deep Impact, que mediante el sobrevuelo de un nuevo cometa (originalmente el 85P/Boethin, finalmente al 103P/Hartley 2), trataría de responder dos cuestiones: determinar el grado de diversidad entre los cometas (el objetivo original de CONTOUR) de edades análogas; y separar aquellos aspectos de los descubrimientos sobre el Hartley 2 posiblemente asociados con la evolución del cometa, con los que están asociados posiblemente con formaciones primordiales. Las operaciones del sobrevuelo serían casi idénticas a las de la misión original de Deep Impact, con las diferencias de que no tenía un segundo vehículo de impacto y que pasaría a una mayor distancia del núcleo, a un máximo de 700 km., y esta vez sin usar su protección cometaria durante el momento importante de la tarea, posibilitando una secuencia de imágenes continua y colocándose lo suficientemente lejos como para que las partículas de la coma no supusieran un problema. El Investigador Principal para EPOCh es el Dr. L. Drake Deming, del Centro de Vuelos Espaciales Goddard de la NASA, y para DIXI era el Dr. Michael A’Hearn, de la Universidad de Maryland, que también dirigía toda la misión EPOXI,
mientras que la operación de Deep Impact corrió a cargo del mismo equipo de vuelo del JPL que en la misión original. Hasta la fecha, la tarea EPOCh no ha proporcionado, que nosotros sepamos, resultados relevantes a lo largo de sus dos campañas de observación en el año 2008, aunque obtuvo secuencias impactantes de nuestro planeta desde la lejanía, incluyendo tránsitos de la Luna por delante del globo terrestre, mientras que DIXI fue un éxito fantástico, ya que nos permitió obtener las, en aquel momento, mejores imágenes jamás captadas de un cometa, y en particular uno tan hiperactivo como el Hartley 2, el 4 de noviembre del 2010. Aunque su misión estaba acabada tras el sobrevuelo cometario, la gente de la misión consiguió que Deep Impact continuara operando, esta vez como observatorio remoto de cometas (misión DI3), gracias a las capacidades telescópicas de sus sistemas HRI y MRI hasta que, en enero del 2020, alcanzara al asteroide (163249) 2002GT para obtener información relevante sobre un objeto NEO potencialmente peligroso. Por desgracia, un error en las secuencias de software provocó la pérdida completa de la sonda en agosto del 2013. El 19 de septiembre de ese mismo año la NASA declaró la misión terminada.

La segunda misión que involucraba una sonda previamente lanzada tenía como objetivo el primer regreso de la historia a un objeto cometario. La misión Stardust-NExT (Nueva Exploración del Tempel 1) usaría la venerable y sumamente capaz Stardust para hacer una investigación de distinto tipo al realizado en el verano del 2005 por Deep Impact y, sobre todo, para tratar de ver el cráter generado por el impacto, algo que resultó imposible en su momento. Con una distancia de sobrevuelo de apenas 200 km. (posibilitado por su fuerte protección) y con instrumentación distinta, obtendría resultados capaces de responder las siguientes cuestiones: extender nuestro entendimiento de los procesos que afectan a las superficies de un núcleo cometario a través de la documentación, por vía de las imágenes, de los cambios que se han producido en el Tempel 1 entre dos perihelios consecutivos; extender la cartografía geológica del núcleo para aclarar la extensión y naturaleza de la estratificación, y ayudar a refinar los modelos de la formación y estructura de los núcleos cometarios; y extender el estudio de los depósitos de flujo llano, áreas activas y regiones con el hielo de agua expuesto. También había otras áreas de interés que se querían escudriñar: caracterizar, si era posible, el cráter producido por la misión Deep Impact, para comprender mejor la estructura y propiedades físicas de los núcleos cometarios y aclarar los procesos de formación de cráteres en ellos; medir la densidad y distribución de masa del polvo dentro de la coma usando el DFMI; y analizar la composición de las partículas de polvo dentro de la coma usando el CIDA. El Investigador Principal de la misión fue el Dr. Joseph Veverka, de la Universidad Cornell, y la sonda estaba controlada por su mismo equipo de vuelo del JPL, mientras que entre el equipo científico estaban el Dr. Donald
Brownlee, de la Universidad de Washington (el Investigador Principal de la tarea original de Stardust) y el Dr. Michael A’Hearn, de la Universidad de Maryland (Investigador Principal de Deep Impact). Las operaciones con Stardust se iniciaron el 13 de agosto del 2007 con la reactivación de la sonda, y como había ocurrido en su misión principal, una maniobra crítica para el éxito del proyecto era el sobrevuelo terrestre, acaecido el 14 de enero del 2009 y completado con enorme éxito. La cita con el Tempel 1 estaba fijada para el 14 de febrero del 2011, y aunque se temía que el combustible se agotara antes del encuentro, finalmente el sobrevuelo se practicó a una menor distancia sobre el cometa de la originalmente dispuesta, a 181 km. del núcleo, en su momento el acercamiento más próximo a un cuerpo de sus características, proporcionado imágenes muy interesantes e información nueva sobre un cuerpo ya conocido y caracterizado, además de ser capaz de ver el cráter originado en el 2005. El 24 de marzo del 2011 fue desactivada para siempre tras agotar todo el combustible cargado.

La última Misión de Oportunidad Discovery lanzada fue una de las dos contribuciones de la NASA a la primera misión de espacio profundo hindú. En virtud de un Anuncio de Oportunidad publicado por ISRO en busca de instrumentación extranjera que cumpliera los objetivos de misión, provocó que de los 5 instrumentos originales de la sonda Chandrayaan-1, acabara con 11 en total, con dos proporcionados por la NASA en particular. Uno de ellos fue financiado por el programa Discovery, y se trataba de un novedoso tipo de espectrómetro infrarrojo. Llamado M3, Cartógrafo Mineralógico Lunar, es un sistema de imágenes en modo Pushbroom que usa un único conjunto sensor HgCdTe capaz de registrar al mismo tiempo 260 canales espectrales, encerrado en un paquete sumamente compacto, de apenas 8 kg. El sistema óptico, realizado en aluminio, fue acomodado al tamaño de la carcasa, y para refrigerar el conjunto detector se usó un sistema pasivo para hacerlo más sencillo. En la órbita de operación
prevista para la sonda, de 100 km., el ancho de escaneo era de 40 km., consiguiendo una resolución máxima de 70 metros. Los propósitos de M3 eran caracterizar y cartografiar la composición de la superficie lunar en el contexto de su evolución geológica, y valorar los recursos minerales selenitas a alta resolución espacial. El investigador principal fue el Dr. Carlé M. Pieters, y el desarrollo y operación del instrumento corrió a cargo del JPL. Chandrayaan-1 fue situada en órbita terrestre el 22 de octubre del 2008 mediante un PSLV-XL desde la base de Sriharikota, y tras el despegue, usó su motor principal para incrementar el apogeo de su trayectoria hasta igualarlo con la distancia lunar. El 8 de noviembre entró en órbita selenita, y pocos días después la instrumentación se puso en marcha. La misión debería haber durado dos años, pero después de 312 días en funciones, el 29 de agosto del 2009, la comunicación con Chandrayaan-1 se perdió debido a crónicos problemas de protección termal que averiaron las electrónicas. A pesar de todo, la misión de la sonda en general, y de M3 en particular, se considera todo un éxito. En cuanto al rendimiento y conclusiones de M3, nos proporcionó mucha información nueva e importantísima: el primer mapa lunar casi global (95%) de minerales a alta resolución, y la detección remota de materiales que almacenan agua en su interior, distribuidos por casi toda la superficie selenita. Poco tiempo, grandes resultados.

El gran valor del programa Discovery ha sido el ofrecer un acceso relativamente rápido al espacio proporcionando visitas a distintos tipos de objetos celestes, permitiendo primicias como la recolección de muestras de un cometa, el impacto de un proyectil dirigido contra la superficie de un cometa, orbitar por primera vez un asteroide, emplear la impulsión iónica en una misión 100% científica, y el primer vuelo en formación en un cuerpo celeste distinto a la Tierra. Para los amantes de las estadísticas, el paradigma Discovery ha permitido 11 misiones completas (más las cuatro de Oportunidad), con tres con destino a los cometas (Stardust, CONTOUR y Deep Impact), dos a los asteroides (NEAR-Shoemaker y Dawn), dos a la Luna (Lunar Prospector y GRAIL), y una a Marte (Mars Pathfinder), una al Sol (Genesis), una a Mercurio (MESSENGER) y una misión astronómica (Kepler). La misión más duradera, desde su lanzamiento hasta su final desactivación, ha sido Stardust (uniendo el segmento NExT); la que menos, Mars Pathfinder. El vehículo más pesado en el momento del lanzamiento ha sido Dawn; la más ligera, Lunar Prospector. La más cargada de instrumentos, MESSENGER, la que menos, Kepler. El tiempo más corto entre lanzamiento de misiones Discovery es de cinco meses (MESSENGER-Deep Impact), el más largo, dos años y 8 meses (Deep Impact-Dawn). El gran valor de Discovery es, sin duda, que nos ha posibilitado visitar objetos del sistema solar que antes eran imposibles debido a lo alto del presupuesto que hubiera hecho falta.

Ya hemos dicho antes que es posible que se hayan presentado más de 100 propuestas para su aceptación al programa Discovery. Hay que decir a este respecto que las misiones Genesis y CONTOUR fueron seleccionadas la segunda vez que fueron propuestas, y hay otras que, aunque han prometido un retorno de nueva ciencia estupendo, cayeron. Así, misiones como Vesper (un orbitador a Venus para explorar la extraña atmósfera de este gran planeta), Aladdin (con el objetivo de recolectar muestras de las dos lunas marcianas y entregarlas a la Tierra), Hera (retorno de muestras asteroidal, similar en diseño a NEAR-Shoemaker), RAVEN (un orbitador venusino para obtener cartografía del planeta mediante un sistema SAR, yendo más allá de Magallanes), MERLIN (estudio de Deimos desde la órbita y después desde la superficie)  o MAGIC (misión de órbita marciana con un sistema de imágenes más potente que la HiRISE de MRO), por diversas causas, no han llegado a ver la luz. Sin embargo, el éxito de Discovery ha sido aprovechado por la NASA para dar pie a un nuevo programa que, compartiendo sus postulados, tiene un techo de gasto y un límite de desarrollo más alto. Conocido como New Frontiers, tiene tres misiones, dos volando, y una en preparación. El límite presupuestario del New Frontiers es de hasta 1.000 millones de dólares, y con un tiempo de preparación de casi seis años. De los tres proyectos adscritos al programa, dos vienen de misiones desechadas por el Discovery. INSIDE Jupiter, con el objetivo de explorar la estructura interna joviana, fue finalista en diciembre del 2001 junto con Dawn y Kepler, y recibió un nuevo hálito de vida con la aparición del New Frontiers. Reformada, y renombrada como Juno (Investigador Principal, Dr. Scott Bolton, SwRI), fue aprobada en el 2005, y lanzada en agosto del 2011 hacia el hermano mayor del sistema, hacia donde se dirige actualmente. Por su parte, la propuesta OSIRIS (finalista en septiembre del 2008 junto con GRAIL y Vesper, y con el encargo de recoger muestras de un asteroide para su entrega a la Tierra) fue aceptada para el New Frontiers como OSIRIS-REx (Investigador Principal, Dr. Dante Lauretta, Universidad de Arizona) y aprobada en mayo del 2011, con un lanzamiento esperado para septiembre del 2016.

¿Qué futuro le espera al programa Discovery? Por el momento, no es tan rutilante como en la anterior década, ya que si miramos el pasado y contemplamos el futuro, el número de misiones de espacio profundo (incluyendo las de este programa) serán muy pocas. En el año 2010 la NASA publicó el que es de momento el penúltimo Anuncio de Oportunidad para la aceptación de propuestas para la misión número doce del Discovery. De las 28 entregadas (3 a la Luna, 4 a Marte, 7 a Venus, 1 a Júpiter, 1 a un asteroide troyano de Júpiter, 2 a Saturno, 7 a asteroides y 3 a cometas), en agosto del 2012 se seleccionó la definitiva. Elegida por ser la menos arriesgada tecnológicamente y por el valor de la ciencia que promete devolver, el lander estacionario marciano InSight (Exploración Interior usando Investigaciones Sísmicas, Geodesia y Transporte de Calor) tratará de estudiar la estructura interna de Marte usando un sismómetro francés, una sonda de calor interno alemana, y una investigación radiocientífica. Decimos que es la menos arriesgada tecnológicamente porque empleará un diseño de plataforma ya probado y usado para entregar instrumentos científicos a la superficie Marciana, concretamente en mayo del 2008 con la misión Phoenix, así como hardware más que probado. Los objetivos de la misión son dos (comprender la formación y evolución de los planetas terrestres mediante la exploración del interior marciano, y determinar el nivel actual de actividad tectónica y el ratio de impactos de meteoritos contra la superficie del planeta), y para obtener el máximo retorno científico se ha seleccionado una región en el ecuador del planeta, donde se podrá hacer el experimento radiocientífico de manera óptima. El Investigador Principal es el Dr. W. Bruce Banerdt, del JPL (antiguo miembro del equipo científico de la misión MER), y la misión está dirigida por la misma institución. Con un coste que no debe superar los 425 millones de dólares, la sonda debe despegar en mayo del 2018, y será elevada usando el potente Atlas V-401, en el que será el primer vuelo de una sonda de espacio profundo desde esta localización. Su fecha prevista de amartizaje es el 20 de septiembre, y su misión comenzará 60 días después de su desembarco, en un área conocida como Elysium Planitia, a unos 1.000 km. de distancia del hogar del rover Curiosity. Su tarea primaria es de unos 2 años y estará alimentada por paneles solares. También hay una futura Misión de Oportunidad en progreso. Con el objetivo de estudiar la composición de la atmósfera y la superficie mercuriana, el instrumento
STROFIO (Espectrómetro de Masa del Inicio para un Campo Rotatorio) es un espectrómetro de masa único que estudiará los átomos  y moléculas presentes en la exosfera del planeta para derivar a partir de ellos la composición superficial. STROFIO se integra en el paquete sensor italiano SERENA (Búsqueda para el Rellenado Exosférico y las Abundancias Naturales Emitidas), uno de los 11 instrumentos del llamado MPO, el Orbitador Planetario de Mercurio, una de las partes del proyecto ESA-JAXA BepiColombo, que debe despegar hacia el primer planeta en enero del 2017 a bordo de un Ariane 5 desde Kourou, Guayana Francesa. El Investigador Principal de STROFIO es el Dr. Stefano Livi, del SwRI. Y más recientemente, en la solicitud de presupuestos para el año fiscal 2014, se aconseja a la NASA que prepare la selección del proyecto número 13 para el programa Discovery. Un Anuncio de Oportunidad en fase de borrador, publicado en febrero del 2014, pone las primeras condiciones para las futuras propuestas a entregar: despegue antes del 31 de diciembre del 2021, y permitiendo ciertas tecnologías en mayor o menor grado (impulsión iónica, comunicaciones por láser, MMRTG o tecnología de reentrada) y un tope presupuestario de 450 millones de dólares. En marzo del 2015 se anunció que se habían aceptado nada menos que 28 propuestas, de las que en su momento recibimos información de unas 17. Alguna de ellas ya ha sido presentada al menos una vez, como la venusina RAVEN, la marciana MERLIN (esta vez cambiando Deimos por Fobos) o el observador de volcanes de Io, IVO. A la Luna iban destinadas las siguientes: NanoSWARM (para investigar la meteorización de su superficie por la agresión del viento solar, mejoras en el conocimiento de su campo magnético, e investigación de la distribución del agua en Selene usando una sonda madre y un conjunto de Cubesats) y MARE (). A Venus, además de RAVEN estaban VERITAS (para comprender la evolución geológica del planeta, determinar procesos geológicos en marcha y encontrar pistas acerca del agua pasada o actual en el planeta) y VASE (investigación atmosférica mediante globos, así como de superficie mediante un vehículo de impacto). A Marte o sus satélites, junto con MERLIN, estaba el lander marciano Icebreaker Life (búsqueda de biomoléculas que sean la evidencia concluyente de vida, búsqueda de moléculas orgánicas, investigación del hielo bajo el suelo tocado por Phoenix, comprender la mecánica del suelo polar congelado, verificar la habitabilidad del entorno, comparar la composición de las planicies del norte con las situadas en latitudes medias empleando un lander inspirado en Phoenix), y las misiones a sus satélites PADME (investigar los orígenes de Fobos y Deimos, junto con el estudio del polvo en el entorno de los satélites mediante sobrevuelos) y PANDORA (investigar el origen de Fobos y Deimos entrando en órbita de cada cuerpo, empleando impulsión iónica). Para los asteroides se postularon BASiX (presentada por segunda vez, con el propósito de investigar un sistema binario de asteroides), Psyche (la investigación del gran asteroide metálico 16 Psyche, que se cree que puede ser el núcleo fosilizado de un cuerpo rocoso mayor), DARe (la investigación de varios asteroides oscuros, en una versión corregida y aumentada de Dawn) y NEOCam (para buscar asteroides NEO’s peligrosos usando un telescopio infrarrojo). A los cometas, CORE (la exploración interna de un núcleo cometario mediante un sondeador radar) y PROTEUS (a la búsqueda del agua entregada a la Tierra por los cometas). En cuanto al sistema solar exterior, además de IVO, estaba Enceladus Life Finder o ELF (para comprobar la existencia de vida en las plumas de material emitidas desde el polo sur del satélite saturniano), Kuiper (un observatorio remoto en órbita al punto L2 para el estudio del sistema solar exterior) y Whipple (un telescopio a la búsqueda de objetos del cinturón de Kuiper y la nube de Oort mediante ocultación estelar). Así, tras un largo proceso, se han seleccionado las finalistas. A diferencia de las dos rondas anteriores, tenemos cinco finalistas. Las seleccionadas se encuadran en dos objetivos: Venus y los asteroides. Para el planeta nuboso se postulan VERITAS (con un radar interferométrico llamado VISAR, junto con un sensor infrarrojo multiespectral; Investigadora Principal Suzanne Smrekar, del JPL, la institución que dirigiría el proyecto) y DAVINCI (para el estudio de la atmósfera venusina mediante un vehículo de reentrada; Investigadora Principal Lori Glaze, del Centro de Vuelos Espaciales Goddard, institución que dirigiría el proyecto),
mientras que para los asteroides están Psyche (equipada con una cámara, espectrómetro infrarrojo, magnetómetro, altímetro láser, espectrómetro de rayos gamma y neutrones y sistema de radiociencia, junto con un sistema de impulsión iónica; Investigadora Principal Linda Elkins-Tanton, de la Universidad Estatal de Arizona, proyecto dirigido por el JPL), Lucy (a la investigación de asteroides troyanos mediante sobrevuelos; Investigador Principal Harold Levison, del SwRI de Boulder, Colorado, proyecto dirigido por el Centro de Vuelos Espaciales Goddard) y NEOCam (Investigadora Principal Amy Mainzer del JPL, la institución que dirigiría el proyecto). Más que notable, sin duda, y el caso es que se habla de que en vez de una, bien podrían seleccionarse dos misiones para volar, por lo que estaríamos hablando de las misiones Discovery 13 y 14. Estaremos atentos a lo que ocurre. La solución, en septiembre del 2016.

Pues ya lo veis, no es necesario un enorme desembolso de dinero para conseguir investigar el sistema solar y hacerlo con calidad. Buenas ideas, soluciones creativas, gente entregada. ¿Qué más se puede pedir?