Los ingenieros de la NASA bastante tenían con lograr lo imposible. Llevar al hombre a la Luna parecía casi imposible cuando el presidente John F. Kennedy anunció ese objetivo en mayo de 1961, pero la NASA lo consiguió con la misión Apollo 11.
Aquel momento quedó en la retina de millones de personas gracias a que la llegada del hombre a la Luna fue retransmitida en televisión. Quizás no os hayáis parado a pensar en lo que eso implicó, pero aquel era un reto que afectaba desde qué tipo de antenas y frecuencias usar a qué cámaras lograrían aguantar ese viaje y ofrecerían calidad decente.. aunque fuera a 10 fotogramas por segundo.
Emitiendo "a cámara lenta"
La misión ya imponía la transmisión de un gran número de datos que lograran comunicar la nave con la estación de control, pero afortunadamente la NASA rápidamente descubrió con las misiones Mercury y Gemini que podían usar dos sistemas de radio diferentes.
Así, las comunicaciones de voz, el canal de subida de datos y la descarga de la telemetría se hacían mediante sistemas UHF y VHF, y la monitorización de la misión se conseguía con una baliza que emitía en la banda C tras ser "consultada" por un radar situado en la superficie de la Tierra.
Aunque el sistema funcionaba en esas misiones iniciales, para la misión de la Luna tendría que emitir mucho más lejos y hacerlo además mientras tres astronautas operaban dos naves distintas y además deberían enviar imágenes de televisión: aquellos canales de subida y bajada de datos no eran suficientes.
Es así como la NASA desarrolló la llamada Unified S-Band o USB, que aunque compartía acrónimo con el estándar de conexión actual de periféricos a nuestros ordenadores tenía más bien poco que ver con este. Se usaba una única antena que combinaba todos los datos en varias bandas de subportadoras, pero aún así había que inventarse algún método de meter ahí la emisión de televisión.
Para lograr "hacer hueco", la NASA liberó la banda de frecuencia de los 700 kHz y cambió la modulación para usar una de frecuencia en lugar de usar una de fase. El problema: aquello no era suficiente para emitir como se hacía entonces, con 525 líneas de datos y 30 fotogramas por segundo usando 5 MHz.
¿Qué hizo la NASA? Bajar la calidad. Acabaron diseñando una cámara que grababa a 320 líneas de datos a 10 fotogramas por segundo y se transmitía a tan solo 500 kHz.
Con ese diseño contrataron a RCA (para el módulo de comando) y a Westinghouse (para el módulo lunar) para que diseñaran las cámaras que pudieran emitir esas imágenes. En el diseño de la cámara de Westinghouse el principal responsable fue Stan Lebar, que con su equipo logró crear una cámara pequeña y ligera capaz de soportar el viaje de ida y las temperaturas espaciales.
No solo eso: la cámara de Westinghouse debía corregir las imágenes de alto contraste que se emitirían desde la luna, con su brillante superficie luchando con el negro casi absoluto del espacio. Para lograrlo usaron una curiosa tecnología de visión nocturna que se había usado por parte del Departamento de Defensa para encontrar a pilotos derribados en la Guerra de Vietnam.
Fue esa cámara la que permitió capturar los primeros pasos de Armstrong en la Luna. Colocada en un lugar estratégico y cubierta con una manta térmica que aún así dejaba solo un hueco para que la lente lo captara todo.
Cuando Armstrong comenzó a bajar de la nave, Buzz Aldrin activó el circuito y la señal se envió desde la antena del módulo lunar a varias estaciones base, y tras ser convertida y adaptada de las 320 líneas y 10 FPS a 525 y 30 FPS se retransmitió a todo el mundo.
El resto, como suele decirse, es historia.
Vía | Popular Science
Ver todos los comentarios en https://www.xataka.com.co
VER 0 Comentario