jueves, 15 de marzo de 2018

Revisitando Júpiter a través de los datos de diferentes satélites

Hace casi 40 años que los satélites Viajero 1 y 2 pasaron cerca de Júpiter y proveyeron de información muy valiosa para entender al planeta más grande del sistema solar. Hoy los Viajeros aún envían información desde el espacio interestelar, pero un grup de investigadores está utilizando los datos del paso por Júpiter con nuevas técnicas de análisis e interpretación, así como de información más reciente. En este artículo haré un resumen de lo que han estado encontrando, según la revista de divulgación EOS-Buzz de la American Geophysical Union.
A pesar de la velocidad tan alta con la que pasaron los dos satélites mencionados, éstos fueron capaces, gracias a la magnífica instrumentación con la que contaban, de reunir datos de plasma y mandar información a la Tierra acerca de la estructura de la magnetosfera de Júpiter, su dinámica, composición y procesos físicos.

Mucho después de los Viajeros, durante los últimos años del siglo XX y principios del XXI, el satélite Galileo circundó el planeta por 8 años, on lo que fué capaz de suministrar información de la magnetosfera por casi un ciclo solar, pero realmente han sido los datos de los Viajeros los que han servido a los investigadores de hoy en día para darnos una nueva visión de lo que ocurre en el planeta gigante. Sólo en 2017, la Dra. Fran Begenal de la Universidad de Colorado en Boulder publicó, con sus colaboradores, 3 artículos en la revista Journal of Geophysical Research Space Physics.

En el primer artículo se reprocesaron los datos de composición química de los instrumentos de plasma de los satélites Viajero, con la ayuda de modelos químicos modernos para restringir la composición y reduir el número de parámetros libres. En el segundo artículo, lidereado por el estudiante Logan Dougherty, los autores se concentraron en los principales constituyentes, iones de oxígeno y azufre, incluyendo un análisis detallado de los estados de carga y el flujo de rapideces como función de la distancia radial al planeta. En el tercer artículo, lidereado por el estudiante Kaleb Bodish, los investigadores  trataron con el problema de los iones menos abundantes, que son menos del 20 por ciento de las partículas de la magnetosfera joviana, entre los que se encuentran los protones y los aun menos abundantes iones de sodio y bióxido de azufre.
En estos tres trabajos, los investigadores desarrollaron un robusto modelo de dos dimensiones de la región ecuatorial del plasma de Júpiter. Además, señalan varios puntos clave para un nuevo entendimiento del medio que rodea Júpiter, los cuales podrían ser sumamente valiosos para las investigaciones comparativas del planeta, por ejemplo con respecto a las observaciones con el satélite Juno (actualmente en órbita alrededor de Júpiter y otras dos misiones europeas que están ahora en desarrollo, el "JIME" (siglas de "Jupiter Ice Moons Explorer", o "Explorador de las lunas de hielo de Júpiter") y el "Europa Clipper".

Leer toda la nota...

INDICE 2018

La vida alrededor de los algoritmos y la justicia

Leer toda la nota...

La vida alrededor de los algoritmos y la justicia

Algoritmos, casi todos hemos escuchado esa palabra al menos una vez, a muchos incluso puede causar enfado o un poco de temor, debido sobre todo a esa tonta aversión a las matemáticas que nos infunden desde pequeños.
Sin embargo, la vida cotidiana cada vez está más supeditada al influjo de los algoritmos.
Pero, vamos desde el principio, ¿qué es un algoritmo?. Un algoritmo es un conjunto de instrucciones o reglas bien definidas y ordenadas que permite llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad. Se piensa que es una derivación del  nombre del matemático persa Al-Juarismi (~780-850 DC), que fue de los primeros en usarlos. En términos más llanos, podemos pensar en los algoritmos como recetas matemáticas (y su derivación a recetas de computación).
Pero, ¿porqué dijimos que los algoritmos están ahora detrás de nuestras vidas cotidianas?. Resulta que los algoritmos se usan cada vez con más frecuencia para determinar el tipo de personas que realizan alguna actividad de interés para otras personas. Esto puede ser político, económico, comercial, o social. Claro que el uso de los algoritmos en la ciencia es cosa común desde hace ya mucho tiempo, pero no es este el tema de la discusión.
En particular, el concepto tan en boga de "Aprendizaje Automático" o "Machine Learning", descansa en el uso de algoritmos para predecir el comportamiento o patrón detrás de un juego de datos (información colectada previamente). Sin embargo, estos algoritmos han sido desarrollados por una o varias personas que necesariamente introducen un sesgo personal (o de grupo) en su estructura, el cual es  difícil (que no imposible) evitar. Lo anterior nos lleva a cuestionar las decisiones que basemos en las recomendaciones de encuestas, redes sociales, comerciales, o artículos periodísticos, los cuales pueden entrar dentro este mismo sesgo. O sea, la justicia de los algoritmos.
Esta idea ha alcanzado extremos interesantes, pues existe un grupo llamado la "Liga de la Justicia Algortímica" (Algortihmic Justice League), fundado por una estudiante graduada de matemáticas del MIT, Joy Buolamwini, que incluye a activistas, programadores, artistas, académicos, compañías, ciudadanos de a pie, políticos, y administradores. Este grupo se dedica a luchar contra la discriminación ocasionada por la práctica y empleo de los algoritmos.

Para saber más:

Algorithmic Justice League

Libro Weapons of Math Destruction por Cathy O´Neal

InCoding in the Beginning

Leer toda la nota...

viernes, 28 de julio de 2017

La super tormenta solar del 23 de julio pasado

Por ahí del 15 de julio, cuando el Sol ya llevaba varias semanas sin ninguna actividad apreciable, surgió en el disco solar un grupo de manchas el cual, a medida que pasaban los días y se desplazaba hacia el oeste debido a la rotación solar, se hacía más y más grande. Durante ese lapso ocurrieron varias ráfagas de mediana intensidad pero sin mayores consecuencias para la Tierra. Así fue como la mega mancha pasó a la parte oculta del Sol y presentó entonces una gran explosión acompañada por una gran eyección de masa coronal, la cual fue detectada por el satélite espacial SOHO, de la NASA.

El nombre de SOHO viene de las siglas en inglés Observatorio Solar Heliosférico, el cual cuenta con un telescopio en luz visible con un coronógrafo para ocutar el disco del Sol, permitiendo observar la corona, que es la parte superiror de la atmósfera de nuestra estrella. La imagen de más abajo permite ver la imagen de la eyección de plasma en su máxima extensión la cual, afortnunadamente, se movió en dirección contraria a la Tierra.

Crédito: Misión SOHO, NASA

Como especial coincidencia, esta mega tormenta solar ocurrió exactamente 5 años después de la mega ráfaga de 2012 que impactó sobre el satélite de investigación Stereo-A, de la NASA, el cual se encontraba a más de 90 grados de la Tierra, con respecto a la línea Sol-Tierra. Al igual que en ese caso, se ha dicho que si la eyección hubiera tenido dirección terrestre, hubiera causado severos daños al ambiente que rodea a nuestro planeta, pero a esto iré más adelante. En la imagen de más abajo se puede apreciar el modelo matemático, así como la observación por el SOHO, de este evento.
Crédito: SOHO, NASA

Del evento de hace 5 años se dice que fue de tal magnitud que puede compararse con el famoso evento de 1857, conocido como "Carrington", por el astrónomo que lo estudió, el cual fue tan intenso que produjo, además de algunas pérdidas humanas, daños severos a la red telegráfica, el equivalente de ese entonces al internet actual. De hecho, algunas personas han bautizado esa red como la "internet victoriana".
En un trabajo en la revista Space Weather describiendo esa enorme tormenta solar, Daniel Baker y colaboradores, todos de la Universidad de Colorado, señalan que los humanos fuimos muy afortunados de que la Tierra no se encontrara enfrente de la nube de plasma. En efecto, eventos extremos como ese son una severa amenaza a nuestra tecnología. Empiezan con una ráfaga en un grupo de manchas, después de la cual llegan a la órbita de la Tierra radiaciones de rayos X y ultravioleta a la velocidad de la luz, las cuales aumentan la ionozación de las altas capas de la atmósfera, ocasionando radio apagones y errores de navegación en los sistemas de GPS. De minutos a horas más tarde, arriban las partículas energéticas, protones y electrones que se mueven a velocidades cercanas a la de la luz y pueden electrificar satélites y dañar su electrónica. Finalmente llegan las millones de toneladas de la eyección de plasma, a la que le toma entre 1 y cuatro días para recorrer la distancia entre el Sol y la Tierra. Los autores llegan a la conclusión de que de haber golpeado la eyección a la Tierra hubiera causado un apagón de nivel mundial, deshabilitando todo lo que se conecta a un enchufe de pared. Además de que como los transformadores gigantes que sostienen las redes eléctricas son sumamente caros y llevan años para repararse, las pérdidas serían prácticamente inconmensurables.
Todo esto es, por supuesto, muy preocupante pero, ¿qué tanto? Bueno, pues según el investigador Peter Riley, quien en 2014 publicó un trabajo también en la revista Space Weather utilizando datos de tormentas solares de hace 50 años y más, la probabilidad de que algún evento tipo Carrington choque con la Tierra dentro de los próximos 12 años es de 12 por ciento. Este número tan exageradamente alto ahora, con la ocurrencia de la tormenta del pasado 23 de julio, se queda chica, es decir, sí es bastante procupante esta posibilidad de que suframos en el futuro cercano un evento de este tipo impactando nuestro paneta. Sin embargo, debemos recordar también que los eventos catastróficos no siguen la estadística "normal" sino que son impredecibles, es decir, pueden ocurrir en cualquier momento y en prácticamente cualquier sitio del disco solar.

Leer toda la nota...

¿Puede la actividad humana causar sismos?

Presa Zipingpu, en China, en donde la carga de millones de toneladas de agua podría estar detrás del devastador sismo de Wenchuan de 2008, que alcanzó una magnitud de Mw 7.8. Crédito Imagen: Kerr and Stone, Science, 323, 2009.

La respuesta más clara es cuando sentimos pequeñas (o no tan pequeñas) vibraciones al pasar cerca de maquinaria del tipo como los martillos hidráulicos,  empleados para romper concreto, o en el caso de explosiones en minas o en demoliciones, por ejemplo. Incluso el tráfico causa vibraciones del suelo que suelen ser usadas para conocer detalles sobre el subsuelo. Aunque esto no es realmente algo para llamar la atención.

La situación cambia si las vibraciones dejan de ser pequeñas y hablamos de la posibilidad de inducir sismos mayores, incluso destructores. Veamos entonces sí esto ha ocurrido.

Existen varios casos bien documentados, entre ellos:

  • En Basilea, Suiza, diciembre 2-8 2006. Una secuencia de sismos causados por la inyección de 11500 m3 de agua en un pozo de 5 km de prof. Se contabilizaron 11200 eventos los mayores con Ml 3.4, 2.7 y 2.5.
  • En Ohio, EU, 3-19 octubre 2013. El fracturamiento hidraulico (Fracking) ocasionó varios eventos con Mw > 2.0
  • En Blackpool, Inglaterra nuevamente el fracking originó eventos de Ml 2.3.
  • Así mismo en Horn River, Canadá, entre 2009 y 2011 el fracking causó 40 sismos con magnitudes entre 2.2 y 3.8.
  • En Oklahoma, EU, 17 sismos con Ml > 4 ocurrieron durante 2014. Esto directamente relacionado con la inyección de agua de deshecho.
  • En la Presa Pournari, Grecia, posterior del llenado, en Marzo 10 1981 ocurrió un sismo con ML=5.6 y en Abril 10 1981 otro de ML=4.7.
  • Otro caso es el Sismo de La Alhama, Lorca, España del 11 mayo 2011 con Mw 5.1. Se ha propuesto que haya sido causado probablemente por la extracción de agua entre 1960 y 2010.
  • En 1967, el llenado de la presa Koyna en India, disparó el mayor sismo inducido registrado hasta la fecha con una M6.3, desafortunadamente matando a 200 personas.
  • En 2008, un sismo de M7.9 ocurrió en China, cerca de la presa Zipingpu la cual se había llenado en 2004 e hizo que el nivel del agua subiera 120 m en 2 años. El caso se sigue estudiando.

En México, el llenado de las presas Chicoasén (en Chiapas) y el Caracol (en Guerrero) durante 1979-1981 ocasionó enjambres de pequeños sismos bajo el embalse y bajo los cañones cercanos, los cuales fueron monitoreados por personal de la UNAM (Instituto de Ingeniería). Posteriormente la tarea fue abordada por personal de CFE quienes se ha dedicado al monitoreo en zonas geotérmicas y presas hasta la fecha. Afortunadamente, no han ocurrido sismos dañinos que se puedan asociar a dichas zonas, y queremos pensar que el monitoreo ha ayudado a que así haya sido.

Podemos ver entonces que la actividad humana sí ha sido causante de sismos de magnitud significativa, por lo que es necesario tener gran cuidado cuando se lleven a cabo trabajos como los mencionados y efectuar monitoreos detallados y estudios previos que ayuden a no exceder los límites de la resistencia natural de los sistemas de fallas locales.

Referencias.

Bachmann, C. E., Wiemer, S., Woessner, J., & Hainzl, S. (2011). Statistical analysis of the induced Basel 2006 earthquake sequence: introducing a probability-based monitoring approach for Enhanced Geothermal Systems. Geophysical Journal International, 186(2), 793-807.

Deng, K., Zhou, S., Wang, R., Robinson, R., Zhao, C., & Cheng, W. (2010). Evidence that the 2008 Mw 7.9 Wenchuan earthquake could not have been induced by the Zipingpu Reservoir. Bulletin of the Seismological Society of America, 100(5B), 2805-2814.

Friberg, P. A., Besana‐Ostman, G. M., & Dricker, I. (2014). Characterization of an earthquake sequence triggered by hydraulic fracturing in Harrison County, Ohio. Seismological Research Letters, 85(6), 1295-1307.

González, P. J., & Fernández, J. (2011). Drought-driven transient aquifer compaction imaged using multitemporal satellite radar interferometry. Geology, 39(6), 551-554.

McNamara, D. E., Rubinstein, J. L., Myers, E., Smoczyk, G., Benz, H. M., Williams, R. A., ... & Aster, R. C. (2015). Efforts to monitor and characterize the recent increasing seismicity in central Oklahoma. The Leading Edge, 34(6), 628-639.

Leer toda la nota...

miércoles, 26 de julio de 2017

miércoles, 8 de junio de 2016

Etnogeología: Los ojos de la Tierra

Los lugares tienen nombre, los nombres tienen significado, los significados en muchos casos vienen de algo que es notable sobre todo a la vista.
El título lo tomé de un artículo de la Revista "Métode" de la Universidad de Valencia (ver referencias), porque es por demás sugestivo.Recuerdo una anécdota que ya he contado cuando, hace ya varios años, unos colegas del Instituto de Geofísica de la UNAM estaban conversando con un antropólogo (perdón, pero no recuerdo quién). Uno de ellos comentó: "Sería muy bueno poder averiguar si otro de los volcanes de la Sierra Chichinautzin (refiriéndose al Ajusco-Xitle) pudo haber causado daños a algún asentamiento prehispánico", a lo que el antropólogo contestó: "Pues yo creo que sí deben haber habido daños, porque Chichinautzin quiere decir Señor Que Quema¨.
La Toponimia es un rama de la Linguística que nos lleva a recovecos de la Historia, la Antropología y por supuesto de la Geología. Pero también es parte de lo que se conoce como Etnogeología. Según una definición que encontré la Etnogeología es el estudio de cómo entienden las comunidades las características geológicas de un lugar, desde una perspectiva específica a los conocimientos tradicionales y las historias e ideas sobre la Tierra que han sido transmitidos a través de las tradiciones y la sabiduría de los ancianos. Quizá haya alguien que quiera aportar otra definición.
Pero volviendo al artículo al que me refiero al principio, es una exposición muy agradable sobre algunos conceptos Etnogeológicos, en particular la idea Ojo-Fuente. Les transcribo sólo una parte:

De manera similar a los geólogos que interpretan rocas, los lingüistas estudian palabras para recrear formas de pensar de la antigüedad, muchas de las cuales perviven en la actualidad de manera semejante a como lo hacen montañas, fuentes y algunos paisajes; o, en palabras de William Faulkner, «the past is not dead; in fact, it’s not even past»¹. Sí, el pasado y la naturaleza humana laten dentro de las palabras. Y al conocerlas, podremos sentirnos deslumbrados por la sabiduría humana y orgullosos de nuestra humanidad compartida a la par que diversa.

Jaume Climent Soler, Daniel Climent Soler, Daniel Climent Giner nos transportan a diferentes lugares e imágenes y dan una interpretación que no deja de ser poética a algo que en ocasiones pasa desapercibido. Muy recomendable lectura.

Referencias:

Los Ojos de la Tierra, Introducción a la Etnogeología por Jaume Climent Soler, Daniel Climent Soler, Daniel Climent Giner.

Down to Earth With: Ethnogeologist Steven Semken, Earth Magazine

Leer toda la nota...

martes, 24 de mayo de 2016

¿Tsunamis en Marte?

 Arabia Terra en Marte, una de las zonas estudiadas. Imagen de NASA.

Hay temas que por supuesto causan curiosidad y quizá es sólo por eso que son aceptados en revistas como Nature y Science. Un ejemplo que viene a colación es el de ésta entrega, ya que Investigadores de varios centros, entre los que se encuentran el Instituto de Ciencia Planetaria de Arizona, la NASA, el  Centro de Astrobiología (CSIC-INTA) de Madrid, y el Departmento of Astronomía de la Universidad de Cornell afirman haber encontrado evidencia de paleotsunamis en una zona norte del planeta rojo.
Claro que dicha afirmación conlleva la idea de que haya existido un oceano en esa zona de Marte (o en cualquier otra), lo cual parece ser debatible. Esta hipótesis ya había sido propuesta anteriormente, pero se tropezaba con el hecho de no haber encontrado paleoformas costeras claras. Los investigadores Alexis Rodríguez y colegas, basados en observaciones de geomorfología, imágenes térmicas y simulaciones numéricas han propuesto que esto se debe a la ocurrencia, hace aproximadamente 3.5 mil millones de años, de grandes tsunamis ocasionados por el impacto de bólidos (meteoritos). Dichos tsunamis pueden haber generado olas de más de cien metros de altura y alcanzado varios kilómetros tierra adentro, arrastrando peñascos de tamaños de autobuses.

La idea no deja de ser atractiva pero no dejará de ser hipótesis hasta que alguna de las misiones de "rovers", o alguna misión tripulada, puedan proporcionar evidencias más tangibles.

Para leer más del tema:

El artículo en Nature, Scientific Reports.

Un artículo de National geographic, con algunos puntos a debatir.

Leer toda la nota...

martes, 10 de mayo de 2016

Algunos Números Primos pueden ser ¡ilegales!



!Cuidado con tus cálculos, pues pueden llevarte a prisión! Se sabe que la distribución de ciertos tipos de código es ilegal en algunos países; por ejemplo, el código que está destinado a evitar la protección contra copias de películas o el que permite desencriptar datos bancarios. A algunos activistas les gusta enfatizar lo ridículo de la prohibición de la distribución de código, que es sólo un montón de letras y números, después de todo. Por ejemplo, hay a quien le gusta imprimir el código en una camiseta y usarla, o cantar una canción con la letra del código, para demostrar cómo estas restricciones (como muchas otras) no tienen sentido.

Los números ilegales son números que son codificaciones de dicho código ilegal. En teoría, el escribir tal número y difundirlo es un crimen en los EU.  Los primos ilegales son sólo un subconjunto interesante de estas cifras - ya que hay sistemas con bases en los números primos y los números primos grandes son especialmente útiles. Así que en principio hay números primos ilegales, lo cual es ridículo.

Lo que a la gente a menudo se le olvida es que un programa (cualquier archivo en realidad) es una cadena de bits (dígitos binarios), por lo que cada programa es un número. Algunos de estos son primos. Phil Carmody encontró uno de ellos en marzo de 2001. Cuando éste número primo se escribe en base 16 (hexadecimal), este primo constituye un archivo gzip del código fuente original C - sin tablas- que descifra el esquema de cifrado de las películas  DVD (DeCSS). Era ilegal distribuir el código fuente en los Estados Unidos, por lo que esto hizo que el número también fuera ilegal.

Un programa de Perl para extraer el código fuente de este número primo fue escrito por Jamie McCarthy.

Si quieren leer más sobre el tema:

The nth Prime Page
El primer número primo ejecutable
DVD descrambler encoded in ‘illegal’ prime number
The Prime Pages
Illegal Prime numbers, Wikipedia

Leer toda la nota...

viernes, 1 de abril de 2016

Una breve historia de la medición de la Gravedad.


El método del péndulo para medir g , introducido por Huygens en 1656 se utilizó primero debido a su simplicidad mecánica y su período casi independiente de la amplitud (isócrono) de oscilación.

Para alcanzar una precisión del orden de 10 -6, la longitud del péndulo se debe medir con una precisión del orden de 10 -6 y el periodo de oscilación con una precisión de dos veces más que esto. Hasta el final del siglo dieciocho, todas las mediciones de péndulo fueron absolutas, es decir, se midieron tanto periodo de oscilación y la longitud del péndulo en un sitio dado y la g calculada a partir de estas dos cantidades. Las mediciones eran bastante largas y complicadas y se hicieron principalmente en condiciones de laboratorio. De fundamental importancia para la historia de la gravimetría sigue siendo la medida absoluta hecha por Kuhnen y Furtwángler entre 1898 y 1904 en Potsdam que fue utilizada como la base para el sistema de gravedad Potsdam introducido en 1908 y que se extendió en todo el mundo. A pesar de la duración de las mediciones, el dato Potsdam tenía un error sistemático significativo que fue descubierto sólo varios años más tarde. En 1817, Kater inventó el péndulo reversible, un péndulo que se puede colgar de cualquiera de los dos puntos extremos. Un avance significativo en las mediciones de gravedad fue resultado de la introducción de los gravímetros relativos de resorte. Estos instrumentos son dispositivos en los que la fuerza sobre una masa debida a la gravedad es equilibrada por la fuerza de recuperación de un muelle básicamente un peso. Históricamente los gravímetros de resorte se pueden dividir en dos tipos: lineal, en el que las condiciones de equilibrio son entre dos fuerzas (elástica y gravitacional) y astatic, en el que una condición cerca del equilibrio se alcanza igualando el impulso de la gravitatoria y elástica. La gran mayoría de los gravímetros modernos pertenece a la segunda categoría.

Un segundo avance en la gravimetría relativa fue resultado de la introducción del resorte de longitud cero. En este tipo de resorte, la fuerza de restauración es proporcional a la longitud entera del mismo. Su importancia radica en el hecho de que cuando se emplea en un sistema de astatic, con el punto de aplicación del resorte y el pivote del brazo que sostiene la masa de ensayo situado en la misma línea vertical, la condición de equilibrio es independiente del ángulo de desviación del brazo, haciendo por lo tanto que la sensibilidad (en principio) sea infinita. Desde 1934, cuando LaCoste hizo su primer medidor de gravedad basado en el resorte de longitud cero (que en realidad nació como sismómetro de largo período ), este tipo de gravímetro ha dominado la escena de la gravimetría relativa. El descubrimiento de la superconductividad en ciertos materiales a baja temperatura dio lugar a un nuevo tipo de gravímetros de resorte, que son, al menos en principio, de deriva libre. En el gravímetro superconductor, la masa de ensayo, una esfera metálica hecha de o revestida con una capa de metal superconductor, se levita por medio de un campo magnético generado por una corriente que fluye en una bobina superconductora. El instrumento se instala en un lugar fijo y mide las variaciones de gravedad con el tiempo. Los cambios medidos en la corriente necesaria para mantener la masa de ensayo en la posición de referencia son proporcionales a las variaciones en el campo gravitatorio como los resultados por las mareas, las variaciones de la presión barométrica y, movimientos de masas atmosféricas locales, o variaciones de densidad dentro de la tierra. Gravímetros superconductores, inventados por Prothero y Goodkind a mediados de los 60, proporcionan una sensibilidad muy elevada, del orden de 10 -10 y, debido a las propiedades superconductoras, pueden ser casi libres de deriva.

Todos los gravímetros relativos requieren de una calibración con el fin de determinar qué cambios de longitud del muelle o de la corriente eléctrica corresponden a un cambio gravitatorio dado. Los gravímetros relativos han sido ampliamente usados para realizar mediciones en tierra, en la superficie del mar, en el fondo del mar y desde el aire. Todo problema geofísico, así como varios problemas geodésicos se pueden resolver usando técnicas relativas. El problema básico de la metrología geodésica, sin embargo, no se puede resolver mediante la gravimetría relativa. Fue sólo después de la segunda guerra mundial, cuando se dispuso de técnicas para mediciones de alta precisión de los intervalos de tiempo y espacio, que las mediciones de fueron posibles al medir el movimiento de un objeto en caída libre.
El mundo de la gravedad relativa terrestre ha sido dominado por varias décadas, desde 1939, por los gravímetros Lacoste Romberg (modelos D y G) y los últimos años han sido testigo en el crecimiento del Scintrex AutoGrav (CG3, CG5), microg LaCoste (gPhone), y ZLS (Burris).
En lo que se refiere a los gravímetros superconductores, GWR Instruments, Inc. es el fabricante exclusivo de este tipo de instrumentos. La levitación de una masa de prueba esférica en un campo magnético generado por las corrientes ultraestables persistentes en dos bobinas de niobio superconductoras a una temperatura de menos de 9.3 K sustituye al muelle mecánico. La investigación y desarrollo destinado a reducir el tamaño y el costo de  gravímetros portátiles absolutos y superconductores es sin duda el objetivo más obvio. La tarea más difícil, sin embargo, se refiere al desarrollo de gravímetros absolutos sobre la base de una nueva visión del principio de interferometría: la interferometría atómica.

Referencias.

Iginio Marson, A Short Walk along the Gravimeters Path, International Journal of GeophysicsVolume 2012 (2012), Article ID 687813. 

Leer toda la nota...