Para Leer con tiempo III

2 agosto, 2018 Deja un comentario

Historia de la Rus

Saludos. En el artículo de esta semana hablaremos del origen de las actuales Rusia, Ucrania y Bielorrusia. La historia de estos países comenzó hace mucho tiempo, con el movimiento de las tribus eslavas, y la “Crónica de Néstor” o “Crónica primordial” será nuestro guía. Hace poco que he podido estudiar este texto y debo decir que es una de las crónicas más amenas e interesantes que he leído, incluso a pesar de los pasajes dedicados a la iglesa ortodoxa, los conventos y las anécdotas de temática sacra. Recomiendo su lectura porque es muy interesante. Recordemos que los eslavos se habían puesto en movimiento desde su región de origen, y sus migraciones, producidas entre los siglos V y VIII, causaron profundos cambios étnicos en la parte oriental de Europa. Finalmente se distinguieron tres grandes grupos: los eslavos meridionales, que llegaron hasta las Balcanes; los occidentales, que se quedaron en el centro de Europa, en las actuales Chequia, Polonia, etc. y los orientales. Éstos últimos son la base de la Rus, y se asentaron en las extensas llanuras de Ucrania, Bielorrusia y Rusia, y continuaron expandiéndose hacia el este. Néstor nos da más detalle de estos pueblos usando el recurso de un supuesto viaje de San Andrés entre los eslavos. Lo que nos dice que estos eslavos se denominaban por tribus según el lugar donde vivieran. Así, los polianos (de “poly”, que significa “campo”) habitaban en las fértiles llanuras a los lados de los ríos Dnieper y Lovat; los derevlios, que habitaban en los bosques; los dregovicios, que habitaban entre el Dvina y el Pripet, los polosios, que habitaban junto al río Polota, etc. Hay que tener en cuenta, también que todos estos grupos terminaron absorbiendo a otros pueblos, que terminaron adoptando su idioma como propio. En el caso de los eslavos orientales, estos pueblos fueron tribus finesas, bálticas e incluso, a través de las estepas, pueblos iranios. Sufrieron la llegada de los avaros, y luego los jázaros, que era pueblos esteparios. La crónica, puesto que es cristiana, hace una descripción grotesca de las costumbres eslavas anteriores a la formación de la Rus, destacando, eso sí, la cultura más avanzada de los polianos. Pues bien, durante el siglo VIII y la primera mitad del siglo IX comenzaron a aparecer las primeras unidades políticas de estos eslavos, que tomaron la forma de principados. Destacaron por su importancia el principado de Kíev, el principado del Norte (con capital en la hermosa Novgorod) , el de los dregovicios, el de los derevlios y el principado de Polotsk .

Rurik y sus hermanos
También explica Néstor la importancia geográfica de la región. El río Dniéper desemboca en el Mar Negro. Ascendiendo por él, se llegaba a una zona en la que, a través de tierra, se llevaba el barco o la carga hasta el río Lovat, y el río Lovat llegaba al gran lago Ilmen. Desde aquí, el Volkhov fluye de este lago al lago Nevo, y este tiene una boca que llega hasta el Mar de Norte, o el Mar de los Varengos, como se llama en la crónica. Es decir, había una ruta comercial desde los países nórdicos hasta Constantinopla. Los eslavos la usaban a menudo, y los suecos, daneses y noruegos no tardaron en descubrirla. A mediados del siglo IX, los varengos, o vikingos procedentes de Suecia, comenzaron a cruzar el Báltico y a remontar los grandes ríos procedentes de estas tierras. Realizando feroces incursiones, contactaron así con algunos principados eslavos, a quien pronto sometieron a tributo. Según la “Crónica de Néstor”, eran los Chuds, los Eslavs, los Ves y los Crivichios. Sus tierras eran fértiles, y disponían de abundante caza, y miel, y maderas. Sin embargo en el año 862, consiguieron una precaria alianza y desafiaron a los varengos, rechazando el pago de los tributos. Al principio les fue bien, pero por aquellos días, los jázaros sometieron a los polianos, severos y viatigios. Aunque no lo deja claro en la crónica, imagino que ante el avance jázaro, los que acababan de rechazar a los vikingos se vieron con el nuevo enemigo a las puertas, y decidieron buscar aliados en los feroces varengos. De este modo, en lugar de estar sometidos a los tributos de dos enemigos, se aliarían con uno de ellos para luchar contra el otro. Así fue como decidieron ir a buscarlos a Suecia y hacerles una oferta que no podían rechazar, y se inició la dinastía de reyes varengos entre los eslavos, llamada dinastía Rúrika. Comenzó con la llegada de los tres hermanos a aquella nueva tierra, en el año 860: Rurik, Sineus y Truvor, y todos sus seguidores. Rurik se asentó en Novgorod, Sineus en Beloozero y el tercero en Izborks. Dos años después, Sineus y Truvor fallecieron, pero Rurik situó a sus hombres a la cabeza de estos principados, y extendió su dominio también sobre los polotsianos, Rustov y Murom. Y al amparo de aquella nueva era, dos de los hombres de Rurik, Askold y Dir, avanzaron hasta Kiev, que por aquel entonces estaba sometida al tributo de los jázaros. La tomaron, atrajeron a más varengos con ellos y se hicieron fuertes allí, libres de Rurik, mientras este mandaba en Novgorod. Fueron ellos los que lanzaron el primer ataque a gran escala al país de los griegos, en el decimocuarto año del reinado del emperador Miguel. Con una flota de doscientos barcos bajaron por los ríos, entraron en el Mar Negro y arrasaron el Quersoneso y los alrededores de Constantinopla. El emperador, que marchaba a una campaña contra los búlgaros, tuvo que volver a toda prisa, pero finalmente, una terrible tempestad estrelló a la flota contra la orilla y los pocos supervivientes tuvieron que volver con muchas dificultades a su tierra.



Oleg ante las murallas de Constantinopla
En el año 870 falleció Rurik. Tenía un hijo, apenas un bebé, llamado Igor. Eligió de entre los parientes que le acompañaron, Oleg, para que gobernara en nombre de Igor. Este Oleg fue el verdadero creador de la Rus. Conquistó Smolensk y la sometió a tributo. Luego siguió hacia Kiev, eliminó a los díscolos Askold y Dir y estableció allí la capital del nuevo estado que había concebido: la Rus de Kiev. Un estado en el que los príncipes varengos gobernaban sobre la población eslava, y les exigía tributos, tanto a ellos como a los demás principados eslavos a los que vencían. A cambio, dirigían los nuevos ataques y hacían frente a los jázaros. En el 885 habían conquistado casi todos los territorios eslavos que hasta entonces les pagaban tributos. Y dio forma a este estado. Ordenó que las ciudades fueran fortificadas. Ante la ausencia de accidentes geográficos importantes, los únicos obstáculos de aquella tierra eran los ríos. De modo que las ciudades levantaron grandes empalizadas de madera, y Oleg distribuyó guarniciones varengas por todas ellas, y designó sus gobernadores de entre los hombres que le debían vasallaje a él o al príncipe Igor.

Oleg cumplió su palabra con Rurik y tuteló al joven príncipe Igor. Bajo el férreo mando de Oleg, la rus sobrevivió al advenimiento de los magiares, que finalmente se asentaron en la actual Hungría. También aquellos años, la cristianización se fue propagando entre los eslavos del oeste, y de hecho, se tradujo la biblia a lengua eslava, en el alfabeto que creó Cirilo para ello. Pero los varengos se resistían al nuevo dios. Oleg, en el 904, lanzó un nuevo asalto contra Constantinopla, a la que ellos llamaban “Tsargrado”, la “ciudad del César”. Y el emperador, que por entonces ya era Basilio, tuvo que pagar un gran botín a Oleg para que se fuera a su casa, y también establecer un tratado con ellos. Néstor dedica un buen número de líneas a describir el pacto, que podemos resumir en dos conclusiones importantes: los mercaderes varengos tendrían un trato preferente en las condiciones comerciales con los emperadores bizantino y, aquí empieza lo bueno, los varengos podrían ser reclutados por dichos emperadores bajo ciertas condiciones comerciales especiales (estipendio mensual, alojamiento, etc.), e incluso en caso de muerte, se garantizaba que su herencia llegara a sus parientes en la Rus, aun sin testamento.

Pero, ¿por qué todo esto? Pues porque hay que tener en cuenta que Constantinopla era la urbe más grande y el mercado más importante de aquella parte del mundo. Era la capital de un imperio que no cesaba de demandar todo tipo de productos. Y los varengos/vikingos, que igual empuñaban una espada que te vendían una piel de marta, se percataron de que todos los bienes de las grandes y fértiles tierras de la Rus se vendían bien en la capital del imperio. Así que muchos tributos se pedían en especie, sobre todo piel de marta, cera, miel, ámbar, etc., y todo esto se vendía en Constantinopla. Y en cuanto a las otras condiciones, pues así nació la legendaria Guardia Varenga, la escolta personal de los emperadores. Su unidad de élite. Muchos y notables vikingos servirían en ella. En la tumba de muchos ellos, allá en el frío norte, se leyó “Bard-aur i greki”, o “muerto entre los griegos”. Quizá el más famoso miembro de esta guardia fue Harald Hadrada, que disputaría el trono de Inglaterra a Harold Godwinson en Stamford Bridge, días antes del desembarco normando de Guillermo el Conquistador (que por cierto, descendía de Rolf Ganger, Rolf el “Caminante”, hijo de Ragnvald Eystensson, el favorito de Harald I de Noruega. Al final, todos eran primos, “oyes”). Pero esto es otra historia.

Oleg tuvo una muerte bastante ridícula tal y como la cuenta la crónica de Néstor, que la pone como el resultado de desafiar al destino. Todo muy dramático. Os dejaré que la busquéis si os pica la curiosidad. Así que cuando murió, como el príncipe Igor ya era mayorcito, tomó el mando del estado en el 913. Igor siguió la política activa de consecución de tributos de los principados eslavos, pero en el 914 tuvo que hacer frente a la llegada de otro pueblo que en los años venideros sería sin duda otro de los protagonistas de este drama: los pechenegos. Pueblo de origen túrquico, grandes arqueros a caballo, aparecieron por las llanuras asiáticas y pasaron por la Rus. Igor, que no carecía de talento, llegó a un costoso acuerdo con ellos y siguieron su camino, pero desde ese momento serían una fuerza a considerar en la región, y con frecuencia los veremos luchando al lado de la Rus o al lado de los búlgaros, o de los bizantinos, según el mejor postor.



Kiev
En la Crónica encontramos aquí un misterioso vacío de veinte años en el que sólo se dan sucintas noticias sobre los magyares y los búlgaros, pero apenas se habla de Igor. Podemos pensar que se dedicaría a mantener sus principados frente a los pueblos de las estepas, pero por fin, en el 935, Igor lanzó un nuevo ataque contra los griegos. Pensemos que los tratados solo se mantenían mientras los firmantes fueran fuertes. Si uno de los dos se mostraba débil y no podía reclamar su cumplimiento, el texto perdía su fuerza, y eso debió de pasar a Igor. Así que se lanzó con sus barcos hacia Constantinopla, arrasando de paso la Paflagonia y otras plazas en la costa del Mar Negro. Pero los bizantinos los arrasaron con su fuego griego en el mar, e Igor tuvo que huir con el rabo entre las piernas. Tardó diez años en volver a reunir sus fuerzas, someter a los pechenegos, traer más mercenarios varengos y reunir a un montón de eslavos y resarcirse de aquella derrota, cosa que logró. Así revalidó el tratado de Oleg, trajo un gran botín y sintió por fin su orgullo satisfecho. Justo a tiempo, porque ese año murió luchando contra los derevlios, reclamando su tributo.

Así que quedó sola al frente del gobierno su viuda, Olga, y su hijo, Sviatoslav Igorevich, todavía demasiado joven. Olga fue una mujer notable. No se sabe mucho de su origen. Fue traída de los países nórdicos a casarse con Igor cuando este era aun muy joven. Y cuando falleció su esposo, no dudó en ponerse al frente de sus tropas y lanzar una terrible campaña contra los asesinos de su Igor. Mucho lamentaron los derevlios haber acabado con Igor, pues no dudó en prender fuego a su ciudad y ver cómo ardían todos, y a los que escaparon, los mató o los vendió como esclavos. Y no solo era sabia en cuestiones de guerra. Preparó el reino para su hijo. Ordenó y legisló, organizó la recogida de tributos y mejoró la red de puestos fronterizos y puestos comerciales, tanto que el propio Néstor en su crónica indica que todo lo que hizo aún seguía funcionando en el momento de la escritura de la crónica, casi doscientos años después.

Olga en la corte bizantina

Juntos, madre e hijo llevaron a la Rus a la cima de su poder, hasta la muerte de Sviatoslav en el 972. Además de las reformas mencionadas, también redefinieron la política exterior: se buscaría la amistad del imperio Bizantino, y se atacaría a todos los demás, sobre todo a l os jázaros, pero también a otras tribus turcas, como los pechenegos, o bien baltos, como el pueblo lituano. Gran parte de las relaciones entre Bizancio y Kíev se basaron en la cristianización de la Rus. Hasta entonces, los eslavos y varengos habían mantenido sus cultos paganos: Perun, el dios del Trueno, y todo el panteón vikingo, y también Jors, que era una deidad irania. El proceso de cristianización había comenzado en el siglo IX (con san Cirilo y san Metodio), pero fue Olga la que se percató de las enormes ventajas que supondría para su hijo contar con el respaldo del imperio bizantino, y sellar dicho respaldo a través de la fe cristiana. Tengamos en cuenta que Constantinopla no era el verdadero enemigo. El día a día de la Rus tenía más que ver con el sometimiento de los principados díscolos, y la guerra continua con pechenegos, jázaros, magiares y otros pueblos esteparios. A través de la “cristianización”, los príncipes de la Rus tendrían una legitimación muy poderosa. Nótese que ya los búlgaros habían optado por el mismo camino. Así que Olga marchó en el 948 a Constantinopla, al frente de una misión diplomática de extrema importancia. Estando allí, encandiló al emperador y aceptó el bautismo, y con la misma habilidad que había mostrado para la guerra, convenció al “pegajoso” y ardiente emperador para que la dejara volver a la Rus a convertir a su hijo, a cambio de importantes cantidades de miel, pieles y otras mercancías, y un importante contingente de tropas, sobre todo varengos, que lucharan contra el emperador. Y aunque no consiguió que Sviatoslav se convirtiera al cristianismo, si consiguió situar a la Rus en la órbita romana. Y el apoyo dio sus frutos. Sviatoslav derrotó en los años siguientes a los jázaros y a los búlgaros, y levantó el gran asedio de los pechenegos a Kiev, en el que su madre estuvo a punto de perecer. Poco después, en el 969, Olga falleció, y sin ella, todo el estado que estaba creando se desmoronó rápidamente, dividido y acosado por sus enemigos tradicionales. Sviatoslav murió cuatro años después, y dio comienzo un periodo turbulento, en el que sus descendientes, cada uno en su principado, se disputaron el poder, hasta que imperó Vladimir Sviatoslavich, también conocido como Vladimir el Grande, o san Vladimir, ya que fue santificado. Desde ese momento, los altos cargos serían enviados por Bizancio, aunque el papel de la Iglesia en la Rus sería separado totalmente del gobierno. Y durante mucho tiempo, la nobleza mantendría también cultos paganos, sobre todo a Perun y Jors. Vladimir unificó finalmente a todos los principados, y colocó a sus descendientes al frente de las nuevas “provincias”-principados. Desde ese momento, el príncipe de Kíev ostentaría el título de “Gran Príncipe”, para diferenciarse de los demás.

Olga pensando en los derevlios
Y aunque fue Vladimir quien convirtió finalmente a la Rus a la cristiandad, la labor inicial de Olga, la gran estadista y primera cristiana de la Rus, fue reconocido por la iglesia ortodoxa y santificada como Santa Olga, o Santa Helga. Y hay que destacca también los párrafos que Néstor dedica a la conversión de Vladimir, que son de los pasajes más fascinantes. Pues Vladimir, buscando “nuevos dioses”, recibe una embajada de los búlgaros del Volga, que ya se habían convertido al islam, y le cuentan las bondades de su religión. Luego llegan los jázaros, que se habían convertido al judaísmo (¿nunca os habéis preguntado cómo llegaron los judíos de “El violinista sobre el tejado” a Rusia?). Los siguientes fueron misioneros cristianos germanos, que usaban los modos “romanos” u occidentales, y luego el emperador de Constantinopla le envía misioneros “ortodoxos”, que son los que finalmente elige. Es un pasaje profundamente humano a pesar de ser “naif” en sus planteamientos, pero verdaderamente fascinante.

Pechenegos
Tras la muerte de Vladimir el Grande, el proceso de descomposición de la Rus apenas pudo detenerse. El principado fue dividido entre los hijos de Vladimir, Iaroslav el Sabio y Mstislav. Cuando éste murió, Iaroslav unificó de nuevo el territorio. Sin embargo, a su muerte, sus hijos disputaron duramente, e hizo aparición el pueblo de los cumanos, o “kypchaks”, otro pueblo turco, desde las estepas del sur, que habían desplazado a los pechenegos. Desde ese momento, los príncipes lucharon a menudo entre ellos, o bien lucharon unidos contra los cumanos, o bien con los cumanos contra el resto de los príncipes. Durante la segunda mitad del siglo XI y el primer tercio del XII, la Rus se mantuvo a duras penas unida, aunque sus príncipes locales tenían cada vez más independencia, y compitieron en traición y capacidad de intriga. De cada generación, el líder repartía sus principados entre sus hijos, y a su muerte, los hijos luchaban o se traicionaban y corría la sangre, hasta que uno se imponía, y el ciclo volvía a comenzar. En estos años, la Crónica de Néstor ya no habla de incursiones ni campañas hacia el exterior, sino de un continuo estado de guerra fratricida.

Este periodo terminaría con el reinado de Vladimir II Monómaco, entre los años 1113 y 1125. A Vladimir II debemos dos de los primeros exponentes de la literatura de los rus: la “Instrucción”, y su “Homilía”, obra en la que él, consciente de los peligros que acechaban a la Rus en descomposición, trató de plasmar su experiencia y sus recomendaciones a los futuros príncipes. También, durante su reinado, tuvo el poder y la iniciativa suficiente como para construir un largo muro en la estepa para protegerse de los cumanos, vigilada por sus valientes boyardos..

Tras la muerte del Gran Príncipe Vladimir II, la Rus siguió su descomposición. La decadencia y la bajada de la demanda comercial por parte de Constantinopla, y las nuevas rutas comerciales que abrieron las Cruzadas, provocaron que la Rus fuera quedando al margen de lo que pasaba en el resto del mundo, y los ingresos debidos al comercio descendieron. Los Príncipes de la Rus tenían menos recursos, y su poder se fue fragmentando tanto como sus territorios, en el que fueron apareciendo pequeños principados independientes. Los príncipes tuvieron que apoyarse cada vez más en sus boyardos al carecer de recursos propios. Esto puede apreciarse, a modo de anécdota, en el papel que los boyardos tienen en los cuentos tradicionales rusos de temática heroica, o “bilinas”, en los que casi siempre los protagonistas son boyardos que, leales a algún príncipe, cumplen arriesgadas misiones en defensa de la tierra rusa. Curiosamente, los príncipes de estos cuentos están siempre en sus palacios, y rara vez se ponen al frente de sus ejércitos o se exponen a algún peligro. Yo crecí leyendo estas historias, que conocí incluso antes de la mitología griega: Ilyá Múrometz, Dobrinia, Aliosha Popóvich, Dunai y Nastasia…

Pues bien, la Rus unificada se dividió en tres estados principales: Rus de Vladimir Suzdal en el norte, la de Volinia-Galitzia en el sur, y el principado independiente de Novgorod, ciudad dedicada al comercio, próspera y opulenta, y que daría origen a un personaje de cuento maravilloso llamado Sadkó de Novgorod: astuto y afortunado mercader, y maestro en el arte de tocar el salterio. Ya en la segunda mitad del siglo XII Kíev fue perdiendo importancia, al tiempo que los cumanos aumentaban la presión sobre las tierras rusas, pero Novgorod prosperó por su control del comercio del Báltico.

Pero las divisiones aumentaron tanto que cuando, los mongoles invadieron la Rus, en el 1220, no había fuerza capaz de hacerles frente. Fue Batu Kan, al frente de la Horda de Oro, quien arrasó el país. La llegada de los tártaros fue tan terrorífica para los rusos que muchos huyeron a las tierras boscosas, a la espesura, donde los mongoles no se atrevían a penetrar. Muchas bilinas, como la de Aliosha y el tártaro Tugarin, muestran a los tártaros como seres monstruosos, deformes y gigantescos.
La conquista mongola tuvo graves repercusiones. En el futuro haré una serie de artículos sobre el imperio mongol, en los que trataré esto con más detalle, pero por ahora basta decir que los mongoles no se anexionaron esta región, pero sí sometieron a sus príncipes a un duro vasallaje (os recomiendo leer la historia de Aliosha Popovich). Favorecieron la preminencia de Moscú, situada más al este que Kíev, como nueva sede de poder de los gobernantes rusos, mientras la antigua capital de la Rus era aislada y caía en el olvido. No fue hasta Ivan el Terrible cuando los rusos recuperaron su independencia. Por lo tanto, detendremos aquí el relato de los hechos históricos.

LOS EJÉRCITOS DE LA RUS EN DBA

En DBA, encontramos dos listas distintas para el periodo descrito en este artículo. Aunque la composición de los ejércitos cambia, la organización de los ejércitos se basa en lo siguiente: el Príncipe poseía un ejército propio, denominado “druzhina”. A este contingente, los príncipes podían unir tropas locales, aportadas por las ciudades, en caso de necesidad, o incluso mercenarios provenientes de pueblos esteparios con los que a veces se estaba en guerra, y a veces, se colaboraba. Con este esquema en la cabeza, veamos ahora los ejércitos.

III/48, Rus.- Esta lista representa a los ejeŕcitos de los príncipes de la Rus desde la llegada de los reyes vikingos hasta la fragmentación de los principados. Encontramos pues la peana del general como Cv o bien como Bd. Ésta peana es la “druzhina”, y son vikingos. Luego hay siete peanas de lanzas, obligatorias. Los lanceros rus, es decir, autóctonos, usaban largas, al modo escandinavo, lanzas y escudos. Inicialmente eran redondos, también como el de los vikingos, pero fueron cambiando al diseño cuadrado. También estaban equipados con hachas. Eran conocidos por su ferocidad y por la fuerza de sus formaciones cerradas. Luego hay dos peanas con opción de ser lanceros rus o bien, arqueros hostigadores, Ps, que solían disparar desde detrás de las formaciones de lanzas. Por último, otras dos peanas que pueden ser más lanceros rus, o Bd, que representan a mercenarios varengos, o bien LH, que pueden ser búlgaros del Volga, magiares, polacos o pechenegos: arqueros a caballo, vamos.
III/78 Rusos tempranos. Esta lista representa ya a los ejércitos en los que participan los boyardos. El general y cuatro peanas más son Cv. Ésta es la nueva “druzhina”, conformada por los jinetes bogatires: equipados con arcos, mazas y espadas, y equipados con hermosos armaduras y arreos. Luego hay dos peanas de caballería ligera, que eran tropas aportadas por las ciudades, formadas por boyardos empobrecidos o campesinos pudientes, y que tenía funciones de exploración, pero también puede representar a mercenarios húngaros, pechenegos o cumanos, o bien “kazak”, que eran turcos asentados en las fronteras de la Rus. Siguen dos peanas de lanceros rus, dos de arqueros y la última, que tiene tres opciones: una Hd, representando a milicias locales; Ax, representando a tropas rusas procedentes de los bosques, y una extraña peana de 3 ó 6 Kn, que son caballeros mercenarios germanos, en formación estándar (3Kn) o bien en cuña (6Kn).

En Art de la Guerre encontramos las mismas listas. La 160 es la Rus, con una “druzhina” formada por lanceros varengos o caballería pesada, y un núcleo de lanceros pesados y alguna caballería ligera. La lista 206, Rusos Feudales, incluye la segunda época. La élite es ahora montada, formada por los boyardos, representados como caballería pesada, quizá en contraposición a la caballería pesada con arco que encontramos en las listas de pechenegos y cumanos; luego tenemos a los lanceros, con presencia menor, y muchas opciones de aliados: cumanos, pechenegos, polacos e incluso esos caballeros.

Guerreros de la Rus

Las gamas de rus, sobre todo los boyardos, suelen ser muy atractivas visualmente. Que yo conozca, Essex y Old Glory tienen una bonita gama, aunque mi favorita es la de Mirliton.

¿EXISTÍA ALGO ANTES DEL BIG BANG?
junio 20, 2018
La evolución del universo es un tema muy interesante porque se vuelve cada vez más extraña y poco intuitiva a medida que nos remontamos hacia el pasado más lejano. Pero, si algo he aprendido de las charlas que doy de vez en cuando es que, cuando se habla sobre la teoría del Big Bang, hay una pregunta concreta que en seguida le viene a todo el mundo a la cabeza: ¿qué había antes de que el universo empezara, antes de que tuviera lugar esa “Gran Explosión”?
Creo que la pregunta tiene ramificaciones interesantes, así que demos comienzo a la entrada de hoy poniendo algo de contexto al asunto (para variar).
Ya he comentado otras veces que observar objetos muy distantes equivale a ver cómo era el universo en el pasado. Las estrellas más cercanas se encuentran decenas, cientos o miles de años luz de distancia, así que las vemos tal y como eran hace decenas, cientos o miles de años. Por ejemplo, la estrella Eta Carinae podría reventar hoy mismo en forma de supernova, pero, al estar a unos 7.000 años luz de la Tierra, tardaríamos unos 7.000 años en enterarnos.
Pero las galaxias más lejanas que se han descubierto se encuentran a miles de millones de años luz de distancia. Como resultado, desde nuestro punto de vista, las observamos tal y como eran hace miles de millones de años, cuando el universo aún era muy joven. Un ejemplo es la galaxia GN-z11, una de las más lejanas conocidas, que aparece en el cielo con el aspecto que tenía sólo 400 millones de años después de que tuviera lugar el Big Bang (que, recordemos, ocurrió hace unos 13.800 millones de años).

Imagen del churro GN-z11. (Fuente)
Vale, entonces, si construimos un telescopio lo bastante potente, a lo lejos veremos cosas cada vez más antiguas hasta llegar al momento preciso en el que tuvo lugar el Big Bang, ¿no?
Por desgracia, las cosas no son tan sencillas, voz cursiva, porque existe una “barrera” que no sólo nos impide observar el inicio del universo, sino también sus primeros 380.000 años de vida.
Cuando nos adentramos en las profundidades del cielo, llega un momento en el que lo único que ves, mires donde mires, es una señal de microondas muy débil y muy uniforme: la radiación de fondo de microondas. La siguiente imagen es un mapa en el que aparece la distribución de esta radiación por todo el cielo, pero tened en cuenta que esto es un mapa en dos dimensiones que representa la “cara interior” del volumen esférico (y, por tanto, tridimensional) al que llamamos universo observable (un concepto del que hablaba en esta entrada, por cierto).

(Fuente)
Esta radiación lejana y antigua fue emitida unos 380.000 años después de que ocurriera el Big Bang, cuando el universo se volvió transparente. Hasta aquel momento, la materia había estado tan apiñada y la temperatura era tan alta que cualquier rayo de luz se veía absorbido rápidamente por algún átomo ionizado poco después de ser emitido. Como resultado, el universo fue completamente opaco durante los primeros 380.000 años de su existencia, así que hasta nuestros días no ha llegado ningún tipo de radiación electromagnética que fuera emitida durante aquella época y, por tanto, no tenemos información observacional directa de este periodo.
Aun así, existe una método que podría permitirnos ver más allá de esta barrera: al contrario que la luz, las ondas gravitacionales (de las que hablé en esta entrada) pudieron haber atravesado el amasijo de materia del universo primigenio sin problemas, así que se espera que su detección pueda proporcionar más información sobre esta etapa del cosmos. Eso sí, de momento, la detección de este tipo concreto de ondas gravitacionales queda fuera de nuestro alcance tecnológico, por lo que, de momento, seguimos sin poder observar de manera directa qué ocurrió durante la infancia más tierna del universo.
¡Espera un momento! Entonces, si no podemos observar directamente qué estaba pasando en esta época, ¿cómo saben los astrónomos en qué estado se encontraba el universo por aquel entonces? ¿No se estarán sacando teorías de la manga?
Para nada, voz cursiva, la reconstrucción de lo que ocurrió durante los primeros años del universo está basada en fenómenos bien estudiados y comprobados de manera experimental.
Por ejemplo, los colisionadores de partículas permiten reproducir las temperaturas extremas que reinaban en el universo en aquella época e investigar cómo se comporta la materia en esas condiciones (hablaba de esas temperaturas en esta entrada). Por otro lado, se pueden modelar los años posteriores al Big Bang utilizando las leyes de la física, simular la evolución del universo y ver si los resultados predichos encajan con la realidad que observamos hoy en día. Y, de momento, estos modelos predicen correctamente muchas propiedades actuales del universo, como la evolución de la abundancia de los elementos químicos o la distribución de las galaxias. De hecho, el fondo de radiación de microondas fue descubierto después de que se predijera su existencia, lo que es una prueba más del poder predictivo de la física actual.
Las leyes de la física nos permiten “ver” más allá de la barrera del fondo cósmico de microondas y remontarnos aún más en el pasado. Gracias a ellas sabemos que, cuanto más retrocedemos en el tiempo, más comprimido estaba el universo y mayor era su temperatura, llegando a épocas en las que las condiciones eran tan extremas que no existían los núcleos atómicos, las partículas fundamentales o incluso las cuatro fuerzas fundamentales que rigen el universo (guiño, guiño).
Pero, por desgracia, incluso las leyes de la física tienen un límite: aunque se pueden utilizar para predecir qué ocurría hasta la primera septillonésima de segundo de vida del universo, cuando se intenta predecir en qué estado se encontraba en el momento justo en el que ocurrió el Big Bang, los modelos teóricos fallan estrepitosamente. Y fallan porque la densidad del universo se vuelve infinita y los conceptos de espacio y tiempo se pierden en el mismísimo instante anterior al Big Bang. De ahí que se diga que el universo nació a partir de una singularidad inicial, una región que no se puede definir con las leyes de la física actuales.
O sea, que me estás intentando decir que, como nadie sabe qué ocurrió en el momento anterior al Big Bang, se sabe aún menos de lo que existía antes, así en general, ¿no?
Más o menos, voz cursiva. De momento, “qué había antes del Big Bang” o “dónde se encontraba esa singularidad inicial” parecen preguntas sin respuesta, porque las leyes de la física no nos pueden proporcionar esa información y tampoco podemos obtenerla a través de observaciones. Por tanto, el consenso actual es que el Big Bang no sólo produjo toda la materia que nos rodea, sino también el propio espacio y el tiempo, así que no habría existido un “antes” del Big Bang… Porque el espacio y el tiempo ni siquiera existían, por raro que pueda sonar.
Aun así, el terreno de un hipotético universo “pre-Big Bang” está abierto a la especulación. Ojo, que la palabra especulación es importante en este contexto porque, aunque existen hipótesis que intentan describir cómo era el universo antes del Big Bang, de momento no hay ninguna manera de comprobar si se ajustan a la realidad o no,así que no se puede demostrar si son correctas o incorrectas.
Teniendo esto en cuenta, aunque de momento sean incomprobables, se han propuesto ideas interesantes que podrían ayudar a mejorar los modelos actuales en un futuro.
Por ejemplo, una de las propuestas es que el tiempo ya existiera antes de que tuviera lugar el Big Bang, al contrario de lo que sugiere el consenso actual. Según los autores de esta idea, la existencia de una época “pre-Big Bang” ayudaría a explicar un detalle en concreto sobre la historia del universo que al modelo más aceptado, el de la inflación, le cuesta un poco.
Me explico.
Si volvéis a mirar la imagen del fondo de microondas que he puesto más arriba, veréis que cada región del universo está pintada con un color distinto. Estos colores representan la intensidad de la señal de microondas que se detecta en cada punto del cielo (en rojo es más intensa y en azul lo es menos). A su vez, la intensidad de esta señal es un reflejo de la cantidad de materia/energía que había en cada una de estas regiones cuando el universo se volvió transparente, así que la radiación de fondo nos dice cómo estaba distribuida la materia por el espacio en aquella época.
Pero resulta que las diferencias que aparecen en ese mapa se han exagerado muchísimo para que se puedan observar mejor. En realidad, la diferencia entre las variaciones más altas y más bajas de la intensidad de la señal rondan la milésima de grado (se suele hablar de esta radiación en términos de temperatura), así que, en realidad, la radiación de fondo de microondas es extremadamente uniforme.
De hecho, cuando fue captada por los primeros telescopios de microondas, la radiación de fondo tenía esta pinta:

(Fuente)
Por tanto, esta señal que es tan uniforme por todo el cielo es un reflejo de que, cuando el universo se volvió transparente, la distribución de materia y energía que la emitieron era muy homogénea. Esta homogeneidad se puede observar también en la distribución de las galaxias que, a gran escala, están distribuidas por el espacio de manera muy uniforme.
El descubrimiento de esta uniformidad fue un quebradero de cabeza para los astrónomos de la época porque los modelos teóricos no predecían ningún motivo por el que el Big Bang tuviera que producir un universo tan homogéneo desde su inicio. En su lugar, parecía mucho más probable que la energía hubiera aparecido distribuida de manera irregular por el espacio y que, con el tiempo, se hubiera repartido por el universo hasta equilibrarse y volverse uniforme, igual que una masa de agua caliente y una de agua fría alcanzan una temperatura intermedia cuando se mezclan.
Pero, además, la teoría del Big Bang sugería que existían regiones del universo que se habían estado alejando unas de otras a velocidades superiores a las de la luz desde su nacimiento (el espacio se puede expandir a velocidades superiores a las de la luz, como comenté en esta otra entrada). Estas velocidades hubieran imposibilitado el intercambio de energía entre las diferentes regiones del espacio y, por tanto, si el universo no hubiera sido muy homogéneo desde el principio, nunca podría haber alcanzado la uniformidad que observamos hoy en día.
Este problema se puede resolver mediante el modelo de la inflación, la idea de que el universo creció más despacio justo después del Big Bang y que su velocidad de expansión se disparó más adelante de manera repentina. De esta manera, la energía hubiera tenido tiempo de fluir por todo el espacio hasta homogeneizarse durante los primeros instantes de vida del universo, dando lugar a la uniformidad que observamos hoy en día en el cielo.
Pero, aunque la inflación es el modelo más aceptado en la actualidad, tiene sus detractores, y entre las alternativas a la inflación que han propuesto esos detractores está la existencia de la época “pre-Big Bang” que había mencionado: si, al contrario de lo que se piensa, el tiempo sí que hubiera existido antes de que tuviera lugar el Big Bang, entonces algún proceso distinto a las leyes físicas conocidas podría haber “estabilizado” la singularidad inicial, asegurando la producción de un universo que fuera muy uniforme desde el principio.
En la misma línea, se ha planteado otro escenario en el que, antes del Big Bang, el universo existió en un estado comprimido y muy caliente que evolucionó lentamente durante una cantidad de tiempo indeterminada. Según este modelo, el universo habría estado en una situación de equilibrio metaestable en la que cualquier mínima perturbación provocaría que se liberara toda su energía. Cuando esa perturbación ocurrió, el universo caliente, compacto y extremadamente denso se empezó a expandir, produciendo la “explosión” que daría lugar a la realidad que vemos ahora.
Ya, bueno, puedo creerme que existiera el tiempo antes del Big Bang, pero eso sigue sin explicar de dónde salió esa singularidad (o lo que sea) que originó el universo.
Cierto, voz cursiva. Seguimos en el terreno de la especulación, pero también hay alguna idea al respecto.
Existe otro escenario hipotético llamado Big Bounce, la idea de que el universo pasa continuamente por ciclos de contracción y expansión. En este caso, el universo nacería a partir de un Big Bang, crecería hasta alcanzar un tamaño máximo y, a partir de ahí, empezaría a contraerse hasta condensarse otra vez en una singularidad. Esta singularidad volvería a reventar en algún momento, formando un universo completamente nuevo, y el ciclo se volvería a repetir.
Este escenario ha sido descartado porque las mediciones de la geometría del espacio sugieren que el universo se va a seguir expandiendo para siempre, así que, en principio, no se va a contraer nunca. Aun así, Roger Penrose y Vahe Gurzadyan han propuesto que ciertos patrones concéntricos que se pueden encontrar en el fondo de radiación de microondas podrían ser señales de que existió un universo antes que el nuestro. Según ellos, estos patrones en el fondo de radiación de microondas podrían ser las marcas de las intensas ondas gravitacionales que produjeron los choques entre agujeros súpermasivos en el universo que habría precedido al nuestro.

Curiosamente, otro resultado de esta hipótesis es que, si fuera correcta (que, repito, no es más que especulación) se podría codificar información en la radiación de fondo de microondas para transmitir información entre un universo y el siguiente… Aunque, claro, manipular las trayectorias de agujeros negros súpermasivos para que sus colisiones sigan un patrón determinado puede ser bastante complicado, así que una civilización que quisiera hacer esto tendría que buscar otra manera manipular el fondo cósmico de microondas.
Por otro lado, otra posible “respuesta” a la pregunta de qué había antes del Big Bang son los universos burbuja. En este caso, estamos ante un escenario en el que existe un espacio en continua expansión en cuyo interior nacen nuevos universos constantemente y en el que nuestro propio universo no sería más que una de estas “burbujas” que se expanden en el interior de un universo mayor. Curiosamente, este es un escenario que predice la teoría de la inflación y es uno de los motivos por lo que sus detractores la critican.

(Fuente)
Una vez más, tampoco hay indicios observacionales de que estos multiversos existan, pero, en cualquier caso, estas dos ideas vuelven a pecar de lo mismo que las hipótesis anteriores: aunque, técnicamente, responden a la incógnita de qué podría haber existido antes del Big Bang, siguen sin explicar de dónde salió la singularidad inicial que dio origen a todo.
Bueno, ¿y no podría ser que el universo hubiera existido desde siempre? ¿Que lleve un tiempo infinito repitiendo ciclos de contracción y expansión o que siempre se haya estado expandiendo y generando más universos nuevos, sin que realmente empezara en ningún momento?
Pues parece que no, voz cursiva. El análisis matemático de todos estos modelos sugiere que el universo no ha podido existir desde siempre y que necesariamente debió tener un inicio en algún momento.
Por tanto, resumiendo la respuesta de hoy: hay quién ha propuesto que la singularidad inicial que dio lugar al universo existió durante un tiempo, regida por unas leyes de la física distintas a la que conocemos, pero también se ha sugerido que antes del Big Bang pudo haber existido otro universo que se acababa de contraer o que el principio de nuestro universo tuvo lugar dentro de otro aún mayor.
Pero, aun así, de momento no hay manera de poner a prueba ninguna de estas hipótesis, así que, hasta donde sabemos, la respuesta a la pregunta de hoy es que no sabemos qué había “antes” de que tuviera lugar el Big Bang, porque el espacio y el tiempo aún no existían. Ojo, que eso no significa que nuestro universo surgiera de la nada. Simplemente que no tenemos manera de definir qué estaba pasando antes de que tuviera lugar la “Gran Explosión”.
Si sois aficionados a la física y/o la astronomía y os gusta este blog, entonces es altamente probable que también os gusten los libros de Ciencia de Sofá, disponibles en librerías en España y a través de internet* por todo el mundo (o, al menos, hasta donde llega Amazon). Podéis hacer click en las siguientes imágenes para leer más información sobre los libros y opiniones de los lectores que ya los han devorado (metafóricamente).

La Fuerza Espacial de Trump, ¿disparate o medida lógica?
Daniel Marín21JUN18117 Comentarios
Este artículo apareció originalmente en Vozpópuli.
El pasado 18 de junio el presidente Trump saltó a los medios por su decisión de crear una Fuerza Espacial con el fin de garantizar «el domino de EEUU en el espacio». Ante esta noticia es inevitable que a muchos les venga a la cabeza la imagen de marines espaciales combatiendo contra xenomorfos, pero la realidad es, obviamente, más prosaica y es poco probable que veamos cambios significativos a corto y medio plazo. De hecho, es posible que la propuesta se quede en eso, una simple propuesta.
Sede del JICSpOC situado en la base Schriever para coordinar operaciones entre el USTRATCOM, el Space Command de la USAF y la NRO (www.defense.gov).
Para empezar conviene señalar que Estados Unidos ya mantiene un vigoroso programa espacial militar. Sin ir más lejos, en 2019 el Pentágono dispondrá de 9.300 millones de dólares para sus distintos proyectos espaciales, incluyendo programas clasificados. Para que nos hagamos una idea, esta cifra es aproximadamente la mitad del presupuesto anual de la NASA. La mayor parte del presupuesto militar espacial está gestionado por la Fuerza Aérea (USAF), que también controla los dos principales centros de lanzamiento del país: la base de Cabo Cañaveral (Florida) y la base de Vandenberg (California). (El Centro Espacial Kennedy está bajo control de la NASA).
La USAF está a cargo de una importante flota de satélites, que van desde satélites de comunicaciones no clasificados como los AEHF hasta satélites de alerta temprana destinados a detectar lanzamientos de misiles balísticos, pasando por los archifamosos GPS que nos ayudan a encontrar la gasolinera más cercana… y, de paso, también guían misiles balísticos y bombas «inteligentes». Eso sí, la USAF no controla directamente los satélites espías como los KH-11 Crystal —auténticos telescopios espaciales que apuntan a la Tierra— o los Orión —dotados de enormes antenas de cien metros de diámetro capaces de espiar las comunicaciones de países enemigos—, a cargo de la NRO (National Reconnaissance Office). La MDA (Missile Defense Agency), que se encarga de desarrollar sistemas antimisiles, también se lleva una parte del presupuesto militar estadounidense dedicado al espacio.
En definitiva, puede que no haya marines espaciales de por medio, pero está claro que el programa espacial militar de EEUU tiene un tamaño lo suficientemente importante como para justificar la creación de una Fuerza Espacial, o USSF (United States Space Force). No es la primera vez que se propone una idea semejante, pero la novedad es que, en esta ocasión, Trump pretende crear una nueva rama independiente de las fuerzas armadas, la sexta, que estaría en pie de igualdad con la Fuerza Aérea, la Armada, el Ejército, los Marines y la Guardia Costera. Evidentemente, la creación de las Fuerzas Espaciales se produciría en detrimento de la USAF, que se vería obligada a ceder a la Fuerza Espacial una enorme cantidad de recursos. Por eso no nos debe extrañar que la USAF haya intentado disuadir al presidente, pero se ve que sin mucho éxito.
El núcleo de esta futura Fuerza Espacial se crearía a partir del actual Mando Espacial de la Fuerza Aérea, también conocido como Mando Espacial de Estados Unidos. Dirigido desde la base aérea de Peterson (Colorado), el Mando Espacial controla toda la flota de satélites a cargo de la USAF y, por extensión, es la espina dorsal de las operaciones de casi la totalidad de militares estadounidenses que operan fuera del territorio de EEUU. Lo cierto es que no solo la USAF se opone a la creación de las USSF. Muchos militares de alto rango creen que se trata de una idea peregrina que solo servirá para romper la Fuerza Aérea por la mitad y fragmentar las fuerzas armadas del país. Por contra las ventajas militares no están nada claras, especialmente teniendo en cuenta que la USAF ya controla y gestiona la mayor parte de proyectos espaciales de EEUU. Trump debe ahora intentar convencer al Congreso para sacar adelante esta iniciativa. Y por ahora no parece que tenga las de ganar.
Entrada al cuartel del Space Command de la USAF en la Base Aérea de Peterson (https://www.kleinfelder.com)
Para aquellos que se preocupan por un posible aumento de la militarización del espacio, la creación de la USSF no cambiaría el panorama internacional de forma llamativa: el espacio alrededor de la Tierra ya está militarizado. Esto no significa que haya armas en órbita —afortunadamente–, pero no hace falta. El uso que le dan los militares al espacio es distinto a la imagen distorsionada que vemos en las películas de Hollywood. Y, por cierto, no, la USSF no estaría a cargo de los misiles nucleares. Tampoco olvidemos que los tratados actuales impiden la puesta en órbita de armas de destrucción masiva. No obstante, la creación de la USSF transmite un mensaje bastante directo y abre la puerta a la creación de nuevas armas antisatélite (ASAT) que estarían dirigidas obviamente contra China y Rusia, los únicos países rivales de EEUU que cuentan con programas espaciales (y ambos con programas ASAT propios). En concreto China, que en los últimos años ha aumentado el gasto militar en el espacio dramáticamente, se perfila como el principal adversario de una futura Fuerza Espacial estadounidense.
Emblema del Air Force Space Command (USAF).
Curiosamente, Rusia ya dispone de unas Fuerzas Espaciales, integradas desde 2015 en las Fuerzas Aeroespaciales, de la que también forma parte la Fuerza Aérea (antes eran una rama independiente). Todas las potencias actuales dependen cada vez más de sus satélites, especialmente los militares. Pero los satélites son vehículos extremadamente frágiles que pueden resultar dañados o destruidos muy fácilmente. Por eso la prioridad de los militares en el espacio no es tanto desplegar marines espaciales con armas láser como disponer de sistemas antisatélite que puedan responder a esta amenaza y, además, crear sistemas de lanzamiento capaces de poner en órbita satélites de forma rápida como respuesta a un posible ataque.

El gran debate sobre el parto: todo lo que está mal (y lo que está bien) del modelo hospitalario actual
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Más allá de la locura: así configuraron las fiebres del oro nuestro mundo moderno

Tras revelar datos de la víctima de La Manada, las empresas se están marchando de Forocoches

Precios al 40.000%: la inflación de Venezuela hunde en la pobreza a millones de personas día a día

CompartirEl gran debate sobre el parto: todo lo que está mal (y lo que está bien) del modelo hospitalario actual

586
TWITTER
EMAIL
43 COMENTARIOS
24 Junio 2018 – Actualizado 27 Junio 2018, 07:35
ESTHER MIGUEL TRULA@flamencastone
Por norma general, el parto es un proceso fisiológico, no un evento traumático o excepcional, como sí lo es cualquier otra operación quirúrgica. Ni siquiera es uno especialmente peligroso. A cifras de 2011, el INE recoge que el 88% de las mujeres españolas protagonizan un parto normal que no debería requerir de intervención médica alguna. La medicina, por supuesto, ha mejorado los índices de supervivencia a los partos tanto de los niños como de las madres, algo inmensamente positivo para la sociedad.
En España, esta transición se dio sobre todo entre finales del siglo XIX y los años 60 y 70. Cuando se erigieron muchos de los hospitales de la Seguridad Social se abandonó la práctica domiciliaria y se instauraron grandes mejoras higiénicas y sanitarias en la población.
A cambio, el proceso del parto se medicalizó enormemente (cosa que ocurrió en todo el mundo). ¿Demasiado, incluso? Eso es lo que ahora mismo se debate ya no sólo en los entornos médicos, sino en organizaciones sanitarias mundiales. Es una discusión en la que hay mucho más que una simple, reduccionista y hasta peligrosa “vuelta a lo natural”.
Más allá del paciente, un debate médico
La discusión no sólo está activa en grupos de Facebook, discusiones de Twitter o en asociaciones cercanas a la defensa de “lo natural” como bandera. Va más allá: ha entrado en el ámbito de los propios médicos, matronas y personal sanitario encargado y también en el académico. Incluso la propia OMS ha decidido establecer los cauces necesarios para saber si, como sociedad, no nos hemos pasado de frenada al intentar buscar la máxima seguridad en los partos.
Como cuenta María Inmaculada de Molina Fernández en su tesis al respecto, “en este escenario, desde la mirada médica, los protocolos institucionales para el control de la gestación y atención al parto centraron fundamentalmente su atención en la prevención de posibles riesgos, condicionando los cuidados y controles a todas las gestantes, con independencia de que dicho riesgo existiera o no”.
Porcentaje de partos instrumentales sobre el total de partos en 2010, marco europeo. Fuente: European Perinatal Health Report. Health and Care of Pregnant Women and Babies in Europe in 2010.
Este intervencionismo de todas las mujeres gestantes, como se ha ido viendo después, no puede justificarse hoy con unos mejores resultados en otros aspectos como podrían ser la mortalidad perinatal o neonatal. En realidad, muchos de los países europeos con menores tasas de mortalidad perinatal y neonatal (los países nórdicos) son los mismos que tienen unas menores tasas de intervenciones obstétricas durante el parto. Es decir, las políticas hospitalarias importan, como veremos más adelante, y ahora que tenemos más conocimientos y tecnologías no deberíamos quedarnos en ese parámetro para medir el éxito.
El miedo que cambió la manera de parir
La medicalización fue un avance que salvó miles, posiblemente millones de vidas (en España, entre 1900 y 1930 la mortalidad materna se situaba en torno a las 700 muertes por cada 100.000 nacimientos, cuando hoy es de cinco).
Por las mismas ganas de ayudar y de salvar vidas se metió miedo y se patologizó un proceso que no en todos los casos es peligroso. Después, por la comodidad de los centros o una política de “curarse en salud”, se mantuvieron estos protocolos intervencionistas. De ahí que nuestro imaginario actual imagine un parto normal como el de una mujer sentada de patas abiertas en la silla de una sala de un hospital mientras varios médicos hacen y deshacen sobre su vulva y vientre, cuando no hace tantos años era más frecuente la visión de una mujer tumbada en su cama, en la bañera de su casa o directamente de pie con la ayuda de una matrona que la ayuda a respirar.
Es a raíz de esta nueva situación de intervenciones excesivas y abusivas que la Organización Mundial de la Salud llevó a crear un debate entre múltiples agentes que se consagró con la Declaración de Fortaleza de 1985. En él se incluyeron una serie de recomendaciones acerca del óptimo tratamiento de los partos y cuyos objetivos en favor de una reducción del intervencionismo médico siguen siendo muchas de las metas perseguidas por los sistemas sanitarios de todo el mundo hoy en día.
Tasas de mortalidad materna en Europa
Infogram
Que es la hora de buscar un mayor bienestar de la mujer y racionalizar el uso de técnicas abusivas, volver a abrazar procesos más espontáneos, es algo por lo que no sólo aboga la OMS, sino también las asociaciones de afectadas, la Sociedad Española de Ginecología y Obstetricia (o SEGO) o Isabel Espiga, la coordinadora institucional de Sanidad de la Estrategia de Atención al Parto Normal. Ésta última advierte que, para que esto sea posible, habrá también que cambiar la mentalidad de una sociedad que sigue considerando que un parto poco intervenido es sinónimo de un acto doloroso y traumático, propio de épocas del pasado y poco relacionado con la realidad obstétrica de hoy.
Marsden Wagner, médico y máximo responsable del Área Materno-infantil de la OMS, apuntaba a que la razón por la que la mayoría de los trabajadores sanitarios se resiste a permitir darle más protagonismo a las madres es porque “nunca han presenciado un parto natural”. No son experiencias que formen parte de su formación. Cuando él mismo asistió a uno de ellos, ya bien avanzada su carrera médica, le cambió completamente el punto de vista del proceso. En muchos casos no es cuestión de instrumentos y procedimientos, sino de apoyo y cariño.
Y conseguir todo esto no se trata de un tema menor para la actividad hospitalaria: en España la atención al parto representa el 14% de las hospitalizaciones y el 7% de las estancias hospitalarias, por delante incluso de las enfermedades del aparato circulatorio, digestivo o respiratorio.
Los partos: ¿el procedimiento que encarna el sesgo machista de la medicina?
Lo que las páginas sobre “violencia obstétrica” argumentan es que, como profesión ejercida en su mayoría por hombres durante décadas, la medicina tiene un sesgo, una mirada androcéntrica que afecta indirectamente al bienestar y acceso a la asistencia sanitaria de las mujeres.
Quienes apoyan la tesis proporcionan otros ejemplos de este trato desfavorable, como el de los ataques al corazón, cuyos síntomas conocidos por todos (dolor en el pecho) son los experimentados en mayor grado por los hombres, no por las mujeres (dolor en el cuello), pese a que son ellas las que más sufren esta dolencia y a las que se diagnostica erróneamente más del doble de veces que a los hombres (se confunden los síntomas de ansiedad con los de infarto). Durante siglos se creyó que la endometriosis, algo que afecta al 10% de las mujeres fértiles, era falta de tolerancia a un dolor de regla aceptable por parte de la paciente. Dos ejemplos de entre muchos más. Multitud de médicos han hablado en los últimos años de cómo los criterios sexistas de los estudios farmacológicos o sus propios prejuicios en consulta perjudican a las mujeres.

Entonces, siendo como son los partos una experiencia exclusiva de la biología femenina, ¿son también un infierno excepcional por el que están obligadas a pasar las mujeres por el especial ninguneo de la comunidad médica de las necesidades de esta parte de la población?
Según Txanton Martinez-Astorquiza, presidente de la Sociedad Española de Ginecología y Obstetricia o SEGO, en absoluto. Afirmaciones así son, además de inexactas, “maliciosas”: “desgraciadamente, todo el mundo conoce a alguien que ha pasado por malas experiencias en un hospital, sea un parto o una operación”. Para la asociación, no hay un trato distinto o especialmente negligente entre un parto y otras intervenciones sanitarias, aunque desde la organización sí defienden que hay que hacer progresos en la mejora de la estructura y en la información a las madres.
El parto es nuestro defiende la postura contraria:
“La violencia de género impregna todos los estamentos de la sociedad y por supuesto también el ámbito médico. Si esto lo llevamos al ámbito de la obstetricia, nos encontramos con que millones de mujeres son atendidas en el parto como sujetos sin capacidad de decisión. Se las infantiliza, se las trata como si no tuvieran capacidad de controlar un proceso que, recordemos, no es patológico”.
Décadas y siglos atrás el ejercicio de la medicina estaba fuertemente masculinizado. En 1988 en España sólo el 27% de los practicantes de medicina, veterinaria y farmacéutica eran mujeres, declinándose más fuertemente por estas últimas dos profesiones. A día de hoy, el 66% de los doctores que termina el MIR en nuestro país son mujeres.
¿En qué quedamos? ¿Es el parto un procedimiento excepcional entre los procesos hospitalarios, más dado al maltrato? Con los datos de los que disponemos, es una idea discutible.
El principal escollo para determinar cuál de estos colectivos tiene razón es que apenas hay encuestas nacionales en España acerca de la opinión de las parturientas. Trabajemos con lo disponible. En un trabajo publicado en 2010 elaborado a partir de una encuesta que se le hizo a 7.500 usuarias asistidas en el Principado de Asturias, un 88,3% de las mujeres puntuaron la atención durante el parto como buena o excelente, pero al preguntar por el trato recibido durante el posparto la calificación positiva caía al 73.1%. Asturias es, en el conjunto de la radiografía española, la tercera comunidad autónoma menos intervencionista en los procesos del parto, por lo que cabe la posibilidad de que esos resultados sean más benevolentes que si añadiésemos a la muestra a mujeres de Castilla y León o Valencia, por ejemplo.
Para comparar, tenemos las cifras del Índice de Satisfacción Global (ISG), barómetro publicado anualmente por el Ministerio de Sanidad y que se realiza en el conjunto del territorio español para conocer la opinión general de los ciudadanos sobre el sistema de salud (y del que curiosamente las mujeres siempre tienen una opinión algo más desfavorable que los hombres).
En 2013, el promedio de la satisfacción global en las áreas de hospitalización, consultas externas, cirugía ambulatoria y urgencias (cuatro ámbitos que pueden medirse con lo que proporciona la atención al parto) era del 90,94%.
Con una variabilidad tan grande no podemos determinar si es mucho peor el trato a las parturientas. De hecho, y si cogemos la valoración de satisfacción estrictamente del parto, es una diferencia de opiniones tan mínima que podría negar la existencia de este supuesto problema. Pero, y esto es algo en lo que coinciden desde ambos lados de la pugna, sería muy conveniente mejorar esa recogida de datos de la opinión de las gestantes en toda España. Sólo así se podría hablar del alcance o no de la violencia obstétrica con precisión, de igual modo que los organismos oficiales como la OMS sí confirmaron hace años que existe un abuso de medicalización.
Cesárea, el abuso actual
Nacimiento de cesárea.
En España la tasa de cesáreas y de partos instrumentados no ha parado de crecer en las últimas décadas. Los datos del Ministerio de Sanidad más actuales disponibles, referidos al año 2012, reflejan que en España el 25,3% de las mujeres, es decir una de cada cuatro, es sometida a una operación de cirugía mayor (cesárea) durante el parto, haciendo de éste el procedimiento quirúrgico específico más frecuente al que se someten el conjunto de españoles.
En Finlandia, un espejo en el que nos gustaría reflejarnos, tienen una tasa del 16%. En países como República Dominicana la operación está en torno al 60% de los partos. Para la OMS no hay justificación posible para que el porcentaje supere el 10-15% de las intervenciones en ningún sitio, ya que la reducción en las tasas de mortalidad materna y neonatal al aplicar estos procedimientos sólo se da cuando es estrictamente necesario.
Da la casualidad, además, de que en España tienes más papeletas para someterte a una cesárea dependiendo de la comunidad autónoma en la que vivas. Mientras que en País Vasco los porcentajes respetan las directrices sanitarias, en Castilla y León y Extremadura esta cifra alcanza el doble. No estamos hablando de una operación que simplemente deje a la madre una cicatriz de por vida. Una cesárea aumenta las posibilidades de complicaciones para los siguientes embarazos.
Tasa de cesáreas en España en 2012 por Comunidades Autónomas.
¿Y por qué se dan esas enormes diferencias entre regiones? Según Martinez-Astorquiza, “porque no todos los hospitales son iguales ni tienen los mismos recursos, personal o estructuras. Pensemos, por ejemplo, en los hospitales pequeños y aislados. No es lo mismo estar rodeado de personal en el centro de Madrid, en la Castellana que tú sólo de guardia en La Gomera. Para ellos no va a ser igual”.
“Todo eso te hace ser más previsor”, dice. El obstetra también lo achaca a la vulnerable situación legal de los profesionales. “Muchos médicos actúan con cautela porque recibimos muchas peticiones de demanda por las pacientes cuando los resultados son no deseados. Todo esto hace que el ginecólogo sea más cauto y abuse de la cesárea para garantizar un parto con un feto en mejor estado”.
“Muchos médicos actúan con cautela porque recibimos muchas peticiones de demanda. Todo esto hace que el ginecólogo sea más cauto”.
Por paradójico que suene, otro problema parecen ser las mujeres que paren en España por clínica privada. Así lo afirman desde El parto es nuestro: “En las privadas se practica en casos del 40%, doblando las tasas de los hospitales públicos. Hay muchas cesáreas de niños que nacen de nalgas sólo porque no hay profesionales preparados para atender este tipo de parto. Por suerte, en la actualidad hay una predisposición de los médicos para reducir las cesáreas tanto por todo lo que supone para una mujer como para el sistema hospitalario, claro”.
Para certificar esto, existe un problema añadido: hay una gran ausencia de información estadística sobre la realidad del parto en las clínicas privadas, lo que hace que sólo se conozcan estos índices por algunas comunidades autónomas, como Valencia, que sí obligan a recoger las cifras.

Los niños de hoy nacen un lunes, un miércoles, un viernes, pero curiosamente y desde los 35 años en los que contamos con estadísticas cada vez menos niños nacen en sábado, domingo o fiestas de guardar. No es cuestión de azar, sino por las programaciones del parto, normalmente el momento en el que se realiza la cesárea y que es de por sí una intervención que desnaturaliza el proceso. Hoy en día se programan alrededor de un 30% de los partos. Los partos inducidos, aunque no necesariamente acaban en cesárea, son un fenómeno muy parejo.
Para Martinez-Astorquiza es algo lógico:
“Nosotros hacemos la programación de lunes a viernes, pero no es por fastidiar. ¿Tú te operarías de apendicitis o te pondrías una prótesis un domingo? No. Con los partos ocurre igual. Nosotros sólo programamos los que toca programar, y estas programaciones pasan por un comité y se hacen con unos criterios muy, muy estrictos”.
El médico también recuerda que los porcentajes de programaciones de la medicina privada, mucho más altos que en la pública, desvirtúan la foto final.
Aún así, inducir un parto, aunque garantiza que el feto nazca vivo, es llamar al mal tiempo. Estás desencadenando en el cuerpo de la mujer un proceso que no estaba llamado a comenzar aún, lo que aumenta las papeletas de que se generen complicaciones imprevistas. Un gran porcentaje de los relatos de terror leídos en foros y blogs de madres y gestantes derivan de estas situaciones.
¿Cómo te sentirías si te cortasen los genitales?
Muchas madres que pariesen hace 20 o más años conocen bien la episiotomía, ya que en la década de los 90 se practicaba en un 89% de los partos primerizos de nuestro país. Es un corte del perineo (la piel y los músculos que tienen las mujeres entre la vulva y el ano) que se hace en esos momentos críticos para agrandar el canal vaginal en caso de que el niño encuentre dificultades al salir, intentando evitar un desgarro natural de la mujer.
Según las estadísticas de la OMS se recurría a esta técnica en exceso, bajo criterios que no eran de estricta necesidad. Según estimaciones del SEGO, más de un 50% de parturientas al año sufren todavía hoy este corte en España, y muchas veces ni siquiera se les comunica en ese momento, sino que lo descubren después del alumbramiento. Pese a las estimaciones de SEGO, en realidad no podemos afirmar a ciencia cierta cuántas de ellas han pasado por una episiotomía, ya que las cifras oficiales tendrían que salir de cada comunidad autónoma y no todas las difunden.
Episiotomía con incisión lateral, la más común hoy en día. Anteriormente se hacía el corte en horizontal, acercándose al ano.
Por efecto de la herida que genera la episiotomía es frecuente que una mujer pierda el control de sus esfínteres durante semanas o sea incapaz de sentarse con normalidad, pero en los casos en que el corte se haya practicado mal también puede sufrir un ensanchamiento permanente de la vagina y padecer una enorme afección sobre su vida sexual, sin hablar de los traumas psicológicos, que también puede causar. “Es como si a un hombre le hicieras un corte en sus genitales con repercusiones a la hora de eyacular”, explican desde El parto es nuestro.
Históricamente la principal justificación del uso de la episiotomía era reducir el índice de desgarros graves en el cuerpo de la mujer, así como otros beneficios secundarios altamente recomendables como prevenir la asfixia fetal y el consiguiente sufrimiento del bebé. Hace años algunos ginecólogos pensaban incluso que interviniendo en esta área se podría crear un mejor perineo para la mujer, haciéndolo más estrecho y prieto de cara al futuro.
Porcentaje de episiotomías en 2010, marco europeo. Fuente: European Perinatal Health Report. Health and Care of Pregnant Women and Babies in Europe in 2010.
Es comprensible que los médicos quisieran evitarle el dolor a las madres, pero estudios posteriores en un contexto de uso generalizado de esta intervención han indicado que estos planeamientos eran erróneos, que los alegados beneficios no son tales y que estos cortes incluso aumentan el riesgo de desgarros mayores, especialmente para los embarazos subsiguientes al del primer corte. Los efectos de los desgarros naturales son, salvo en un 5% de los casos, mejores para la salud y la estética de las madres que estos cortes técnicos.
La recomendación actual está en recuperar prácticas de estimulación perineal y una mayor cautela y paciencia por parte del personal sanitario antes de realizar el corte.
Prácticas condenadas a desaparecer y medicamentos como caramelos
La episiotomía no es la única práctica en desuso. Otras incluso están condenadas a desaparecer, también como consecuencia de esa necesidad de “medicalizar menos” cada proceso de parto. Es el caso de la maniobra de Kristeller, que consiste en presionar con el antebrazo el abdomen de la mujer mientras hay contracción.
En España, de hecho, el Ministerio recomienda no realizarla, ya que según la evidencia científica conlleva riesgos potenciales de morbilidad materna y fetal: no mejora la tasa de partos vaginales espontáneos, no reduce la tasa de parto instrumental y es ineficaz en la reducción de la duración de la segunda etapa del trabajo de parto. Pese a que el estándar deseado del Ministerio es de 0%, se ha realizado en un 26,1% de los partos vaginales. Lejos de haber desaparecido, esta maniobra se sigue realizando en una alta proporción de maternidades.

Menos claro parece el debate en torno a la oxitocina sintética o la anestesia epidural, dos sustancias que plantean bastantes controversias en los paritorios. La oxitocina es la “hormona del amor”. La segregamos al tener un orgasmo, está vinculada a nuestros niveles de felicidad. Es también eso que segregan las mujeres durante el parto para crear vínculos de afecto con el niño y borrar el dolor del proceso, ayudando a que la mujer desee volver a quedarse embarazada.
Su versión artificial es un chute químico que acelera la llegada de las contracciones. Hace que sean más dolorosas y rápidas que las naturales (lo que aumenta la demanda de analgesia epidural) y perjudica a la segregación natural de esta sustancia, descompensando las respuestas neuroquímicas de la madre y provocando unos efectos en las relaciones maternofiliales que empiezan a documentarse. La ausencia de niveles adecuados de oxitocina se ha vinculado tanto al decrecimiento en la creación de ese vínculo natural entre madre e hijo como a mayores índices de depresión posparto.
La epidural
La epidural, el medicamento estrella en los partos, la panacea del paritorio, tampoco es perfecta. Si la oxitocina deriva en el uso de la epidural, esta anestesia también puede hacer que necesites de la otra. ¿Por qué? Porque muchas mujeres experimentan una ralentización del proceso de parto y una incapacidad para empujar. Sus cuerpos se duermen mientras sale el niño, lo que aumenta la medicalización.
“Hemos llegado a un punto en el que parece que la epidural y la oxitocina sintética no tienen riesgos”.
“Nada tiene riesgos cero”, dicen desde El parto es nuestro. “Hay muchas ocasiones en las que estas sustancias son necesarias, no estamos para nada en contra de la intervención, pero hemos llegado a un punto en el que parece que la epidural y la oxitocina sintética no tienen riesgos porque se usa de forma general. El 72% de los partos en España se llevan a cabo con epidural. Las mujeres deben saber que ello también puede implicar riesgos, desde vómitos y mareos a disociaciones de cuerpo y realidad o incluso que no te haga efecto, porque a veces te ponen la epidural y aun así sufres dolor”.

Quienes defienden su deseo de parir “de forma natural” (es decir, con dolor) aseguran que se encuentran a un equipo médico que impone el uso de la anestesia. Pero los médicos insisten en mostrar lo ilógico de esa supuesta imposición:
“El anestesista que no pone la epidural en un parto está más tiempo descansando”, dice Martinez-Astorquiza. “Sería algo contraproducente. Nadie quiere trabajar más. Nadie insiste ni presiona a nadie. En mi hospital desde principios de los 2000 ofrecimos de forma general la epidural. Cuando apareció, el 96% de las parturientas la pedía voluntariamente. No hay que demonizar las decisiones de la mujer, ella es muy lista y si se la quiere poner se le pone”.
“No hay que demonizar las decisiones de la mujer, ella es muy lista y si se la quiere poner se le pone”.
“Lo que protestamos es que en determinados sitios parece que ya te condenan a ponerte la epidural desde el principio, cuando debería ser una elección”, defienden desde la otra bancada. “Lo que vemos es que en hospitales con protocolos más humanizados sí hay más porcentajes de partos sin epidurales. Se le pueden ofrecer alternativas al dolor, como no estar constantemente tumbada. Con mejor libertad de movimientos, duchas calientes o pelotas de pilates es más fácil sobrellevar el dolor”.
Es un tema muy delicado. La insistencia de los médicos que reprochan las pacientes a que se inyecten esta anestesia local puede ser tanto para facilitar su trabajo como por su experiencia personal. Por ejemplo, del 100% de valencianas que pedía tener un parto natural, un 70% de ellastermina pidiendo su inyección más adelante, cuando las contracciones empiezan a hacer efecto. Médicos y matronas coinciden en que la mejor solución es que la mujer pueda controlar las dosis de anestesia en tiempo real, pero no todos los hospitales disponen de la infraestructura adecuada para ello.
“Piel con piel”
Son muchas las maneras de humanizar la asistencia al parto. Por ejemplo, la que permite estar al lado de tu hijo recién nacido, piel con piel, nada más nacer. Las dos primeras horas después del nacimiento son el llamado periodo sensitivo (alerta tranquila), provocado por la descarga de noradrenalina durante el parto. El contacto inmediato piel con piel del recién nacido con su madre tiene múltiples efectos beneficiosos para ambos. Facilita reconocer el olor materno, establecer el vínculo, la lactancia y la adaptación a la vida extrauterina.
Madre e hijo separados. En algunos centros todavía no se permite practicar el “piel con piel”.
Los recién nacidos se recuperan más rápido del estrés, normalizan antes su glucemia y la temperatura. Pone en marcha los reflejos de búsqueda y succión, aumentando la frecuencia de tomas con éxito. Para la madre facilita la disminución del tamaño uterino por secreción de oxitocina y evita experiencias emocionales negativas.
Es un procedimiento sin estrés: el parto ha terminado y, salvo circunstancias graves, tanto el bebé como la madre ya están fuera de peligro. La recomendación es que se haga de manera estándar como mínimo en el 80% de los partos. Sin embargo, en España sólo el 50% de las madres afirman haber realizado contacto precoz, aún lejos de esa recomendación masiva.
La dimensión humana del parto
Técnicamente las madres tienen el control. Así lo afirma el Ministerio de Sanidad, que entre los elementos de la preparación del parto ofrece a las futuras madres desde 2011 y actualizado en 2015 un documento oficial y con validez legal llamado Plan de Preparación del Parto. En él puedes detallar con pelos y señales todas tus preferencias y expectativas a tener en cuenta por el equipo que te atienda. Siempre y cuando tus peticiones no contravengan lo aconsejado por la evidencia científica… Y siempre que las circunstancias lo permitan.
Es a este punto al que se pueden acoger los profesionales para negar el cumplimiento de estos documentos. Como podemos imaginar, pocas mujeres anotan su deseo de ser genitalmente mutiladas cuando no es necesario (caso de la episiotomía) o quieren que se las separe de sus hijos inmediatamente al nacer, pero está en esa valoración del personal y de la limitación de protocolos de cada hospital que se haga más o menos caso de lo que pide la madre. A la hora de la verdad, sólo un 15,5% de los hospitales públicos incluyen en sus protocolos todas las recomendaciones cuando, obviamente, el Ministerio de Sanidad recomienda que cualquier hospital incluya todos los protocolos.

Además del problema de medios, el mismo Ministerio de Sanidad reconocióabiertamente la falta de conocimientos o actualización por parte de los profesionales sanitarios y detectó un problema de “actitud” entre los mismos, admitiendo que faltaba un cambio cultural, sensibilización y formación.
Un parto es “un proceso fisiológico de alto contenido emocional […]”, como explica la doctora Molina Fernández, “al que, en ocasiones, la mujer se enfrenta vulnerable y asustada y cuyo recuerdo, permanece prácticamente indeleble en su memoria hasta el final de sus días”. No vale con tratarlas como a animales. Como reclaman desde El Parto es nuestro, basta con un poco más de respeto a la fisiología del parto y permitir que exista un mayor protagonismo de la mujer y su pareja durante todo el proceso para tener contentas a las madres.
Además, apoyar e informar a la mujer en un momento tan delicado no es sólo una cortesía, sino algo que forma parte del código médico bajo la fórmula del “primum non nocere”, alocución latina atribuida a Hipócrates traducible como “ante todo no hacer daño” y que explica que debe haber una prioridad en la jerarquización de obligaciones éticas del profesional. La ética se convierte en salud: se ha visto que un mayor cuidado prestado durante el parto disminuye la ansiedad y aumenta la satisfacción de la gestante, mejorando el vínculo, la estabilidad metabólica y hemodinámica, la tasa de lactancia y su duración y el desarrollo psicomotor y neurológico del recién nacido.
Por último, ampliar los protocolos y mejorar la atención también beneficiaría a los profesionales, ya que los factores más influyentes sobre la satisfacción de la paciente durante un parto es “la competencia técnica percibida del personal sanitario” y “la cantidad y calidad de la información que se le suministra”, según los estudios de Molina Fernández. A lo largo de las entrevistas mantenidas con El parto es nuestro y la SEGO, hemos comprobado cómo ambos grupos aparentemente antagónicos coinciden en estar a favor de una racionalización del parto en los hospitales que aún no se ha alcanzado.
La gran controversia: el parto en casa
Si el problema es el trato recibido en los hospitales… ¿por qué no parir en casa? Es la idea que puede aparecer en muchas de las mentes de las afectadas tras un parto desagradable de cara a su segunda gestación. También pueden pensarlo primerizas alarmadas por las historias de alguna conocida, o simplemente ser una opción buscada por personas tendentes a las prácticas alternativas a las de la mayoría.
Se trata de una opción que merece un estudio concienzudo por parte de la familia antes de decantarse por ella. Lo es porque España no es como Holanda o como Reino Unido, cunas del parto en el domicilio:
“Desde SEGO no recomendamos parir en casa porque la estructura de España no permite una evacuación rápida, urgente. No podemos compararnos con Irlanda o Inglaterra. En este último hay unidades móviles pendientes de las mujeres parturientas. Holanda es mucho más pequeño que nuestro país. Y allí también hay un regimiento de matronas. Aquí eso no está bien organizado, y aun así y a pesar de todo la mortandad en Reino Unido y Holanda es mayor que aquí”.

En España no contamos con un registro adecuado sobre las muertes fetales y neonatales en los hospitales. Ocurre algo similar, aunque por otras vías, en regiones donde no se cuantifica la muerte de un feto incluso si ha ocurrido más allá de la semana 22 de gestación. Por estos hechos se producen grandes variabilidades en las tasas de mortandad entre países.
Por ejemplo, y si atendemos a las cifras oficiales, en Holanda mueren aproximadamente siete de cada mil bebés, mientras que aquí serían cinco de cada mil. Pero todos los decesos holandeses se refieren al conjunto de nacimientos sin especificar dónde tienen lugar. Si son ciertas las estimaciones de un 30% de infraregistro de muertes perinatales en España, no habría tanta diferencia con respecto a Holanda.
Tasa de mortalidad infantil
Infogram
Los metaanálisis sobre mortandad en países desarrollados no se ponen de acuerdo en si hay diferencias significativas entre parir en uno y otro sitio. Si atendemos a un estudio de la Universidad de Alicante de 2010, ante un embarazo de bajo riesgo es igual de seguro parir en casa que hacerlo en un hospital. Los canadienses dicen que, también en casos de bajo riesgo, mueren 0.57 de cada 1.000 niños en el hospital y 0.64 en casa. Hace sólo cuatro años la sanidad británica, y basándose en estudios de la Universidad de Oxford, proclamó que parir en casa es más seguro para las madres e igual de seguro para sus bebés que hacerlo en sus hospitales.
En el estudio estadounidense más citado por los detractores del parto en el hogar se dice que, de cada 1.000 recién nacidos, muere uno si se lleva a cabo en el hospital y dos en el caso del parto domiciliario. Como vemos, todas ellas son diferencias muy bajas, pero es perfectamente comprensible que, ante esa menor diferencia positiva del hospital frente al hogar, muchas mujeres quieran optar por la que da más seguridad. Una siempre puede pensar que el suyo será ese niño de cada 1.000 que muera por una complicación que hubiese tenido arreglo de haber comenzado el parto en el hospital.
Fuera del baile de cifras, sí parecen clarividentes tres cosas: primero, que parir se ha vuelto algo mucho más seguro que hace décadas; segundo, que la muerte materna durante el embarazo se ha convertido (por suerte) en unos y otros casos en algo residual, sin importancia estadística. Y por último, que las que eligen su hogar se recuperan más rápidamente, pasan por menos cesáreas y episotomías y viven el parto con mayor satisfacción. Es una constante de todos los análisis citados. Y, sin embargo, un parto siempre puede convertirse en una urgencia en un abrir y cerrar de ojos.

“Es un error comparar cómo son ahora los partos en casa con los de décadas atrás”.
“Del 100% de los partos el 37% de ellos son complicados. Uno de cada tres partos se va a complicar, y si lo haces en el hospital va a ser más sencillo salvar vidas. Todo lo demás es demagogia”, afirman desde SEGO. En El parto es nuestro opinan lo contrario. “Cuando un niño muere en el hogar la importancia que le dan los medios es mucho mayor que cuando ocurre en una clínica. Creemos que hay un exceso de persecución de los partos en casa, que se crea una carga de culpabilidad sobre esas familias por irse al margen del sistema. Y por supuesto es un error comparar cómo son ahora los partos en casa con los de décadas atrás, que no tenían ningún tipo de control o seguimiento, además de que hoy las mujeres nos cuidamos mucho más y tenemos más acceso a la salud”.
Conviene recordar que tanto en España como en la mayoría de países, siempre que se considere que una mujer está bajo mínimo riesgo de tener complicaciones durante el parto, estará obligada a parir en el hospital (si las cosas salen mal, bajo pena de cárcel). Que las mujeres que pueden parir en casa son aquellas que no presentan riesgos inicialmente, y si, como decíamos, un 88% de los partos españoles es “normal”, sin ningún problema, y si estadísticamente se considera que hay algún riesgo en aproximadamente uno de cada tres, lo que hay es una sobreprotección de los embarazos potencialmente peligrosos, no lo contrario.
La matrona: la figura olvidada que se recupera
En realidad el problema nunca es cuántos niños mueren; por un lado los partos que van bien son un proceso de lo más natural (aunque muy doloroso); por el otro, si el embarazo es de riesgo (previo al parto), no van a dejar a la mujer parir en casa. De hecho, sabemos que hay muchas operaciones que podrían hacerse en casa sin problema. El asunto es, más bien, que durante el parto se puede complicar la cosa fácilmente.
No pasa muy a menudo, pero cuando pasa no estar en un hospital puede ser crítico. Detrás de esas anomalías estadísticas hay pacientes con nombres y apellidos en los que nadie quiere convertirse, y es en ese temor y en el estado de nuestra infraestructura hospitalaria española donde se muestra que la mejor opción no es tanto volver al hogar como pedirle a los médicos una mayor humanización y racionalización del proceso. Mejorar los recursos para que más centros puedan atender a todas las demandas de los planes de parto de las españolas y reeducar al personal obstétrico tanto a favor de una menor intervención como de un cuidado psicológico mayor de la paciente.

Jackie Calleja@dr_calleja
Acabo de atender una #hemorragia obstétrica por atonía uterina tras un parto. He consumido un año de vida en ese rato. Para mi ya ha empezado 2019. Por favor, NO DEIS A LUZ EN CASA. Un parto puede convertirse en una urgencia en minutos.
19:03 – 1 ene. 2018
11,4 mil
8.523 personas están hablando de esto
Información y privacidad de Twitter Ads
Coda: de entre toda esta maraña clínica hay una figura que todos insisten en recobrar para solucionar de golpe muchos de estos problemas. Nos referimos a la matrona. Ella fue durante décadas la que asumió los cuidados integrales de la madre durante todo el trabajo de parto, como única forma de monitorización y control disponible. La relación entre la matrona y la mujer era cercana y permitía la asistencia al parto en un ambiente familiar y doméstico que reportaba a la mujer seguridad.
Como hemos visto, décadas atrás la muerte de la mujer o del feto era un fenómeno más común que el actual, con lo que no hay que romantizar en exceso las tradiciones antiguas. Pero hay sistemas sanitarios, como el holandés, donde las matronas conviven y cooperan con los médicos en los hospitales para dirigir el alumbramiento.

Nunca, bajo ningún concepto, digas que algo va bien
El título de esta entrada, un poco manipulador, lo reconozco, parece ser uno de los lemas que algunos periodistas aprenden en las facultades de periodismo, o tal vez de sus mayores, cuando llegan a los medios de comunicación.

Les explico. Hace dos años (2016), al publicarse la Encuesta de Condiciones de Vida del INE, muchos medios de comunicación publicaron noticias y comentarios subrayando que a pesar de que la economía (macro) aparentemente llevaba ya más de dos años recuperándose, las tasas de pobreza en España no caían, o lo hacían demasiado despacio. Concretamente, la proporción de la población “en riesgo de pobreza” según la ECV publicada entonces era del 22,1%, tan solo una décima por debajo de la del año anterior. Y la proporción “en riesgo de pobreza o exclusión social” (concepto algo más amplio, que incluye medidas de privación material, y de baja actividad laboral en el hogar) era del 28,6%, frente al 29,2% el año anterior.

Como conté entonces en el blog, este tipo de argumentos tenían un error de base: la ECV publicada en 2016 se refería a la encuesta administrada en la primavera de 2015, que a su vez se basaba principalmente en la situación de los hogares en 2014. Por lo tanto, lógicamente, esa encuesta no reflejaba los efectos de dos años y medio de crecimiento, sino más bien de unos meses, o un año como mucho.

Terminaba yo así mi entrada de 2016:
Las personas que están ahora en situación de riesgo de pobreza las conoceremos en mayo de 2018. Para entonces, crucemos los dedos, la economía habrá seguido creciendo. Habrá, esperemos, unos cientos de miles de parados menos. Y habrá, esperemos, unos cuantos menos pobres que ahora (aunque si la economía crece, y suben los ingresos medianos, también subirá el umbral de la pobreza). Aunque habrá también quien, al ver las cifras publicadas (referidas a 2016) comentará algo parecido a que “aunque las variables macroeconómicas mejoran trimestre a trimestre, las condiciones de vida de los ciudadanos evolucionan a un ritmo mucho más lento”. ¿Tienen alguna duda?
Pues bien, ya está aquí la ECV de 2017, con referencia a los ingresos de 2016. Muestra que el porcentaje de población “en riesgo de pobreza” ha bajado un poco más (21,6%, medio punto menos que hace dos años), a pesar de que, como era previsible, los umbrales para estar en esa situación han subido ligeramente (para un hogar unipersonal de 8.000 a 8.500 euros; para dos adultos y dos menores, de 16.800 a 17.900 euros). Las personas “en riesgo de pobreza o exclusión social” han bajado algo más: del 28,6% en la encuesta difundida en 2016 (con ingresos de 2014), al 26,6% en la encuesta actual (ingresos de 2016). Como se ve en esta tabla, que tomo de la nota de prensa del INE, los tres elementos que componen el indicador “en riesgo de pobreza o exclusión social” han mejorado respecto al peor momento de la crisis.

El porcentaje de personas en situación de carencia material severa había bajado el año pasado dos puntos respecto a 2014. Las personas en hogares con baja intensidad en el empleo habían bajado en 2016 4,3 puntos desde 2013.

Es decir, como era lógico, tras más de dos años de crecimiento de la economía, sí se ve que los indicadores de pobreza y exclusión social mejoran. Más claramente los que no tienen umbrales móviles (carencia material y baja intensidad en el empleo) que el riesgo de pobreza, cuyo umbral sube cuando mejora la economía.

En todo caso, ¿cómo creen que han titulado nuestros medios las noticias sobre esta encuesta? Propongo algunas ideas: “La pobreza disminuye levemente tras la salida de la crisis”, “Mejora insuficiente de los indicadores de pobreza”, “Lenta caía de la pobreza”. Esa es la línea de La Vanguardia, y de El Periódico… Pero la mayoría de los medios huyen de ese tipo de matices. No vaya a parecer que algo va bien.

Por eso InfoLibre titula (erróneamente, mezclando dos conceptos distintos):
El porcentaje de personas en riesgo de pobreza encadena ocho años consecutivos por encima del 25%

Y espera hasta el tercer párrafo para explicar a los lectores que el indicador utilizado ha bajado desde su peor dato.

Eldiario.es, que en 2016 titulaba así: “La desigualdad sigue aumentando a pesar del crecimiento de la economía”, ahora que los indicadores sí que mejoran claramente titula de esta otra manera (también imprecisa porque el dato se refiere a un hogar unipersonal, como hemos visto más arriba):
Uno de cada cinco españoles vive en riesgo de pobreza con 8.500 euros al año
Aquí sólo hay que esperar hasta el final del segundo párrafo para leer que la ECV “refleja una mejoría en casi todos los indicadores de pobreza”. Algo es algo.

Titular muy similar da El Mundo.

Es interesante el caso de El País, que utiliza este subtítulo: “Con la recuperación, la tasa de riesgo de pobreza baja al 21,6% pero se mantiene alta y aumenta entre los jubilados”, pero elige titular así:
Una de cada tres familias españolas aún no puede permitirse unas vacaciones o un gasto imprevisto
Pone el foco en dos de los nueve indicadores específicos que se utilizan para medir la carencia material severa, y en el porcentaje de hogares (no de personas). Pero de nuevo, lo que subraya es que “aún” hay mucha pobreza, no que esta sube o baje. Veamos cómo han ido en los últimos años estos dos indicadores en los que “aún” estamos mal (con datos, eso sí, que no están en la nota de prensa, hay que buscarlos en la web del INE).

Porcentaje de los hogares en diferentes situaciones de carencia material
2004
2005
2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
2016
2017
No puede permitirse ir de vacaciones al menos una semana al año
44,7
41,6
39,5
37
34,5
40,3
40,8
40
45,1
45,8
45
40,6
39,5
34,4
No tiene capacidad para afrontar gastos imprevistos
40,5
34,7
33
31,9
29,9
36,1
38,5
37,8
41,4
41
42,4
39,4
38,1
37,3
Fuente: INE, Encuesta Condiciones de Vida

–>

Curiosamente, el porcentaje de hogares que no pueden permitirse unas vacaciones de al menos una semana al año es el más bajo desde que existe esta encuesta, que empezó a hacerse en 2004 (dato que sorprende un poco, pero esa sería otra discusión). Y ha bajado más de nueve puntos desde su valor máximo (en sombreado rojo en la tabla) en 2013, cuando era del 45,8%. En cuanto al porcentaje de hogares sin capacidad para afrontar gastos imprevistos, no ha llegado aún ni mucho menos a los niveles previos a la crisis, cuando bajó hasta el 29,9%. Pero sí ha bajado más de cinco puntos desde el nivel máximo en la crisis (42,4% en 2014). De manera que con dos indicadores que mejoran claramente, y uno que baja a su mejor nivel desde que hay datos, ¿cuál es el titular?
¡La cosa sigue muy malita!
Lo que yo les decía, que parecería que en algunas escuelas de periodismo las clases de titulación consistirían en dos principios: “si las cosas empeoran, subráyalo” y “si las cosas mejoran, disimúlalo”. La Vanguardia o El Periódico muestran que se puede hacer de otra manera. Pero algunos se resisten.

La plataforma orbital Gateway: la nueva estación espacial internacional alrededor de la Luna
Daniel Marín27JUN18158 Comentarios
La NASA sigue adelante con sus planes para construir la Plataforma Orbital Lunar Gateway o LOP-G (Lunar Orbital Platform Gateway). Aunque todavía no se ha aprobado formalmente, la agencia espacial ha publicado hace poco una solicitud para que la industria privada envíe propuestas de diseño del primer elemento de la Gateway, el módulo PPE (Power and Propulsion Element). En los últimos meses el diseño del estación ha continuado evolucionando y ahora incorpora más módulos de los inicialmente previstos, la mayoría de ellos suministrados por otros países. De este modo, la plataforma Gateway —antes conocida como Deep Space Gateway— se perfila como la próxima estación espacial internacional, pero estará ubicada en órbita lunar en vez de alrededor de la Tierra.
Diseño actual de la estación lunar LOP-Gateway (NASA).
En su última iteración Gateway cuenta con seis módulos permanentes. El primero será, como ya hemos señalado, el PPE. Este módulo contará con dos grandes paneles solares y se encargará del suministro eléctrico, así como de las maniobras propulsivas gracias a un sistema de propulsión eléctrico con motores a base de xenón y otro con motores hipergólicos convencionales. En principio el PPE, con una masa cercana a las ocho toneladas, debía ser lanzado mediante el cohete gigante de la NASA SLS Block 1B durante la misión EM-2 (Exploration Mission 2), la primera tripulada del programa SLS/Orión. Sin embargo, ante los continuados retrasos del programa, la NASA está estudiando la posibilidad de lanzarlo mediante un lanzador comercial como el Falcon Heavy. En cualquier caso el PPE debería despegar en 2022 y luego viajaría hasta la Luna hasta quedar situado en una órbita lunar de tipo NRHO (Near-Rectilinear Halo Orbit).
Órbita NRHO alrededor de la Luna en la que estará situada Gateway (NASA).
Características de Gateway (NASA).
Para permitir mantener la masa del PPE dentro de unos mínimos la agencia espacial europea (ESA) será la encargada de lanzar el segundo módulo de Gateway, denominado SPRIT (European System Providing Refueling Infrastructure and Telecommunications). SPRIT llevará tanques de combustible para el PPE y motores de efecto Hall (E-HEAT), aunque también complementará las comunicaciones para posibles vehículos que viajen a la superficie lunar. SPRIT, de unas cinco toneladas, podría despegar en un SLS durante la EM-2 o con otro lanzador comercial. Acoplado a SPRIT irá el tercer módulo, un pequeño hábitat de la NASA de siete toneladas que permitirá que hasta cuatro astronautas a bordo de la Orión puedan vivir en la estación Gateway a partir de 2024. Es posible que la agencia espacial japonesa JAXA y la ESA también colaboren para suministrar el sistema de soporte vital de este módulo.
Módulo europeo SPRIT (ESA).
Acoplado a este hábitat se irán uniendo otros dos módulos para la tripulación. El primero podría ser construido por Japón con ayuda de otros países, mientras que el segundo sería un módulo estadounidense hinchable suministrado por Bigelow. Por último se acoplaría otro módulo hábitat con una esclusa de construcción rusa para paseos espaciales. Rusia quiere construir este módulo hábitat además de la esclusa, pero opina que la NASA de debe pagar por el módulo y se ve que la agencia estadounidense no está por la labor. En realidad la esclusa sería uno de los primeros módulos en despegar, ya que por motivos de seguridad es importante que Gateway disponga cuanto antes de capacidad para llevar a cabo paseos espaciales. Otro elemento esencial sería un brazo robot suministrado por la agencia espacial canadiense CSA. El brazo se podría mover por la estación y estaría basado en el Canadarm 2 de la ISS.
Distintas propuestas de hábitat estudiadas por la NASA para Gateway (NASA).
Plan de exploración lunar de la NASA (NASA).
Además de los módulos permanentes la NASA quiere enviar naves logísticas no tripulados con víveres y equipos para los astronautas. Cada una de estas naves dispondrá de un módulo de carga denominado LAM (Logistics Augmentation Module), probablemente basado en la nave de carga Cygnus que actualmente lleva víveres a la ISS. El primer LAM se acoplará con Gateway en 2024 antes de la segunda visita tripulada a la estación, permitiendo que los cuatro astronautas vivan un mes en la cercanía de la Luna. Con una masa que rondará las 15 toneladas, el LAM también llevará víveres para otra visita adicional de la nave Orión y será el encargado de llevar el brazo robot canadiense hasta la estación.
La estación Gateway con los módulos logísticos acoplados (JAXA).
Versiones del SLS y prestaciones de carga hacia Gateway (NASA).
Misión EM-2 de la Orión (NASA).
Como vemos, además de la ESA, también participarán en Gateway Japón, Canadá y, quizá, Rusia. De este modo LOP Gateway se perfila como una auténtica estación espacial internacional bajo liderazgo estadounidense durante la próxima década. Eso sí, todavía no está muy claro para qué servirá o cómo va a ser el periodo de transición entre la retirada de la ISS —que muy probablemente siga operativa hasta 2028— y la entrada en servicio de Gateway.
Estación lunar Gateway (NASA).

Estas son las hormonas que te ayudan a perder peso (y así puedes hacerlas colaborar)
SUSCRÍBETE A XATAKA CIENCIA
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
RSS
Flipboard

TE RECOMENDAMOS

Cuánto calor se espera para este verano en España y cuándo empezará “lo malo”

Comer cuando tenemos hambre no es la mejor manera de mantener una dieta saludable

El día que en que una criatura de 50 toneladas explotó en el centro de una ciudad

CompartirEstas son las hormonas que te ayudan a perder peso (y así puedes hacerlas colaborar)

761
TWITTER
EMAIL
5 COMENTARIOS
27 Junio 2018 – Actualizado 9 Julio 2018, 22:43
IRIA REGUERA
El proceso de perder peso a veces resulta demasiado complejo. Existen multitud de dietas – de algunas de las cuales nos debemos alejar lo antes posible -, conceptos, mitos nutricionales y un largo etc. que debemos tener en cuenta. La cosa se complica aún más cuando nos dicen que algunas de nuestras hormonas están involucradas en nuestra pérdida de peso y que si hacemos esto o aquello, podemos adelgazar gracias a ellas o, por el contrario, boicotear todos nuestros esfuerzos.
Por ello, hemos recopilado una lista de las hormonas que están involucradas en la pérdida o ganancia de peso, cómo nos afectan y qué podemos hacer para ponerlas de nuestra parte.
Estas son las hormonas relacionadas con el control de nuestro peso
Leptina
Se trata de una hormona que regula el apetito y genera la señal de saciedad. Esta hormona es principalmente producida por el tejido adiposo y actúa como un termostato que informa al hipotálamo del tamaño de los depósitos de grasa blanca del organismo. El hipotálamo ayuda a regular el peso corporal provocando la reducción de la ingesta de alimentos.
La leptina tiene como efecto la disminución del apetito y el incremento del grado energético.
Tenemos algunas maneras de promover o activar la presencia de leptina en nuestro cuerpo para que nos ayude a perder de peso.
Para empezar, habría que evitar las dietas estrictas y los ayunos de más de 12 horas ya que, lejos de ayudarnos a adelgazar, lo que pueden conseguir es que se reduzcan los niveles de leptina en nuestro cuerpo.
Realizar ejercicio de manera regula ya que este puede ayudar a mejorar la sensibilidad a la leptina.
Evitar dietas estrictas, hacer ejercicio, no consumir alcohol y dormir bien ayudaran a mantener bajo control la leptina
Reducir nuestro consumo de alcohol ya que su ingesta puede alterar tanto los niveles de leptina como los de grelina.
Descansar de manera adecuada. No disfrutar de un sueño adecuado puede, igual que la ingesta de alcohol, alterar los niveles de leptina en nuestro cuerpo. Dormir menos de 4 horas dos días seguidos puede provocar que la leptina descienda un 18% en nuestro organismo.
Grelina
La grelina es la hormona opositora a la leptina. De ella también depende el desarrollo de la sensación de hambre. El mantenimiento del peso depende en gran medida de esta hormona, ya que un desequilibrio puede llevar desde a la obesidad hasta a la desnutrición.
Esta hormona es segregada por el aparato digestivo y en situaciones en las que la persona lleve mucho tiempo sin comer, el organismo la segregapara generar hambre en busca de nutrientes.
Por eso, una de las recomendaciones para mantener la producción de grelina controlada – o incluso en niveles que nos ayude a perder peso- es no pasar periodos muy largos de tiempo sin comer. Lo mismo ocurría con la leptina.
De igual manera, descansar correctamente ayuda a reducir los niveles de grelina ya que dormir mal puede aumentar la producción de dicha hormonaen un 28%.

Cortisol
EL cortisol es conocido por ser la hormona del estrés ya que esta es liberada cuando sufrimos episodios de ansiedad o estrés. Unos picos más altos de cortisol también están relacionados con el peso.
Esta hormona controla el metabolismo lipídico, proteico y glucídico. El cortisol puede provocar acumulaciones de grasa en el abdomen, además de aumentar los niveles de insulina y los antojos de azúcar.
Una manera de intentar mantener esta hormona en niveles adecuados es evitar el estrés, cosa que no siempre es tan sencilla. Por eso, hay una serie de técnicas que nos ayudan a mantener el estrés bajo control, al mismo tiempo que los niveles de cortisol.
En momentos de alto estrés, o si queremos relajarnos más, lo ideal es que aprendamos técnicas de respiración y de relajación, practiquemos deporte y busquemos alguna actividad concreta como el Yoga que nos pueda ayudar.
Insulina
Además de controlar el nivel de azúcar en sangre, la insulina también influye en el metabolismo. Esto implica que también de ella depende en parte la pérdida o ganancia de peso. Además, esta hormona afecta a algunas enzimas relacionadas con el aprovechamiento de grasas, como la trigliceridolipasa.
Para mantener los niveles de insulina – a no ser que tengas un problema como la diabetes tipo 1 – lo ideal es mantener una dieta saludable, baja en azúcares y carbohidratos no saludables. Realizar ejercicio físico también puede ayudarnos a mantener los niveles de insulina correctos.
Colecistoquinina
Se trata de una hormona intestinal que controla el apetito. Esta hormona se activa como respuesta a la llegada de grasas y proteínas al intestino ya que es la responsable de estimular su digestión. Al ser liberada se disminuye la ingesta de alimentos y la duración de nuestras comidas.
Una manera de activar la secreción de colecistoquinina es comer frutos secos. Este alimento resulta saludable, no interfiere con nuestras dietas y nos ayudara a activar la creación de colecistoquinina promoviendo la saciedad.

Las macromoléculas orgánicas de Encélado
Daniel Marín28JUN18117 Comentarios
Los géiseres del polo sur de Encélado expulsan al exterior vapor de agua y partículas directamente procedentes del océano global que esta pequeña luna alberga en su interior… además de macromoléculas orgánicas. Esa es la conclusión a la que ha llegado un grupo de investigadores liderados por Frank Postberg y Nozair Khawaja, de la Universidad de Heidelberg, tras analizar nuevamente los datos de dos de los instrumentos de la difunta sonda Cassini de la NASA. La primera pregunta que nos podemos hacer es, ¿qué tipos de sustancias se han encontrado? La segunda, ¿qué implicaciones tiene este descubrimiento?
Los géiseres del hemisferio sur de Encélado (NASA/JPL-Caltech/Space Science Institute).
Antes de nada debemos saber que la sonda Cassini no iba equipada con instrumentos avanzados capaces de identificar la composición de los géiseres en detalle. Nadie esperaba encontrar alrededor de Saturno una pequeña luna que vierte al espacio partículas procedentes de un océano interior. Lo que sí podía hacer era estimar la masa molecular de moléculas complejas mediante espectrómetros de masas. Los dos instrumentos eran el detector CDA (Cosmic Dust Analyzer), centrado en iones, y el espectrómetro de masas INMS (Ion and Neutral Mass Spectrometer), especializado en el estudio de moléculas neutras. Análisis previos de los datos del instrumento CDA habían mostrado que los chorros de Encélado y el anillo E —formado por partículas provenientes de los géiseres— contienen un 25% de sustancias orgánicas simples, aunque esto en sí no significa nada. Recordemos que «sustancias orgánicas» es simplemente un sinónimo de compuestos del carbono, y los hidrocarburos simples y sus derivados (metano, etano, etc.) son muy comunes en el sistema solar.
Moléculas detectadas por el CDA de Cassini en función de su masa molecular (Postberg et al.).
El experimento CDA ha detectado moléculas con una masa de entre 80 y 200 unidades de masa atómica, es decir, moléculas relativamente complejas. Pero no se puede descartar la presencia de moléculas mucho más pesadas porque 200 u es el límite de detección del instrumento. De hecho hay indicios de moléculas orgánicas con masas de hasta 8.000 u. cuya fragmentación al chocar contra la Cassini a 30.000 km/h ha formado moléculas más pequeñas. Como la distribución de masas de las moléculas no es continua, sino que aparece agrupada alrededor de determinadas masas, se supone que estamos viendo compuestos orgánicos con entre 7 y 15 átomos de carbono. Entre las moléculas más sencillas tenemos metanol, etanol, metanamina y benceno, así como otros compuestos basados en esta última molécula (fenol, ácido benzoico, etc.).
Por su parte el INMS solo era capaz de detectar moléculas de hasta 99 u, pero se ha confirmado la presencia de muchas especies con una masa de 77 u y 78 u, un dato que concuerda con la detección de compuestos del benceno por el instrumento CDA. No se sabe cómo se han formado estas partículas ricas en sustancias orgánicas. Debido a sus características, este material no se pudo condensar a partir del vapor de agua del océano salado que sale por las «rayas del tigre» del hemisferio sur de Encélado, así que debía estar en estado sólido. Pero tampoco se cree que pudiera estar disuelto en el agua. Una hipótesis para explicar esta contradicción es que las moléculas orgánicas estén concentradas en una capa insoluble situada en la parte superior del océano. Las moléculas se habrían formado en el centro de Encélado, donde se cree que hay en juego procesos hidrotermales, y habrían llegado a la parte superior del océano ayudadas por burbujas de gas (dióxido de carbono, metano, hidrógeno, etc.). De ahí habrían salido al espacio exterior a través de las grietas en la corteza de hielo.
Proceso para explicar la presencia de materia orgánica en los géiseres de Encélado (ESA/F. Postberg et al.).
Huelga decir que la presencia de compuestos del carbono relativamente complejos en el océano de Encélado no significa que haya vida. Pero caeríamos en un error si infravaloramos este descubrimiento. No en vano, es la primera vez que detectamos moléculas orgánicas complejas en un mundo acuático del sistema solar exterior. Suponíamos que debía haber muchos compuestos del carbono en Encélado, pero una cosa es suponerlo y otra comprobarlo experimentalmente. La clave es que ahora sabemos que Encélado tiene todos los ingredientes para la vida: agua —sin un pH extremo—, distribuida en un océano global interno, calor —hay evidencia de la presencia de fuentes hidrotermales en el interior de esta pequeña luna— y, ahora, sustancias orgánicas complejas. ¿Podrían estas sustancias tener un origen abiótico ajeno a la vida? Sin duda, pero también podrían ser parte de los bloques de construcción necesarios para la aparición de microorganismos. Sea como sea lo maravilloso es que podemos salir de dudas fácilmente enviando una sonda que analice los géiseres con la instrumentación adecuada. ¿A qué estamos esperando?

RESPUESTAS CORTAS (I): ¿POR QUÉ LA LUZ NO TIENE MASA, SI TIENE ENERGÍA?
junio 28, 2018
Hace poco estuve hablando sobre el concepto de masa y, en resumidas cuentas, en la entrada llegaba a la conclusión de que la masa no es más que una manifestación de los diferentes tipos de energía que componen un objeto. Dicho de otra manera, en el nivel más fundamental, las cosas están compuestas por distintos tipos de energía y la masa es un concepto que simplemente cuantifica la resistencia al movimiento que ofrece un montón de energía concreto… O su inercia, vaya.
Pero, después de leer la entrada, a algunos lectores les surgió una duda: si, por un lado, la masa es un reflejo de la cantidad de energía que contiene un objeto y, por el otro, la luz tiene energía… Entonces, ¿por qué la luz no tiene masa?
Por tanto, quería aprovechar esta pregunta para inaugurar una nueva sección de artículos más cortos (con los que pretendo actualizar el blog más a menudo) y, de paso, aclarar la confusión.
En primer lugar, aunque es cierto que la luz tiene energía, las partículas que la componen, los fotones, no tienen masa en reposo.
Ya empezamos con los términos raros innecesarios…
Para nada, voz cursiva, la masa en reposo es precisamente la magnitud a la que nos referimos cuando hablamos de masa. Dicho de otra manera, la masa en reposo de un objeto es un reflejo de la energía que tiene asociada cuando está quieto, por el mero hecho de existir y de estar compuesto por una cantidad determinada de materia. Esta energía proviene tanto de la energía cinética de las partículas que contiene como de su interacción con el llamado campo de Higgs, y se manifiesta dándole inercia y, por tanto, masa, al objeto.
Pero, claro, los fotones no interaccionan con el campo de Higgs ni tampoco pueden estar en reposo, porque siempre se desplazan a la velocidad de la luz, así que la luz no tiene ningún tipo de masa en reposo… Y, como son dos conceptos equivalentes, por eso se dice que la luz no tiene masa.
Ahora bien, eso no significa que la luz no pueda tener energía. Para saber de dónde viene la energía de la luz, tendremos que fijarnos en la ecuación completa de Einstein que vimos en esta otra entrada:

Como podéis ver, la energía total de un objeto es la suma de otros dos tipos de energía distintos: su energía en reposo (que está asociada a su masa en reposo) y su energía cinética, derivada de su movimiento.
Hablemos ahora de este segundo tipo de energía.
Como ya vimos en esta otra entrada, la masa de un objeto aumenta con la velocidad, en el sentido de que, cuanto más deprisa se mueve, más aumenta su inercia y más cuesta acelerarlo hasta una velocidad aún mayor. Esto ocurre porque el momento del objeto crece a medida que acelera (el momento no es más que el producto de su masa en reposo multiplicado por la velocidad a la que se desplaza) y, a su vez, como se puede ver en el último término de la ecuación anterior, ese incremento del momento provoca un aumento de la energía cinética. Por tanto, a medida que un objeto gana velocidad, también aumenta su energía y, por tanto, su inercia (o su masa).

A esa inercia asociada al movimiento de un objeto se le suele llamar masa relativista. Pero, ojo, que este término puede dar lugar a confusiones: aunque contenga la palabra “masa”, no representa ningún tipo de masa “real”. En realidad, la masa relativista no es una propiedad intrínseca de un objeto, como la masa en reposo, sino que sólo refleja cuánto cambia su inercia en función de la velocidad a la que se desplaza.
Además, este aumento de masa debido a la velocidad no es perceptible en nuestra vida diaria porque sólo se manifiesta a velocidades cercanas a la de la luz (300.000 km/s). Por tanto, en nuestro día a día tan sólo experimentamos la masa en reposo de los objetos que nos rodean… Que es otro de los motivos por los que a la masa en reposo le llamamos simplemente masa.
Pero, ojo, porque, aunque la luz no tenga masa (en reposo), sí que tiene cierto momento que le otorga energía cinética. Por tanto, aunque la luz no reciba ninguna aportación de energía de su masa en reposo, sí que tiene una energía cinética asociada a su movimiento.

¡Pero si acabas de decir que la luz no tiene masa en reposo! ¿Entonces cómo va a tener momento, que precisamente es el producto de la masa en reposo por la velocidad?
Buen apunte, voz cursiva. A diferencia de otras partículas, el momento de la luz no depende de su masa y de su velocidad, sino de su frecuencia y de la llamada constante de Planck. Multiplicando estos dos parámetros por la velocidad de la luz, obtenemos la energía cinética de un rayo de luz… O, simplemente, su energía, porque es la única que tiene.

O sea, que, en resumidas cuentas, la energía de la luz proviene de su momento (y viceversa), no de su masa. Y, de hecho, esa energía derivada de su momento le da una ligera inercia a la luz (aunque no esté asociada a ninguna masa en reposo), lo que explica por qué es capaz de ejercer un empuje minúsculo sobre las cosas.
Espero que esta breve entrada haya resuelto la duda.
Si sois aficionados a la física y/o la astronomía y os gusta este blog, entonces es altamente probable que también os gusten los libros de Ciencia de Sofá, disponibles en librerías en España y a través de internet* por todo el mundo (o, al menos, hasta donde llega Amazon). Podéis hacer click en las siguientes imágenes para leer más información sobre los libros y opiniones de los lectores que ya los han devorado (metafóricamente).

Mezclar idiomas is the best for your cerebro: algunos hallazgos imprevistos de la educación bilingüe

21 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

La historia negra de Diogo Alves, el asesino en serie que acabó con su cabeza envasada en formol

El rescate de Eulalia a cargo de Desokupa, el reverso de la PAH que desahucia por encargo

Todo lo que necesitas saber sobre la avispa asiática para no morir este verano

CompartirMezclar idiomas is the best for your cerebro: algunos hallazgos imprevistos de la educación bilingüe

9044
TWITTER
EMAIL
30 Junio 2018 – Actualizado 4 Julio 2018, 23:33
THE CONVERSATION
Pocos consideran mala idea dominar más de un idioma. De hecho, las investigaciones apuntan a que el bilingüismo proporciona ventajas cognitivas, económicas y académicas.
Los padres que hablan varios idiomas entienden que el hogar es un entorno importante para aprenderlos, y buscan maneras de ayudar a que sus hijos sean bilingües. Uno de los enfoques más conocidos es la estrategia “one-parent-one-language” (OPOL, del inglés “un padre, una lengua”). Cada uno de los progenitores utiliza un idioma cuando se comunica con su hijo, por lo que los niños aprenden ambos simultáneamente.
OPOL hace hincapié en que la persistencia –que cada progenitor insista en hablar en un solo idioma– es clave para el éxito de su enfoque. Pero esto crea el falso mito de creer que debe evitarse mezclar idiomas. Mi reciente investigación, que es parte de una nueva remesa de estudios sobre multilingüismo, sugiere que esta percepción es solo eso, un mito.
En mi investigación analizo familias japo-británicas residentes en el Reino Unido con niños en edad escolar que seguían el sistema OPOL de enseñanza del lenguaje de un modo más o menos estricto. Estuve particularmente interesada en examinar el impacto de OPOL en el hogar familiar: ¿cómo afecta este particular entorno de lenguaje a la forma en que los niños usan los idiomas?
Con los niños bilingües, el progenitor que habla el idioma ‘minoritario’ suele tener más tiempo para enseñar y comunicarse con sus hijos.
La mayoría de las madres japonesas que participaron en mi investigación dominaban el japonés y el inglés, mientras que los padres solo tenían un nivel elemental de japonés. Esto hacía que el inglés fuera el principal idioma de comunicación entre los progenitores y también fuera del hogar. Por esta razón, las madres trataban de crear un espacio reservado para un aprendizaje más constante del japonés con sus hijos. En otras palabras, este espacio dedicado al japonés (el idioma minoritario) era el tiempo que los niños pasaban exclusivamente con su madre. Esto pareció crear en los niños una asociación entre “lenguaje japonés” y “maternidad”.
Esta asociación de conceptos se hizo evidente por el modo en que los niños usaban el japonés como vínculo emocional con su madre y adoptaban una serie de conductas mucho más amplia que la que normalmente se asocia al lenguaje. Por ejemplo, cambiar a japonés a veces les servía como método para animar a su madre cuando parecía entristecida. En otras ocasiones, negarse a hablar en japonés era un medio útil de desafío, incluso aunque la disputa no estuviera relacionada con el idioma.
El lenguaje nunca puede ser una herramienta de comunicación neutral. El modo en que se utiliza en el hogar y más allá –socialmente, en la escuela, en el lugar de trabajo– trae aparejado connotaciones y significados adicionales que se usan, consciente o inconscientemente, en la comunicación.
Lenguaje creativo

El enfoque OPOL pone énfasis en la necesidad de que los padres vigilen de cerca el lenguaje de los niños y les corrijan si mezclan los dos idiomas. En la práctica, muchos padres que hablan el idioma minoritario también son bilingües, por lo que entienden lo que sus hijos dicen incluso cuando los mezclan. Los padres suelen considerar difícil corregir a los niños cuando mezclan idiomas porque solo desean tener una conversación significativa, con independencia del idioma que utilice su hijo. Especialmente si los niños se molestan al ser corregidos.
Pero, ¿qué sucede si un niño usa un lenguaje que cuesta asociar al japonés o al inglés? El siguiente ejemplo conllevó el uso de palabras en inglés absorbidas en la pronunciación japonesa. Una de las muchas palabras prestadas que adornan el idioma japonés, “helado”, generalmente se pronuncia “aisukurimu”, enfatizando la característica general de los sonidos que terminan en vocales en japonés.
La distinción entre singular y plural no existe en los sustantivos japoneses en el mismo sentido que en los idiomas de origen indoeuropeo, así que, se use singular o plural, “aisukurimu” es la forma normalmente utilizada. Pero uno de los niños participantes en mi investigación mostró a su madre un dibujo de dos cucuruchos de helado y los describió como “aisukurimuzu”, con pronunciación japonesa pero pluralizado en inglés. El niño había creado una solución intermedia, tal vez para evitar ser corregido.
Otro ejemplo se refiere a la interacción entre hermanos bilingües japonés-inglés. Una niña de seis años intentaba convencer a su hermano de cuatro para que le dejara sus juguetes. Tras la tajante negativa de su hermano, la niña recurrió a su repertorio comunicativo para intentar convencerle.
Pasó de una petición imperativa a una solicitud más suave y humilde. Volvió a formular la pregunta usando varias formas educadas. A continuación, su voz ganó nasalidad, sugiriendo que estaba a punto de echarse a llorar. Pero lo más interesante fue que la negociación, que había comenzado en inglés, acabó siendo en japonés.
Este cambio podría interpretarse como una mera alternancia de idiomas. Pero no. Se estaba produciendo un proceso bastante más complejo. El cambio de idioma vino acompañado de la incorporación de elementos culturales japoneses, tales como fórmulas de tratamiento que enfatizan el apego emocional, la relación de dependencia entre hermana y hermano, y la obligación asumida del hermano de prestar atención. Al final, la hermana consiguió los juguetes.
Un enfoque global

Estos ejemplos muestran cuán creativa y estratégicamente los seres humanos usamos el lenguaje en nuestra comunicación diaria. Seamos bilingües o no, todos elegimos constantemente lo que mejor sirve a nuestro propósito dentro de nuestras posibilidades. Por ejemplo, imagine que quiere pedirle un favor a su vecino. Utilizaría un lenguaje educado con un tono de voz amistoso. Pero, ¿qué ocurriría con su expresión facial? ¿Y con su lenguaje corporal? Para los bilingües, cambiar de idioma es parte de su repertorio de variables comunicativas.
Las posibilidades expresivas de cada idioma están conformadas por el significado, basado en el conocimiento acumulado a lo largo de la vida. Y la forma en que usamos el lenguaje también conforma su significado. Por lo tanto, la forma de usar OPOL en la familia otorga significados específicos al lenguaje utilizado en el hogar, y los niños hacen pleno uso de esa capacidad de crear nuevos significados cuando interactúan entre sí.
La popularidad de OPOL se basa en el sentido común, sobre todo porque es coherente. Pero cuando vemos a un niño bilingüe usando, adaptando y negociando activamente con su abanico de posibilidades, ponemos en duda la creencia de que para los niños es perjudicial mezclar idiomas. Lo que realmente podría estar propiciando es alta flexibilidad y habilidades interpersonales.
Ser bilingüe no es simplemente poder hablar dos idiomas. El rigor de la fórmula “un progenitor y un idioma” podría estar restringiendo la habilidad lingüística y la creatividad de los niños bilingües. De la misma manera, también podría estar limitando las capacidades de sus padres a la hora de revelar sus propias habilidades bilingües.
Autor: Chisato Danjo, lecturer in Japanese and Linguistics, York St John University.

Los planes del nuevo jefe de Roscosmos: el futuro de la cosmonáutica en jaque
Daniel Marín3JUL18181 Comentarios
El pasado 28 de junio el nuevo director general de la Corporación Estatal Roscosmos, Dmitri Rogozin, dio una conferencia donde perfilaba los desafíos del programa espacial ruso para la próxima década. En principio no hay cambios significativos. Los planes de Roscosmos a largo plazo siguen pasando por la Luna y dependen del futuro cohete Soyuz 5 y la nueva nave tripulada Federatsia. Pero desde que Rogozin tomó el cargo ha hecho una serie de declaraciones aparentemente menores que, sin embargo, apuntan a un futuro nada prometedor para el programa espacial ruso.
La futura nave tripulada rusa Federatsia ya no aterrizará de esta forma (Roscosmos).
Empecemos por la empresa estatal GKNPTs Jrúnichev, fabricante de los cohetes Protón-M y Angará A5, los más potentes que Rusia tiene en servicio. Jrúnichev —una de las empresas espaciales más importantes del país y heredera de la mítica oficina de diseño de Cheloméi— lleva años sufriendo pérdidas económicas y humanas. De aquí a 2025 se espera que reduzca sus empleados unas dos veces y media hasta quedarse en 1.700 trabajadores. De paso, también venderá sus instalaciones en Moscú, situadas en un terreno muy jugoso desde el punto de vista urbanístico. Estos cambios no son malos de por sí, pero la incertidumbre de cara al futuro sí que lo es. Las instalaciones de Jrúnichev en Fili (Moscú) son precisamente las empleadas para construir el cohete Protón, de ahí que Rogozin haya anunciado la retirada de este venerable lanzador antes de lo previsto.
Dmitri Rogozin, el nuevo jefe de Roscosmos (RT).
La decisión de Rogozin —que todavía no ha sido formalizada— tiene como objetivo mitigar las cuantiosas pérdidas económicas de la empresa, que actualmente acumula unas deudas cercanas a los 1.600 millones de dólares, aunque conviene señalar que la retirada de este lanzador ya estaba prevista para 2025. Rogozin quiere que Jrúnichev se concentre en el Angará en vez de en el Protón, una decisión que a priori puede parecer lógica si tenemos en cuenta que son dos vectores de prestaciones parecidas y, además, el Angará es mucho más moderno. El Angará ha sufrido en los últimos tiempos una serie de ataques injustificados y, tras la cancelación del Angará A5P y el A5V, su futuro era muy poco prometedor. Sin duda, la decisión de Rogozin de potenciar este lanzador es acertada. Lo que es más discutible es la propuesta de resucitar la versión Angará A3, que entraría en competencia directa con el Soyuz 2 y el futuro Soyuz 5.
El problema es que, paradójicamente, el Protón es una de las principales fuentes de ingresos de Jrúnichev gracias a sus lanzamientos comerciales. La triste serie de fallos del Protón en los últimos años ha provocado que los clientes huyan de este cohete por culpa de los altos precios que reclaman las compañías aseguradoras. El Protón debe realizar al menos 15 misiones seguidas con éxito antes de que los precios de los seguros vuelvan a la normalidad, pero sin suficientes clientes es imposible alcanzar esta cifra en menos de una década, creando un círculo vicioso del que es difícil salir.
Cohete Protón-M (ILS).
Cohete Protón Medium, versión pequeña y barata del Protón-M (ILS).
Los bajos precios del Protón lo convierten en el único rival serio del Falcon 9 de SpaceX (65 millones de dólares por lanzamiento frente a los 62 millones del F9 en su versión desechable). Por contra, el Angará es un cohete tremendamente caro que todavía no se ha producido en serie —el hasta ahora único lanzamiento de la versión A5 en 2015 fue un ejemplar fabricado ad hoc—, pero se cree que el coste por lanzamiento rondaría los cien millones. El Protón-M es un cohete muy antiguo que además emplea combustibles hipergólicos altamente tóxicos, pero no parece muy buena idea retirarlo si lo que se busca es la competitividad de Jrúnichev en el mercado internacional. Por si fuera poco Jrúnichev sigue intentando sacar adelante la versión ligera del Protón-M, denominada Protón Medium, una variante de este lanzador con solo dos etapas —y una capacidad para situar entre 5 y 5,7 toneladas en una órbita de transferencia geoestacionaria— cuyo objetivo es ofrecer un precio más competitivo que el Falcon 9 (una misión del Protón Medium saldría por unos 55 millones, un precio que le permitiría hablar de tú a tú con el Falcon 9 en su versión recuperable).
Diseño actual del Protón Medium (ILS).
El pasado marzo la empresa ILS (International Launch Services), la rama de Jrúnichev encargada de ofertar el Protón en el mercado internacional, presentó la última versión del Protón Medium con una cofia más grande —de hasta 5,3 metros de diámetro— a petición de los clientes. Sin embargo, poco después los rumores que llegaban de Jrúnichev apuntaban a que el proyecto está congelado por falta de fondos. Hace pocas semanas ILS volvió a anunciar que sigue trabajando en el Protón Medium y, de forma ya bastante rocambolesca, al mismo tiempo múltiples fuentes no oficiales de Jrúnichev insistían en que el proyecto está muerto debido a que nadie quiere pagar el dinero necesario para llevar a cabo las pruebas de los nuevos elementos del Protón Medium. La empresa OneWeb ha declarado hace poco que tiene interés en reservar once lanzamientos del Protón Medium —o el Protón-M si hace falta—, lo que permitiría romper el ciclo enfermizo en el que se halla inmerso este lanzador.
El cohete Soyuz 5 con la nave Federatsia (RKK Energía).
Dejando el Protón a un lado, el futuro lanzador Soyuz 5 —también conocido como Sunkar (y antes como Féniks)— se enfrenta a varios problemas. Esta copia 100% rusa del cohete Zenit ha sido el elegido para lanzar la futura nave Federatsia desde Baikonur en detrimento del Angará A5P. Una de las razones para preferir el Soyuz 5 frente al Angará fue —además de las maniobras políticas de la empresa RKK Energía, fabricante de las naves Soyuz y contratista principal de este proyecto— mantener en activo la producción del motor RD-171, el más potente del mundo. Sin embargo, Rogozin ha declarado que el Soyuz 5 deberá tener motores de methalox (metano y oxígeno líquido) en vez de kerolox(paradójicamente el proyecto Soyuz 5 nació hace cinco años como un cohete de methaloxcon un diseño radicalmente distinto a cargo de RKTs Progress).
Este cambio de última hora implica rediseñar por completo un lanzador que ya estaba a punto de entrar en la fase final de construcción, por no hablar de las reformas necesarias que deberán acometerse en las instalaciones del Zenit en Baikonur, preparadas para un cohete de queroseno y oxígeno líquido. Un Soyuz 5 de methalox es ciertamente más avanzado que el Zenit tradicional y abre la puerta a una posible reutilización, pero a nadie se le escapa que esta decisión, de implementarse, significaría un retraso de muchos años en la introducción de este vector y, peor aún, de la futura nave Federatsia, que ya acumula un lustro de retrasos. Y, hablando de Federatsia, RKK Energía ha decidido renunciar al espectacular sistema de aterrizaje propulsivo mediante cohetes —parecido al de la Crew Dragon de SpaceX— por falta de dinero. La futura nave rusa empleará un sistema de cohetes de frenado mucho más simple derivado de los tradicionales DMP de la cápsula Soyuz junto con paracaídas tradicionales.
La nave Federatsia y su torre de escape (SAS) para el Soyuz 5 (Roscosmos).
El culebrón del Soyuz 5 tiene repercusiones en el futuro de la empresa Sea Launch, actualmente propiedad de la compañía rusa S7 Space Systems. S7 compró la participación de RKK Energía en Sea Launch con el objetivo de revitalizar los lanzamientos del Zenit desde el océano Pacífico, pero cada día que pasa queda más claro que no tienen ningún plan digno de tal nombre. El Kremlin ha prohibido a S7 el lanzamiento de cohetes Zenit a raíz del conflicto en Ucrania, a pesar de que en un principio les engañaron dijeron que no tendrían problema alguno para usar este lanzador. Y, en vista de que el Soyuz 5 no estará listo pronto, la empresa no deja de acumular pérdidas. Una reciente ocurrencia de los directivos de S7 ha sido la propuesta de sustituir el RD-171 de la primera etapa del Zenit por viejos motores soviéticos NK-33 con el fin de abaratar precios y competir con el Falcon 9. Un plan poco acertado si tenemos en cuenta que no tienen la financiación adecuada para acometer las pruebas de un cambio de motorización de este calado.
S7 está a cargo de Sea Launch (S7).
En el frente de la cosmonáutica tripulada la situación tampoco está mucho mejor. El módulo Nauka (MLM) continúa coleccionando retrasos. En principio su lanzamiento estaba previsto para este año, pero lo más probable es que no despegue antes de 2020. La culpa la tiene el complejo proceso de limpieza de los tanques de combustible de Nauka —se detectaron impurezas en su interior—, pero también el hecho de que se trata de un módulo de veinte años que, a pesar de no haber abandonado la Tierra, se encuentra cerca del fin de su vida útil. Para lanzarlo al espacio es necesario volver a certificar sus sistemas principales y ni Jrúnichev —que construyó el módulo— ni Energía —encargada de los sistemas principales y de su certificación para el vuelo— quieren aceptar esa responsabilidad (y tampoco tienen dinero para ello).
Módulo Nauka (MLM)(RKK Energía).
Módulo nodo Prichal (UM, Uzlovoi Modul) que se debe acoplar a Nauka (RKK Energía).
De hecho, Rogozin ya ha dejado caer que, como ya comentamos en este blog, es posible que Nauka jamás llegue a la órbita. Si este módulo se queda en tierra el pequeño módulo nodo Prichal (UM) correría la misma suerte. Y sin Nauka y Prichal el único módulo que puede enriquecer el segmento ruso en los próximos años es el NEM (Módulo Energético-Científico), a cargo de la empresa RKK Energía. El NEM parece que progresa a buen ritmo y el pasado junio pudimos ver las primeras pruebas del prototipo del segmento presurizado del mismo, indicando que al menos el proyecto ya ha pasado de la fase powerpoint. Pero sin Nauka y Prichal los planes de Roscosmos para crear una estación espacial totalmente rusa a partir de 2024 usando los módulos del segmento ruso de la ISS se desvanecen. Al mismo tiempo Rusia sigue interesada en colaborar en la futura estación espacial lunar Gateway, un proyecto liderado por EEUU. El control de Estados Unidos en el proyecto Gateway es tal que Roscosmos ni siquiera tendrá la opción de diseñar su esclusa usando los estándares rusos y deberá plegarse a las normas impuestas por la NASA.
Módulo NEM (RKK Energía).
La estación independiente rusa con los módulos Nauka, Prichal y NEM (RKK Energía).
Prototipo de la sección presurizada del NEM (Roscosmos).
El programa de sondas espaciales sigue acumulando retraso tras retraso. La sonda lunar Luna 25, prevista para 2019, se retrasa una vez más, ahora a 2021. El resto de sondas, Luna 26 y Luna 27, también se retrasan a 2022 y 2023, respectivamente. La culpa de estos retrasos la tiene, cómo no, la falta de fondos, pero también las sanciones de Estados Unidos y la Unión Europea contra Rusia, que han dificultado la importación de elementos de alta tecnología. Es posible que varios instrumentos europeos, algunos con componentes estadounidenses, no puedan ser enviados a Rusia para la misión Luna 27. Las buenas noticias son que la sonda marciana ExoMars 2020, un programa conjunto entre la ESA y Roscosmos, sigue adelante. Otro rayo de esperanza son misiones científicas conjuntas como el observatorio Spektr-RG de altas energías, construido en colaboración con Alemania.
Modelo de la sonda Luna 25 (NPO Lávochkin).
Teniendo en cuenta la situación de la economía rusa y los desafíos a los que se enfrenta su sector espacial, Roscosmos debe centrarse y buscar una serie de objetivos claros, pero, ante todo, debe evitar cambiar de opinión cada seis meses. El propio Rogozin ha declarado que la industria espacial rusa tiene que dejar de competir contra sí misma. Esperemos que haga honor a sus palabras

CCOO no puede seguir representando a la clase trabajadora

Durante los últimos años hemos asistido a una progresiva degeneración de las organizaciones sindicales del sistema, CCOO y UGT, que mediante millonarias subvenciones públicas han sido compradas para pasar a defender los intereses de las empresas en lugar de los de los trabajadores. No es compatible luchar contra medidas y leyes impuestas por los gobiernos que son lesivas para los trabajadores, mientras cobras millones de euros de esos mismos gobiernos.
Pero si esta situación no fuera suficiente, el trato que estas organizaciones han dado en los últimos tiempos a sus propios trabajadores alcanza grados de indignidad nunca antes vistos en el movimiento obrero. El último caso que ha salido a la luz es el dos trabajadoras de CCOO que fueron despedidas tras un coma y un cáncer respectivamente. Rosa, trabajadora de la Federación de Construcción y Servicios de CCOO, fue despedida un mes después de comunicar que tenía un cáncer de pecho. A Palmira, también trabajadora de esta federación, le dijeron que querían sustituirla estando postrada en el hospital tras salir de un coma. Es realmente vergonzosa la actitud de una organización que dice defender los derechos de los trabajadores, pero que trata de manera inhumana a los suyos propios, actuando de forma más rastrera que muchas empresas. Solo estos hechos son motivo más que suficiente para que los delegados y afiliados de esta organización que aún tengan algo de dignidad, abandonen las siglas de este sindicato.
Sin embargo, no es esta la primera vez que CCOO da muestras de su vileza y trata a sus trabajadores como despojos.
El 21 de octubre de 2017 los trabajadores de Forem Navarra, Fundación de CCOO, denunciaban en rueda de prensa la situación de indefensión laboral en la que se encontraban tras aplicarles este sindicato despidos en condiciones inferiores a las de la reforma laboral que de cara a la galería criticaron, enviando directamente a estos trabajadores a Fogasa (Fondo de Garantía Salarial) sin negociar.
El 13 de junio de 2017, el Tribunal Superior de Justicia de Catalunya, obligaba a CCOO a readmitir a cuatro trabajadores despedidos mediante la reforma laboral del PP.
En enero de 2017, CCOO-A era condenada por el TSJA (Tribunal Superior de Justicia de Andalucía) por el despido irregular de una empleada, que había sido despedida a las cuatro horas de ser readmitida, en cumplimiento de unasentencia previa por un despido anterior.
En septiembre de 2016, CCOO era condenada por despedir a una mujer que pidió reducción de jornada por maternidad, considerando el juez que se vulneraron derechos fundamentales y obligando a la readmisión de la trabajadora así como al pago de una indemnización de 60.000 euros.
En agosto de 2016 la plantilla de CCOO en Murcia convocaba huelga indefinida por los despidos realizados en su asesoría jurídica, usando la reforma laboral, y despidiendo al máximo número de trabajadores para que no fuera considerado un ERE y no tener así que negociar.
En abril de 2016 la unión provincial de CCOO de Cádiz, despedía a una trabajadora que se encontraba de baja por enfermedad, y que se enteró de su despido al ingresarle el sindicato la indemnización en su cuenta bancaria, antes de recibir la comunicación.
Y así podríamos seguir recorriendo el camino de la infamia y la desvergüenzaa lo largo de los años de una organización cada vez más prescindible y más dañina para los trabajadores. Una organización que por el bien de la clase trabajadora, debería desaparecer y pasar a los anales de la historia.
Seguir apoyando a esta organización, bien siendo afiliado, bien siendo delegado, sólo contribuye a generar más miseria y precariedad. La única opción digna para un trabajador honesto es abandonar este sindicato.
¡FORTALECE LA ORGANIZACIÓN DE LOS TRABAJADORES, AFÍLIATE A CSC!
http://www.cscsevilla.org/2018/07/ccoo-no-puede-seguir-representando-la.html
1074meneos
menéalo
11542 clics
PCOE_ES
PUBLICADO
03/07 23:30
61 COMENTARIOS

COMENTARIOS DESTACADOS
#7: «Es que ningún sindicato que esté financiado por el estado, en lugar de por las cuotas de sus afiliados (exclusivamente), puede representar a los trabajadores. Es algo bastante lógico.»
drumkola
2018-07-03 20:14:51
#19: «El artículo iba bien, porque a un sindicato hay que exigirle un comportamiento empresarial intachable, hasta que me encuentro al final con que era un publireportaje de CSC »
Puski
2018-07-03 21:41:47
#20: «Estoy hasta los cojones de las falacias y los insultos gratuitos a los sindicatos… Hace 4 años, cuando me despidieron de mi trabajo y perdí mi casa por no poder pagarla, estaba paseando por el centro de mi ciudad camino a una entrevista de trabajo en una empresa demasiado explotadora y con fama de no tratar bien a sus empleados, no sabia muy bien la ubicación de la empresa ni el nombre, así que entré en la sede de CCOO que tenia a unos metros a comentarles el panorama, y me ayudaron sin pedir nada, de manera desinteresada me dijeron donde era la entrevista y me desearon suerte.»

El café probablemente es bueno para ti, según otro gigantesco estudio

2 COMENTARIOS
SUSCRÍBETE A XATAKA CIENCIA
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
RSS
Flipboard

TE RECOMENDAMOS

Estas bombillas destruirían el virus de la gripe en el aire sin dañar a humanos

¿Qué alimento reduce el estrés y mejora la memoria, la inmunidad y el estado de ánimo?

Estas son las hormonas que te ayudan a perder peso (y así puedes hacerlas colaborar)

Compartir
243
TWITTER
EMAIL
4 Julio 2018 – Actualizado 5 Julio 2018, 21:02
SERGIO PARRA@SergioParra_
La mayoría de la evidencia científica sugiere que el café es parte de una dieta saludable. Con todo, el debate sobre los efectos positivos y nocivos del café no se ha terminado.
Para inclinar la balanza hacia uno de los lados, se ha publicado un nuevo estudio de grandes proporciones con habitantes del Reino Unido en la revista JAMA Internal Medicine.
Bondades del café
En el estudio se agruparon a las personas por la cantidad de tazas de café que bebían al día. A continuación, se comprobó si los grupos que consumieron más tazas murieron más durante el estudio.
Si la cohorte que bebía ocho tazas por día tuviera menos muertes que el grupo que bebió solo dos, eso implicaría que de alguna manera los bebedores de café estaban más sanos. Y eso es exactamente lo que encontraron.
El estudio es gigantesco, porque implica a 502.641 participantes que tenían entre 38 y 73 años, tanto hombres como mujeres. Y la conclusión era clara: mientras más café bebía una persona, menos probable era que muriera. Las diferencias no fueron enormes, pero fueron estadísticamente significativas.

Con todo, cabe advertir que lo estudios como éste son meramente observacionales: nadie está asignando grupos de participantes para beber X tazas por día y luego asegurarse de que sus vidas sean idénticas, por lo que no pueden proporcionar ninguna causalidad real. Pero como nunca vamos a realizar un ensayo clínico en el que se prescriba el café, los estudios observacionales son lo más cercano que tenemos. Es por eso que es importante reunir a mucha gente, cientos de miles o incluso millones, para que podamos estar seguros de que el hallazgo no es solo una casualidad estadística.
También es cierto que beber café puede estar asociado con muchos otros hábitos que influyen en la salud, o quizás no beber café está asociado con algo que ignoramos. Por ejemplo, las personas que tienen enfermedades graves como el cáncer no pueden tomar café, pero estas personas también tienen mayor probabilidad de morir, lo que aumentaría artificialmente la mortalidad del grupo que no bebía café. Para evitar estos sesgos, los investigadores trataron de aislarlos (fumar, peso corporal, nivel socioeconómico, etc.).
Hasta aquí, tal y como se ha hecho con otros estudios sobre las bondades del café. En éste, sin embargo, se controló otro factor extra: las variaciones genéticas en el metabolismo de la cafeína, es decir, cómo las personas responden a la cafeína de distinta manera. Los investigadores creen que esto puede explicar en parte por qué algunas personas pueden tomar un café después de la cena y dormir bien, mientras que a otras personas les resulta imposible.
Pero incluso examinando una gran base de datos que contenía información genética disposible sobre los participantes (unos 400.000 de los que participaron), los investigadores no encontraron diferencias en los resultados entre aquellos cuyos genes los predisponían a la sensibilidad a la cafeína y aquellos que no lo hicieron.
Los investigadores no están seguros de qué hay en el café que parece mejorar nuestra salud (podrían ser compuestos que reducen la inflamación y la resistencia a la insulina), pero no parece que sea la cafeína (el efecto también se observa con el café descafeínado, aunque sea en menor medida). Así que vayamos a tomar una taza de café (entre 200 y 400 miligramos de cafeína al día) para celebrarlo.

El edificio que lanzaba a la gente por los aires
Colaborador Invitado5JUL18
Cuando comenzaron los trabajos de remodelación de la Torre Fenchurch 20, en Londres, probablemente nadie imaginaba de lo que sería capaz este edificio. Es decir, sí, las expectativas de una obra de arte arquitectónica moderna eran grandes. ¿Pero, que lanzara a la gente por los aires? Seguramente solo algunos avispados ingenieros previeron el problema.

El bonito ‘Walkie Talkie’ de Londres
Un par de años después de que su bonita y cóncava figura decorase el skyline londinense, a alguien se le ocurrió notar que desde que el edificio había sido remodelado, había mucho más viento por en la calle. El sonido ululante en los días ventosos parecía una premonición y, al final, ocurrió: el edificio comenzó a tirar a transeúntes y trabajadorespor los suelos.
Según la prensa, los fuertes vientos han conseguido tumbar señales de tráfico, tirar carritos y montacargas y, como decíamos, a varias personas alrededor del edificio y no algo más lejos. La furia de Eolos parece emanar de este rascacielos y, aunque nadie ha medido todavía la velocidad de los vientos que genera (o al menos no han trascendido), parece que su fuerza se ha hecho eco por todo Reino Unido.

No es para menos, la Torre Fenchurch 20 siempre ha sido un edificio emblemático de la “vieja Londres”, y más aún desde que su forma comenzó a ser ligeramente curvada y especial, ganándole el título de Walkie Talkie. Por cierto, si alguna vez visitáis Londres, un consejo: reserva sitio y visita el Sky Garden, un punto desde el que se puede tomar un refrigerio con la ciudad a nuestros pies. Una maravilla.
Pero volviendo al tema, desde su arreglo, el Walkie Talkie ha sido acusado de silbar con un molesto ruido o, incluso, de derretir partes de las motos y coches aparcados bajo el edificio. Por suerte, todavía no se ha cobrado ninguna víctima, como otros menos famosos pero más peligrosos.
Cuando los edificios soplan.
Mucha más siniestra es la historia del Bridgewater Place, en Leeds. Al menos una víctima mortal y varios heridos se cuentan entre las consecuencias del viento generado por la presencia de este enorme edificio, el más alto de toda la zona, con diferencia. Hasta veinticinco incidentes, contaba la BBC en 2013, se han asociado sin lugar a dudas al viento provocado por este.

En Toronto, atentos a la posibilidad de que alguien resulte herido, las autoridades cortan el paso alrededor del edificio de la Global News, en cuyas calles se han llegado a medirvientos de hasta cuarenta y cinco kilómetros por hora. China, Nueva York, India, Chicago… ninguna gran ciudad se escapa del fuerte soplido de los edificios. Y aunque la cuestión parece anecdótica en un principio, puede convertirse en algo muy serio, como muestra el ejemplo de Leeds.
El efecto downdraught
¿Y cómo puede hacer un edificio para tirar las cosas a su alrededor? La respuesta se titula “efecto downdraught” o efecto túnel de viento. Este ocurre cuando el viento se topa con la superficie de un edificio y es redirigido hacia arriba, hacia sus costados y, también, hacia abajo. Este, además, aumenta la velocidad del viento a nivel de la calle debido al efecto Venturi, que provoca un aumento de velocidad en un fluido en movimiento dentro de un conducto cerrado con una “sección menor” (grosso modo).

Por otro lado, con las condiciones climáticas esto se puede agravar enormemente. Como el aire en altitudes más altas es más frío, al chocar con el edificio desciende rápidamente, abajo se calienta, volviendo a elevarse, lo que puede generar una corriente circular muy potente alrededor del edificio. Pero es que, además, si el edificio tiene esquinas rectas, el viento aumenta aún más su velocidad en torno a estas por culpa de un vórtice local generado por el flujo del viento.
Por si todo esto fuera poco, el Walkie Talkie londinense parece estar especialmente diseñado con una superficie ligeramente curva e inclinada hacia adentro, de manera que el viento proveniente del sur es redirigido hacia la calle. Por suerte, el resto de edificios hace de pantalla, también, reduciendo el efecto del viento, aunque aumentan la velocidad por otra manifestación más compleja llamada “cañón urbano”.
El cañón urbano se da en todas las ciudades con grandes edificios y puede provocar desde una mayor intensidad de los vientos hasta diversos efectos de calentamiento o disipación de lluvias. Pero bueno, este tema es digno de contar otro día, en el que podríamos hablar de cómo las ciudades se convierten en ecosistemas artificiales sublimemente complejos.
Fuente: Sakr Fadl y John Karadelis
Para terminar, este tema de los edificios sopladores no es nuevo y, desde luego, no ha pasado desapercibido a los investigadores que ven en la modificación del viento un peligro potencial. Una interesante conclusión con la que cerramos el tema se resume en la tabla de arriba, elaborada por Mohamed Sakr Fadl y John Karadelis, del Departamento de Ingeniería Civil, Arquitectura y Construcción de la Universidad de Coventry. En ella se describe la velocidad a la que una persona, caminando por la calle, comenzará a sentirse incómoda o en peligro por culpa del viento. Así que ya lo saben, si van a pasear por el centro de “La City” de Londres, lo mejor será que se agarren el sombrero y a alguna farola, por lo menos.

La razón científica por la que no nos creemos (ni de coña) que el mundo va a mejor

3 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Francine, el retrato digital que cambia radicalmente en función del navegador que utilices

Por primera vez en 75 años, el Premio Nobel de Literatura se quedará sin entregar

Más allá de la locura: así configuraron las fiebres del oro nuestro mundo moderno

CompartirLa razón científica por la que no nos creemos (ni de coña) que el mundo va a mejor

26
TWITTER
EMAIL
5 Julio 2018 – Actualizado 7 Julio 2018, 06:41
JAVIER JIMÉNEZ@dronte
Cada vez que escucho eso de que “el mundo va a mejor”, siendo un ‘algo’ en el estómago. No sé muy bien cómo explicarlo: una especie de rechazo instintivo, una mezcla entre un “no puede ser” y un “eso no se lo cree nadie”. Y, sin embargo, luego miro los datos y parece que no queda más remedio que aceptarlo.
Y, ojo, sé que el pasado no es color de rosa. Es más, soy plenamente consciente de que nuestros sesgos “conspiran en secreto” para hacernos esclavos de la nostalgia. He escrito (y mucho) sobre ello. Pero al final del día, sigo resistiéndome a creer que vamos a mejor. Y, curiosamente, tiene su explicación científica.
Cuando teníamos todas las respuestas… Nos cambiaron todas las preguntas. Daniel Gilbert y su equipo de la Universidad de Harvard han estudiado por qué ocurre esto. Y la clave, lejos de estar en una ensoñación con el pasado, se encuentra en el presente. Según los autores, a medida que un problema se vuelve más raro, los seres humanos tendemos a redefinir el problema para ampliar su definición. De esa forma, el progreso “se enmascara”, explica Gilbert.
AzulOscuroCasiVioleta Gilbert y su equipo se dieron cuenta de la forma más extraña: jugando con los colores. En sus investigaciones, se dieron cuenta de que si pedían a un grupo de sujetos que organizaran un grupo de puntos de colores en solo dos categorías, la definición de esas categorías cambiaba según la cantidad de puntos que hubiera de uno y otro color.
En un primer momento, les dieron un conjunto formado por un 50% de puntos azules y un 50% de puntos violetas. En sucesivos ensayos, los investigadores fueron aumentando la cantidad de tonalidades violetas hasta que los sujetos llegaban a incluir como ‘azules’ tonalidades que al principio identificaban claramente con el violeta. Su idea de azul había cambiado. Allí. En vivo y en directo.
Más allá de los colores. Lo más interesante, sin duda, es que esa reconceptualización no se da solo con los colores. Los investigadores hicieron la prueba con la sensación de peligro o la evaluación ética de las situaciones. El resultado es siempre similar: al final del proceso, con solo cambiar las proporciones, el concepto cambiaba. Da igual que se evalúe la peligrosidad de una cara o el estándar ético de estudio científico.
Un problema de precisión En realidad, se trata de un problema que ha estado intrigando a los filósofos durante miles de años (y no exagero): la ‘paradoja del montón’ (“sorites”). Es decir, la inconsistencia (y vaguedad) de los conceptos que usamos normalmente. ¿Es que acaso existe una definición precisa para la palabra ‘azul’? ¿Para ‘ético’? ¿Para ‘progreso’?
Entre la ignorancia y la pereza. Tradicionalmente había dos grandes explicaciones: algunos filósofos pensaban que los conceptos vagos son una forma de ignorancia: hay un número exacto a partir del cual un montón deja de ser un montón, pero no sabemos cuál es. Otros pensaban que era una indecisión: cuando decimos ‘montón’ podríamos definir el número exacto, pero preferimos no hacerlo.
La filósofa de la vaguedad. Ninguna de esas soluciones satisfizo a Delia Graff Fara, la gran pensadora de la vaguedad. En el año 2000, Fara presentó una idea muy interesante: la vaguedad se debe a que los conceptos cambian (se articulan) alrededor de nuestros objetivos. Es decir, la definición no depende del dato objetivo, sino del fin que busca ese concepto.
Donde el sentido común no sirve de nada. Fara aplicó esta idea a cosas como los borrosos límites de la raza y la identidad, pero un cáncer cerebral se cruzó en su camino y dejó parte de su trabajo sin terminar. Ahora tenemos una comprobación experimental de la idea de Fara. Es más, tenemos motivos claros para señalar que nuestra historia personal tiene un papel clave en definir esos objetivos. Gilbert y su equipo han dado buenas razones para creer que el contexto (y la evolución histórica) juegan con nuestros sesgos para reconceptualizar los problemas.
No hay marcos neutrales. No obstante, esto tiene muchas lecturas. Lo que el trabajo de Gilbert y su equipo nos señala no es solo que nuestra percepción actual de los problemas es relativa, sino que la anterior también lo era. Es decir, va a ser muy difícil fijar un marco de referencia neutral (y preciso) para hablar de las conceptos que más usamos. Y ese quizás sea el gran problema que tiene el debate actual sobre el progreso.

RESPUESTAS CORTAS (II): ¿POR QUÉ EL MERCURIO ES LÍQUIDO (A TEMPERATURA AMBIENTE)?
julio 5, 2018
De entre todos los metales, el mercurio es uno de los más llamativos porque es capaz de permanecer en estado líquido a temperatura ambiente. Una muestra de la fascinación que ha despertado este metal líquido a lo largo de la historia es el caso del emperador chino Qin Shi Huang, que consumía con frecuencia brebajes que contenían mercurio porque creía que este elemento guardaba la clave de la inmortalidad. Pero, en un giro inesperado del destino, al final lo único que descubrió fue la clave para morir intoxicado por mercurio a los 49 años.
Pero, aunque está claro que este elemento no nos hará vivir para siempre, el mercurio sigue siendo un elemento muy interesante porque, mientras la mayor parte de los metales necesitan temperaturas de cientos o miles de grados para convertirse en líquidos, el mercurio se funde a -39ºC. Como resultado, el mercurio es uno de los pocos metales que podemos encontrar en estado líquido en nuestro día a día.
Bueno, habla por ti, porque no sabes si alguien está leyendo esto en invierno desde algún sitio como Oymyakon, Rusia. Creo que ahí el mercurio pasa más tiempo en estado sólido que en estado líquido.
Correcto, voz cursiva, gracias por el dato. En cualquier caso, la entrada de hoy va a ser bastante completa porque, para entender por qué el mercurio se funde a temperaturas tan bajas, tendremos que hablar del concepto de temperatura, de los enlaces químicos y de la teoría de la relatividad especial.
Así que pongámonos manos a la obra.
En primer lugar, como ya comenté en esta otra entrada en la que hablaba sobre la temperatura más alta posible, la temperatura de un objeto no es más que un reflejo de lo rápido que se mueven los átomos o las moléculas que lo componen. Dicho de otra manera, cuando un objeto está muy caliente, significa que sus átomos están vibrando muy deprisa. Si el objeto está frío, sus átomos se estarán moviendo más despacio.
Por otro lado, cuando los electrones de dos átomos interaccionan, pueden unirse formando enlaces químicos. Cuando esos enlaces son muy fuertes, los átomos quedan unidos formando una estructura rígida o, lo que es lo mismo, lo que en el mundo macroscópico llamamos un sólido. En cambio, si las fuerzas que mantienen los átomos unidos son muy débiles, no serán capaces de formar ninguna estructura y simplemente quedarán desperdigados unos junto a otros de cualquier manera, moviéndose de un lado a otro cuando algo los perturbe… Y eso es precisamente un líquido(hablaba con más detalle de todo esto en esta otra entrada o en este vídeo).

De hecho, si unimos estos dos conceptos, podremos entender por qué unas sustancias se funden a una temperatura distinta que otras.
A medida que la temperatura de un material sólido aumenta, la vibración de sus moléculas se vuelve cada vez más rápida hasta que llega un momento en el que se vuelve tan violenta que los enlaces químicos no pueden soportarlo más y la estructura rígida se desmorona. Cuando esto ocurre, los átomos terminan desperdigados sin ningún orden y la sustancia habrá pasado de encontrarse en estado sólido a ser un líquido.

La temperatura a la que se funde una sustancia o, lo que es lo mismo, la velocidad a la que tienen que vibrar sus átomos para que su estructura se desmorone, depende de lo fuertes que sean sus enlaces químicos. Por ejemplo, el tungsteno se funde a 3.422ºC porque sus átomos están unidos por enlaces muy fuertes que pueden soportar una vibración muy intensa. En cambio, los enlaces que unen los átomos de otros metales son más débiles, como es el caso del plomo, que se funde a sólo 327ºC.
Pero, de entre todos los metales, los átomos de mercurio son los que se enlazan entre ellos con menos fuerza, y ese es precisamente el motivo por el que el mercurio se funde a -39ºC: sus enlaces son tan flojos que una vibración muy leve (una temperatura muy baja) basta para que su estructura se desmorone. De ahí que, a temperatura ambiente, los átomos de mercurio no puedan formar una estructura rígida y permanezcan en estado líquido.
Vale, te compro el concepto, los enlaces entre los átomos de mercurio son muy débiles. Pero eso aún no responde del todo a la pregunta de hoy: ¿qué es lo que hace que los enlaces del mercurio sean tan débiles?
Tienes razón, voz cursiva. Para entender por qué los enlaces del mercurio son tan débiles y, por tanto, por qué se funde a una temperatura tan baja, habrá que hablar un poco de la teoría de la relatividad.
En las últimas entradas (aquí, aquí y aquí) he estado dando bastante la turra con el concepto de masa y, en concreto, en este artículo vimos que, debido a los efectos de la teoría de la relatividad, la masa de los objetos aumenta con la velocidad. El concepto es algo más complejo de lo que esta frase sugiere, pero, en resumidas cuentas, cuando algo se mueve a un fracción considerable de la velocidad de la luz, su energía cinética aumenta y ese aumento de energía se ve reflejado en la masa (o inercia) del objeto.
Y, curiosamente, eso es justo lo que hace que el mercurio sea líquido.
Ya hemos visto otras veces que los átomos poseen un núcleo que contiene protones (con carga positiva) y que está rodeado de electrones (con carga negativa). Por otro lado, cada elemento de la tabla periódica contiene un número distinto de protones en su núcleo: el hidrógeno tiene 1, el helio 2… Y así hasta el oganesón, el último elemento que se ha descubierto, que tendría 118 (aunque este elemento no existe en la naturaleza y sólo se han producido unos pocos átomos de manera artificial).
A medida que avanzamos por la tabla periódica, la cantidad de protones que hay en el núcleo de los átomos va en aumento y, por tanto, la fuerza con la que atraen a los electrones que los rodean se vuelve cada vez mayor. Como resultado, llega un momento en el que los electrones que rodean los núcleos de los elementos más pesados tienen que moverse muy deprisa para mantenerse en órbita a su alrededor.
De hecho, en el caso del mercurio, los electrones que orbitan más cerca del núcleo se tienen que mover al 58% de la velocidad de la luz para no precipitarse contra él. A esta velocidad tremenda, los efectos relativistas se manifiestan y la masa de los electrones aumenta un 23% respecto a su masa en reposo. Estos electrones ligeramente más masivos se ven atraídos con más fuerza por el núcleo del átomo y se ven obligados a orbitar más cerca de él de lo normal, una contracción que se extiende por el resto de las órbitas, haciendo que todas se encojan.

Y, ahora sí, esa es la causa fundamental de que el mercurio sea líquido a temperatura ambiente: como las órbitas de los electrones están contraídas, éstos se ven atraídos con más fuerza hacia el núcleo de su propio átomo que hacia los electrones de sus átomos de mercurio vecinos, así que no pueden formar enlaces con ellos.
Por tanto, la única que fuerza que atrae los átomos de mercurio entre ellos su atracción electrostática, un efecto muy débil que sólo es capaz de agruparlos en estructura sólida cuando están muy quietos o, lo que es lo mismo, cuando se encuentran a una temperatura muy baja. A temperatura ambiente, esta fuerza sólo los atrae con la intensidad suficiente como para mantenerlos cerca unos de otros, formando una masa desordenada de átomos… O un líquido, vaya.
Qué curioso, ¿y qué pasaría si estos efectos relativistas no existieran?
Pues, según las simulaciones, que el mercurio se fundiría a unos 66ºC, en lugar de a -39ºC.
ACTUALIZACIÓN (ya que ha surgido una duda recurrente): Aún me queda una duda. Si todo esto es cierto: ¿entonces por qué no todos los elementos pesados son líquidos a temperatura ambiente? Por ejemplo, los átomos de oro contienen más protones en su núcleo que los de mercurio, así que deberían estar aún más contraídos y el oro se debería fundir a una temperatura aún más baja. Pero, en cambio, su temperatura de fusión ronda los 1.000ºC. ¿Cómo se explica eso?
Muy buena observación, voz cursiva.
Una cosa que no he mencionado en la entrada (aunque debería haberlo visto venir) es que, además de la contracción relativista, hay otros factores que determinan tanto la fuerza con la que se enlazan los átomos como su punto de fusión.
Por ejemplo, el factor que más afecta al comportamiento químico de un elemento es el número de electrones que tienen sus átomos en su órbita más externa, que, al fin y al cabo, son los que están disponibles para interaccionar y enlazarse con otros átomos. Como los átomos siempre tienden a tener el mismo número de electrones que de protones y, además, cada elemento contiene una cantidad de protones distinta, eso significa que cada metal pesado poseerá un número de electrones diferente en su órbita más externa y, por tanto, que el comportamiento químico exacto de cada uno será un poco distinto, independientemente de si sus átomos están más o menos contraídos.
En el caso de la comparación entre el mercurio y el oro, los átomos de mercurio tienen más dificultad para unirse entre ellos porque sus subcapas más externas están llenas de electrones, así que no pueden compartirlos y enlazarse. En cambio, los átomos de oro no tienen este problema y pueden compartir sus electrones sueltos con facilidad, formando enlaces más fuertes.
De nuevo, el tema es mucho más complejo y cada elemento tiene sus particularidades. En este post de Stack Exchange tenéis una lista de varios factores más que influyen en este fenómeno .

Si sois aficionados a la física y/o la astronomía y os gusta este blog, entonces es altamente probable que también os gusten los libros de Ciencia de Sofá, disponibles en librerías en España y a través de internet* por todo el mundo (o, al menos, hasta donde llega Amazon). Podéis hacer click en las siguientes imágenes para leer más información sobre los libros y opiniones de los lectores que ya los han devorado (metafóricamente).

Periodismo científico incipiente
Alfonso Araujo6JUL18
Aquí va una extrema simplificación:
La llamada “Revolución Científica” fue, a grandes rasgos, el periodo desde Copérnico hasta Newton: esto es, de mediados del siglo XVI hasta finales del XVII. A este acelerado periodo siguió después la Ilustración ó “Siglo de las Luces” en el XVIII, formando un par de siglos de intenso optimismo acerca del potencial del racionalismo. Después, sus tendencias mecanicistas más extremas fueron atemperadas en el mismo siglo XVIII por el Romanticismo: una respuesta por humanizar de nuevo el conocimiento.
Pero durante todo este tiempo, los debates eran en extremo elitistas. Una persona común y corriente (y aún una persona muy ilustrada) no podía albergar esperanzas de ver el Principia Mathematica de Newton y pasar de la página 3: no existía lo que llamamos “popularización de la ciencia”. La ciencia llegó a su periodo de popularización hasta la Revolución Industrial: finales del XVIII y principios del XIX, cuando sus frutos prácticos cambiaron radicalmente las formas de producción.
Durante la segunda mitad del siglo XIX la prensa europea empezó a tocar temas científicos y se instituyeron una gran cantidad de revistas (journals) especializados, pero el primer gran popularizador de la ciencia fue el inmortal Michael Faraday: el experimentalista más grande de su tiempo y primer “Carl Sagan” moderno. En 1825 comenzó sus legendarios “Seminarios de Navidad” en The Royal Institution: una serie de pláticas para explicar conceptos de física y química a nivel popular. Tuvieron tal éxito que la gente literalmente abarrotaba las presentaciones y que se convirtieron en una tradición que continúa hasta el día de hoy. Mucho del material didáctico de aquellos seminarios fue usado para publicar el fantástico libro Historia Química de una Vela (1861), en el que, con ese solo y humilde ejemplo, Faraday da un recorrido fantástico por los temas de combustión, electrólisis, propiedades del agua y del vapor, y presión atmosférica.
Con la aplicación explosiva y universal de la ciencia al desarrollo de la tecnología, finalmente el periodismo científico nació poco después, aprovechando el interés que despertaban por todos lados gente como Faraday y otros con sus pláticas acerca de electricidad, magnetismo y la naciente termodinámica. Así se crearon por primera vez revistas especialmente dedicadas al tema: la venerable Scientific American (traducida hoy al español como Ciencia y Tecnología) vio la luz en 1845, y otra clásica, Popular Science, nació en 1872. El olvidado Knowledge: an illustrated magazine of science (1881-1918) fue uno de tantos que si bien no duró como los otros pero que durante esa época contribuyó a promover los temas científicos en una forma más sofisticada que sus pares.
Para los 1870s, en Inglaterra, EEUU y Canadá había más de una docena de periódicos que incluían por lo menos alguna pequeña sección hablando de las “nuevas maravillas tecnológicas” y por supuesto, los autores de la primera ciencia ficción como Jules Verne (1828–1905) fueron fundamentales en hacer que este fervor científico no se quedara en publicaciones abstractas y especializadas, sino que capturara la imaginación de la gente.
A principios del siglo XX fueron creados los últimos dos “clásicos”: Popular Mechanics en 1902, y Science Service (hoy llamada Society for Science & the Public) en 1921.
Es entendible que habiendo sido cuna de la Revolución Industrial, las principales publicaciones de periodismo científico y tecnológico hayan sido creadas en Inglaterra y luego en EEUU y Canadá. Por lo mismo ha sido el inglés el idioma que ha dominado el ámbito de la ciencia hasta nuestros días, aunque en otros países este periodismo también sea vibrante e imprescindible: por ejemplo, en 1928 se fundó la Asociación Alemana de Escritores de Ciencia, que es la más antigua del mundo. En 1955 se creó la Asociación Francesa de Periodismo Científico, e incluso en China y Japón sus gobiernos tradicionalistas se dieron a la tarea de promover el estudio de la ciencia, dadas las traumáticas experiencias bélicas contra Occidente que les habían mostrado su atraso tecnológico.
En España las revistas especializadas también explotaron en el XIX, muy especialmente en la ciencia médica, pero revistas de popularización de gran calado, como las mencionadas, no fueron comunes. En el mundo hispano, incluso por detrás de Lejano Oriente, nos limitamos más bien a traducir las revistas establecidas en inglés.
Le década de los 80, que vio la popularización de las computadoras personales y la popularización masiva de la astronomía y ciencias de la vida con cosas como Cosmos, de Carl Sagan (1980), trajo una nueva oleada de revistas nuevas con presentaciones de temas más y más sofisticados: Discover (1980), Physics World (1988) y más tarde, Wired(1993).
Fue en esa década en la que apareció, finalmente, el Muy Interesante (1981), que se expandió a todo el mundo hispanohablante.
Lamentablemente, en México seguimos siendo nada más que copistas y distribuidores de otras fuentes. Los pocos intentos de periodismo científico de gran calado no fructificaron, limitándose más bien a la producción de caricaturas infantiles y algunos suplementos en periódicos. Una de las revistas más populares de los 70s y 80s en México se llamaba Duda(1971), pero sus portadas no eran más que pseudo-científicas y amarillistas: ¿Destruirá al mundo el manuscrito Voynich?, ¿OVNIs nazis emergen del centro de la Tierra?
Esta es una de las portadas más decentitas que pude hallar
Sin embargo, por décadas han sido populares el mencionado Muy Interesante, así como la Mecánica Popular y, en ocasiones, ediciones especiales como la magnífica Enciclopedia Salvat del Estudiante de los años 80.
Si alguien tuvo éstas de pequeño, estará teniendo un ataque agudo de nostalgia.
Al día de hoy, México no tiene ni siquiera websites equivalentes a Naukas, Cuentos Cuánticos ó Catástrofe Ultravioleta, ya no digamos publicaciones científicas en forma. Los principales diarios del país, que son Reforma, El Universal y Excélsior, hacen el esfuerzo con secciones limitadas dedicadas a la ciencia, muy frecuentemente como “Ciencia y Salud”, donde ya sabemos que caben noticias recientes acerca del genoma humano, con notas de cómo aliviar calambres. Pero en general no tienen columnistas científicos.
La excepción es el Diario Milenio, que tiene al escritor Martín Bonfil Olivera de la UNAM, con su columna semanal “La ciencia por gusto” y que hasta hace poco también contaba con Luis González de Alba (qepd), que escribía de temas sociales pero que una vez a la semana se desataba hablando de temas de física moderna, que era una de sus pasiones. Milenio, de hecho, tiene una sección llamada Orgullo Mexicano, en la que destaca hasta tres veces a la semana a científicos mexicanos que hayan logrado algún reconocimiento o estén desarrollando tecnologías de punta.
Ante este triste espectáculo, es de celebrar el reciente anuncio de que justo se acaba de graduar la primera generación de maestría en periodismo científico en México: un esfuerzo impulsado por la UNAM, el Conacyt (Consejo Nacional de Ciencia y Tecnología) y el mencionado diario El Universal. Para ser justos, este diario tiene la más extensa sección de Ciencia y Salud: en la más reciente de las cuales habla de robots para tratar autismo, dunas azules en Marte, una misión para eliminar basura en el espacio… y bueno, remedios caseros para aclarar el cuello. Vale.
Esperemos que los esfuerzos no cejen, en nuestro mundo hispanohablante, por seguir llevando el periodismo científico a todos lados.

Dios los cría y ellos se juntan. ¿Se parecen nuestros perros a nosotros?
Colaborador Invitado9JUL18
Es un hecho bien establecido por numerosos estudios que al buscar pareja o una relación de amistad solemos hallarla en individuos que comparten numerosas similitudes con nosotros: similar procedencia étnica, geográfica, clase social, nivel formativo, ideología, edad. Y es que encontrar una pareja con esas características aumenta las probabilidades de que la relación perdure en el tiempo debido a la menor frecuencia de conflictos y desacuerdos, además de reforzar nuestras convicciones y visión del mundo. El nivel de similitud puede ser real o percibido, pero en cualquier caso es una de las variables interpersonales más importantes en psicología social.
Si bien la ciencia al respecto es clara, hablamos de tendencias, evidentemente hay excepciones, pero en los EE.UU. el número de matrimonios entre personas de distinta raza no supera el 10% (y en esta estadística se considera a los hispanos como raza diferenciada, aunque étnicamente no sea siempre el caso).
Por otra parte, también en los EE.UU. el número de divorcios es mucho más alto en las parejas en las que cada uno profesa una fe diferente.
Y es que parecerse al ser amado no es baladí. Permítanme ilustrarlo con una historia de ficción:
Cuando Fiona conoce a Shrek, ésta está bajo el influjo de un encantamiento que le permite ser princesa de día, pero la convierte en ogresa de noche. Tras muchos avatares, Fiona, enamorada del ogro Shrek, renuncia a la posibilidad de ser princesa y prefiere pasar a ser una ogresa las 24 horas del día porque así podrá hallar la felicidad al lado del ser que ama. Y todos entendemos a Fiona, y nos alegramos que tome esa decisión pues asumimos que las opciones de tener una relación duradera y feliz es mayor entre dos ogros que entre un ogro y una hermosa princesa.
Shrek y Fiona: una pareja similar y feliz
Ahora bien, si lo anterior se da cuando elegimos pareja o un amigo, ¿utilizamos los mismos mecanismos psicológicos cuando seleccionamos un perro como mascota? Al fin y al cabo, pasaremos muchas horas con nuestro perro, máxime teniendo en cuenta que la mayoría consideramos al perro un miembro más de la familia, un amigo. No podemos por tanto descartar que, al decantarnos por un can, lo hagamos por individuos o razas que muestren un determinado comportamiento en particular que juzguemos parecido al nuestro.
¿Nos parecemos físicamente a nuestros perros?
Pues bien, veamos qué dicen los estudios al respecto. Los resultados son bastante concluyentes e indican que sí, que, efectivamente, hay similitudes entre el carácter que manifiesta un perro y la conducta de su dueño.
Así, por ejemplo, un estudio llevado a cabo por etólogos de la universidad de Budapest concluye que hay similitudes muy claras entre dueños y perros en aspectos tan relevantes como nerviosismo o extroversión. Un punto muy interesante de este trabajo es que la evaluación de estas similitudes fue hecha no sólo por los dueños sino también por terceras personas por lo que se obviaba la potencial parcialidad de respuestas de los propios dueños de las mascotas.
Las conclusiones apuntan que, cuando elegimos un perro, preferimos aquél que muestra rasgos en su carácter que se asemejan a los nuestros. Otra hipótesis apuntaría en la dirección de que el perro, al convivir con su dueño adopta el carácter de éste. Sin embargo; el propio estudio elimina esta posibilidad puesto que el nivel de similitud de caracteres no aumenta con la edad del perro.
Otros investigadores llegaron antes a conclusiones similares, así un estudio llevado a cabo en el Reino Unido en 1997, en el que dueños de canes de raza cocker spaniel se evaluaban a ellos mismos y a sus perros mediante cuestionarios, arrojó como resultado que, tal y como anticipaba su hipótesis de trabajo, los perros más agresivos, menos sociales, posesivos y dominantes correlacionaban con dueños que mostraban rasgos en su carácter similar al de sus mascotas. Las causas pueden tener distintos orígenes: bien los dueños transmiten a los canes sus propia ansiedad y neurosis o bien los dueños que presentan estos rasgos son más protectores y los socializan de un modo no adecuado.
Otra investigación, en este caso llevada a cabo en los EE.UU. apunta que hay una correlación directa entre la tenencia de perros que se consideran peligrosos –este estudio considera perros peligrosos a los de las siguientes razas: Akita, Chow-Chow, Rottweiler, Doberman, Pit Bull así como cruces de lobo- con comportamientos anti-sociales de sus dueños. Y es que el estudio demuestra que los dueño de animales de estas razas tuvieron un número diez veces mayor de comisión de delitos y arrestos que los propietarios de animales de otras razas. El trabajo concluye que personas con tendencia a delinquir pueden sentirse más atraídos por estos perros en concreto. Lo que no significa que todo el mundo que prefiera estas razas tenga necesariamente que ser un delincuente.
Un último refuerzo de esta teoría –nos parecemos a nuestros perros- nos llega desde Japón.
Allí, el profesor Sadahiko Nakajima llevó a cabo un experimento aún más llamativo: reunió a 500 voluntarios que debían emparejar fotos de perros con las de sus dueños basándose en las similitudes físicas que hallasen. Estos voluntarios no tenían ninguna relación con los dueños de las mascotas. Los resultados fueron contundentes: el 80% emparejaron correctamente las fotos.
Más tarde, el mismo investigador llevó a cabo otro estudio similar en el que cubría parte del rostro del humano y del can. Los emparejamientos eran menos acertados, pero los más altos se daban entre las fotos que mostraban los ojos (73%).
Emparejamientos de foto de dueño y perro. Cuando se presentó a los voluntarios las fotos sin cubrir ningún rasgo (a) el grado de acierto fue del 80%. Cuando se presentó la foto (b) y (d) fue de un 52 y 47% respectivamente. En el caso (c) subió a un 73% y finalmente en el (e) el nivel de acierto llegó al 74%
Todo indica, pues, que existe un parecido entre dueños y canes y que ese parecido es percibido como tal por los propios dueños y por personas ajenas. ¿A qué se debe esto? el propio Nakajima expresa su sorpresa y la falta de una casuística convincente. Los perros que tenemos en casa tienen una vida similar a la nuestra: comparten horarios, comida, estados de ánimo. ¿Pueden estos factores determinar la apariencia física?, posiblemente, pero hoy por hoy, las causas concretas siguen siendo un misterio.
Este artículo nos lo envía Juan Pascual (podéis seguirlo en twitter @JuanPascual4 o linkedn). Me licencié en veterinaria hace unos cuantos años en Zaragoza y he desarrollado mi vida profesional en el mundo de la sanidad animal, de ahí mi interés en divulgar lo que los animales aportan a nuestro mundo actual. Soy un apasionado de la ciencia. Creo que es fundamental transmitir el conocimiento científico de una manera sencilla para que los jóvenes se enganchen pronto y para que la sociedad conozca más y mejor lo mucho que la ciencia aporta a nuestro bienestar. Viajar es otra de mis pasiones junto con la literatura, que no deja de ser otro modo de viajar.

Misión Dawn: volando a ras de la superficie de Ceres
Daniel Marín9JUL1844 Comentarios
En casi todas las películas de acción hay una escena en la que el héroe, vencido y contra las cuerdas, parece cerca del final. Pero en el último momento reúne fuerzas y se sobrepone a la adversidad para llevar a cabo una hazaña sobrehumana. Algo parecido es lo que ha hecho la sonda Dawn, que una vez cumplida con creces su misión primaria y su primera misión extendida, nos sorprende una vez más con unas vistas de la superficie de Ceres tomadas desde una altura increíblemente baja. El pasado marzo Dawn cumplió tres años alrededor de Ceres y en este tiempo la sonda ha completado más de 1.600 órbitas alrededor del planeta enano. En un principio estaba previsto que la distancia más pequeña de Dawn a Ceres fuese de 385 kilómetros, un récord conseguido en 2015 y 2016 cuando la sonda alcanzó la órbita LAMO (Low Altitude Mapping Orbit), posteriormente rebautizada como XMO1 (eXtended Mission Orbit 1).
Uno de los principales depósitos de carbonato de sodio de las manchas blancas Vinalia Faculae, en el cráter Occator de Ceres (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA/http://www.unmannedspaceflight.com//Wildespace).
En octubre de 2016 Dawn elevó su órbita para alcanzar alturas mayores donde los encargados de la misión esperaban que finalizase sus días. De esta forma la sonda, una vez fuera de servicio, no tendría posibilidad de chocar contra Ceres y contaminarlo con microorganismos terrestres (Dawn no fue esterilizada antes del lanzamiento). Sin embargo, el comportamiento de la pequeña nave espacial ha sido mejor del esperado y, en vista de que se negaba a morir, el equipo de la misión consideró que podían arriesgarse y visitar órbitas más bajas sin problemas. Así que, ¿por qué no sobrevolar Ceres a casi la misma altura que un avión comercial sobre la superficie de la Tierra? Dicho y hecho. Desde junio de 2017 la sonda había permanecido en una órbita elíptica muy estable a bastante distancia conocida como XMO5 (las órbitas que van de XMO1 a XMO5 formaron parte de la primera extensión de la misión).
En verde, la órbita XMO5 (exterior) y la XMO6. En azul la trayectoria que siguió Dawn con sus motores iónicos (NASA/JPL).
Transición de XMO6 a XMO7, la órbita final de Dawn(NASA/JPL).
En abril de 2018 Dawn encendió su motor iónico número 2 para situarse en la órbita elíptica intermedia XMO6, de 450 x 4.700 kilómetros, con el objetivo de observar el hemisferio sur de Ceres en infrarrojo (hasta ese momento solo el hemisferio norte había sido observado en detalle en estas longitudes de onda). Dawn llegó a XMO6 el 14 de mayo y, una vez completadas diez revoluciones, encendió sus motores iónicos una vez más para viajar hasta su destino final: XMO7, una órbita elíptica estable que se aleja de Ceres unos 4.000 kilómetros, pero que le permite rozar la superficie a tan solo 35 kilómetros de altitud (la altura precisa dependerá de las características del terreno, lógicamente).
XMO6 y XMO7 comparada con la órbita circular LAMO, hasta ahora la más baja efectuada por Dawn (NASA/JPL).
Precesión de la órbita XMO7 alrededor de Ceres (NASA/JPL).
Dawn alcanzó XMO7, su órbita final, en junio. El 21 de ese mes el motor iónico de Dawn se apagó, probablemente por última vez, después de realizar los últimos ajustes en XMO7. Los motores iónicos de Dawn han funcionado durante un total de 5,87 años desde que se activaron por primera vez el 6 de octubre de 2007. En este tiempo han proporcionado una Delta-V total de 11,5 km/s, lo que ha permitido que Dawn pudiese entrar en órbita de Vesta y Ceres. Ahora, desde una órbita tan cercana, las imágenes que puede tomar la sonda tienen una resolución alucinante (de hecho, con una resolución siete veces superior a las mejores obtenidas cuando estuvo en la órbita LAMO). Y, cómo era de esperar, son espectaculares.
Las paredes del extremo norte del cráter Occator vistas el 16 de junio (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Grietas en el cráter Dantu vistas el 23 de mayo (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
El borde de Ceres visto el 16 de mayo (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Durante su paso por el periastro en su nueva órbita Dawn se mueve a 1.700 km/h con respecto al suelo, una velocidad para la que no fue diseñada. Eso ha provocado que algunas de las imágenes en alta resolución aparezcan ligeramente movidas. Pero el precio que pagará Dawn por estas imágenes tan exquisitas es muy alto. En esta órbita tan baja la sonda consumirá sus reservas de hidrazina mucho más rápidamente que en órbitas más elevadas. El combustible es necesario para mover la nave y que esta apunte en la dirección adecuada, que puede ser el suelo de Ceres —para recabar datos con los instrumentos— o la Tierra —para enviar los datos a sus creadores—. En teoría, Dawn debería usar los volantes de inercia para orientarse, reduciendo así significativamente el consumo de hidrazina, pero tres de los cuatro volantes que lleva fallaron en 2010, 2012 y 2017, respectivamente. Desde que falló el segundo volante en 2012 los encargados de la misión crearon un plan para sustituirlos por los propulsores de hidrazina y los motores iónicos, un plan que ha funcionado a la perfección. Lamentablemente, en XMO7 la sonda gastará más hidrazina de la prevista, no solo para evitar que las imágenes salgan borrosas, sino también para contrarrestar las fuerzas de marea que provocan que la sonda se oriente con los paneles solares en dirección perpendicular a la superficie de Ceres. Se estima que deben quedar cerca de 7 litros de hidrazina en los depósitos de un total de 45 litros, pero la cantidad exacta es casi imposible de calcular. ¿Y para cuánto tiempo servirá esa cantidad? Pues se cree que Dawn seguirá enviando imágenes hasta al menos final de año.
Fracturas en el suelo del cráter Occator vistas el 17 de junio (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Avalanchas en la pared del cráter Occator (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Dawn nos ha descubierto la verdadera naturaleza del planeta enano Ceres, el mayor objeto del cinturón de asteroides. Sabíamos que Ceres estaba formado por una mezcla de hielo y roca, pero la corteza, de unos 40 kilómetros de espesor, ha resultado ser más rígida y «rocosa» de lo esperado, aunque la superficie está repleta de pruebas de la acción del hielo, como es el caso del criovolcán Ahuna Mons de cinco kilómetros de altura o la escasez de cráteres de gran tamaño. Curiosamente, en pocas zonas de la superficie se ha detectado hielo puro, dejando a un lado el cráter Oxo o los fondos de los cráteres polares situados en sombra perpetua. Los datos del espectrómetro GRaND son consistentes con una corteza cuya parte superior es muy pobre en hielo y, a partir de unos pocos kilómetros de profundidad, ve aumentar la proporción de hielo por encima del 10%. Por otro lado, también se han descubierto sustancias orgánicas en la zona del cráter Ernutet. Pero la joya de Ceres son sin duda las manchas blancas o faculae, de las cuales se han descubierto cerca de trescientas. Estas manchas están compuestas por depósitos de sales, principalmente una mezcla de carbonatos de calcio y magnesio mezclados con filosilicatos de magnesio, además de carbonato de sodio en las manchas más brillantes. Hay que recordar que las manchas son brillantes solo en comparación con el resto de la oscura superficie de Ceres —las faculae tienen un albedo de cerca del 30% frente al 4% del resto de Ceres—.
La parte central de Vinalia Faculae en Occator (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Otra vista de los depósitos de carbonato de sodio de Vinalia Faculae (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
De todas las manchas, las más grandes y llamativas son las del cráter Occator, denominadas Vinalia y Cerealia Faculae. Las nuevas imágenes de Dawn desde la órbita XMO7 nos muestran estos depósitos de carbonato de sodio con una resolución apabullante. En las imágenes se puede ver cómo parte de las sales se han acumulado sobre un saliente y han fluido por los barrancos circundantes. Sinceramente siempre pensé que deberíamos esperar a una misión posterior para ver detalles tan exquisitos. Estos depósitos de sales han alcanzado la superficie procedentes del interior de Ceres por acción de sistemas hidrotermales en tiempos geológicamente recientes (se calcula que las manchas de Cerealia Faculae podrían tener solo 18 millones de años). Una vez que la mezcla de sales y hielo se desparramó por el suelo de Ceres a través de las grietas, el hielo se sublimó y dejó atrás las sales siguiendo un proceso que podría ser recurrente. Puede que la mayoría de manchas blancas de Ceres fuese en algún momento como las de Cerealia y Vinalia Faculae, pero actualmente solo destacan estas por ser las más jóvenes.
Otra zona de Vinalia Faculae vista el 14 de junio (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Rocas en el fondo del cráter Occator (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).
Desde la órbita XMO7 Dawn también podrá analizar la composición de la superficie en detalle usando su espectrómetro de rayos gamma y neutrones (GRaND). Gracias a estos datos y a las nuevas imágenes, la última parte de la misión de Dawn promete ser tan revolucionaria como la primera. Una vez agotada la hidrazina, Dawn morirá en esta órbita, que es lo suficientemente estable como para garantizar que la nave no choque con el planeta enano hasta dentro de, como mínimo, varias décadas. Pero antes, quizá podremos saber dónde se formó Ceres. ¿Es el planeta enano en realidad un refugiado del cinturón de Kuiper, como muchos otros asteroides?
Vista simulada del cráter Occator, de 92 km de diámetro y 4 km de profundidad con Cerealia Faculae (en el centro) y Vinalia Faculae (NASA/JPL-Caltech/UCLA/MPS/DLR/IDA).

¿En qué se parecen un gato siamés a freír huevos?
Colaborador Invitado10JUL18
Como todos hemos podido comprobar alguna vez, la clara de huevo cambia de color cuando se calienta. Cuando echamos el huevo en la sartén, la clara es transparente, pero cuando el aceite la calienta se vuelve blanca y opaca y el proceso es más o menos agudo según la temperatura que alcance. Esta propiedad nos permite cocinar distintos platos modificando la cantidad de calor aplicada. Tenemos así huevos cocidos, fritos, a la plancha, poché o escalfados, revueltos, en tortilla francesa …
También los gatos siameses cambian de color dependiendo de la temperatura a la que están expuestos. Cualquiera que haya visto un gato siamés sabe que estos animales tienen un patrón de color variable ya que son más oscuros en las extremidades y cabeza que en el resto del cuerpo. Esto se debe a la diferencia en temperatura que registran las distintas partes del cuerpo: más calor en el tronco que en las extremidades. Este proceso es, químicamente hablando, sorprendentemente similar al de freír un huevo.
La razón es la siguiente: los huevos, y especialmente la clara, son muy ricos en proteínas. Cuando la temperatura aumenta, estos compuestos orgánicos empiezan a perder su estructura y comienzan a desenredarse, proceso conocido como desnaturalización. Cuando las proteínas se desnaturalizan, cambian sus propiedades, así, la clara, sometida a una alta temperatura se empieza a hacer más dura y a cambiar de color hasta que todas sus proteínas han modificado su estructura. Y pasa de ser transparente a blanca en tan solo unos segundos. Hay otros modos de desnaturalizar una proteína, si ponemos una clara en ácido –con vinagre por ejemplo- también se tornará blanca y opaca. Bien con calor, bien con ácido, el cambio de textura y color que experimenta la clara es irreversible.
Aunque parezca difícil de creer, el mismo proceso ocurre en los gatos siameses. Estos animales tienen una enzima, esto es, una proteína que acelera reacciones químicas, que se desnaturaliza (y por lo tanto no funciona) a la temperatura corporal del gato. Cuando está activa (por debajo de los 34 ºC), esta enzima, llamada tirosinasa, ayuda a oxidar -añadir un átomo de oxígeno- a uno de los amino ácidos que forman esta proteína. Más específicamente, oxida el amino ácido tirosina convirtiéndolo en un compuesto llamado dopa. Posteriormente, tras otras reacciones químicas, la tirosina oxidada se acaba convirtiendo en melanina, el pigmento que le da su color oscuro al pelo bien humano bien de gato, como es el caso que nos ocupa. Sin embargo, si la temperatura es superior a los 34ºC, la proteína se desnaturaliza, pierde su función y deja de producir el pigmento que da color negro, dejándolo blanco. Por ello cuando hace calor el gato siamés presenta menor superficie oscura y cuando hace más frío presenta menor zona de color blanco.
La vía metabólica que transforma la tirosina en melanina, incluyendo la función de la tirosinasa
Sin embargo, ¿por qué sólo los gatos siameses tienen esta pérdida de color y no otras razas? La respuesta está en la desnaturalización. Esta raza de gato contiene una mutación, un cambio en el ADN. El material genético de los gatos, así como el de los humanos, dirige la síntesis de los amino ácidos que forman proteínas a través de un proceso llamado translación. En esta mutación, el amino ácido arginina se une a la proteína en lugar del amino ácido glicina (Gly302Arg). De la misma forma, la mutación altera la sensibilidad que la enzima tiene a la temperatura. Este mutante es estable a los 34⁰C, pero inestable a la temperatura corporal del gato que suele rondar los 37⁰C. Esta inestabilidad desnaturaliza la enzima haciendo que deje de funcionar.
Gráfica que muestra la diferencia de actividad enzimática entre una tirosinasa normal y una tirosinasa mutante
Cuando la enzima deja de funcionar, no se produce melanina lo que resulta ser la causa del fenotipo blanco de estos gatos. Las extremidades (las patas, las orejas, la nariz…) son más oscuras porque tienen una mayor área superficial y, por tanto, pierden calor más rápidamente que las zonas más interiores del cuerpo (el torso, la espalda…). Las áreas del cuerpo más frescas sufren menos desnaturalización y por tanto contienen una mayor cantidad de enzimas activas. La misma idea se puede observar cuando un gato sale a pasear al aire libre en un día de temperaturas bajas. El color oscuro se expande de manera que se puede observar en las zonas superiores de las patas y por el cuello ya que una mayor parte del cuerpo ha estado a menor temperatura y por tanto la enzima está más activa produciendo melanina y dando color oscuro a esas regiones corporales. A diferencia de lo que ocurre con los huevos, esta desnaturalización es reversible, de modo que si la temperatura baja de los 34⁰C la enzima se activa, se produce melanina y el pelaje se torna negro.
El mismo mecanismo se da en aquellas personas diagnosticadas con albinismo sensible a la temperatura. En este caso la mutación de la tirosinasa también está presente, concretamente en el cromosoma número 11. El ADN humano está dividido en lo que se conocen como cromosomas. Nuestra especie contiene 23 parejas y cada pareja comprende los mismos tipos de genes, pero cada gen puede expresar unas características diferentes.
Por ejemplo, una persona puede tener los ojos azules y otra los puede tener marrones, el gen es el mismo (color de ojos) pero variando el color. En el caso del albinismo, este tan solo se expresa si ambos padres pasan una copia del cromosoma 11 conteniendo la mutación. Es por ello que los padres no tienen por qué ser albinos ellos mismos ya que puede ser que solo tengan una copia con la mutación y que la otra sea normal. Al igual que ocurre con el gato siamés o la acción de freír un huevo, el albinismo sensible a la temperatura, también conocido como albinismo oculocutáneo 1B o albinismo amish, es debido a la desnaturalización de la enzima tiros inasa. Ésta pierde función a los 37ºC, que es aproximadamente la temperatura corporal de un humano y por tanto la producción de melanina disminuye drásticamente. Como consecuencia, en la mayor parte del cuerpo el pelo es blanco o incoloro debido a la temperatura corporal, pero en zonas más expuestas como son los brazos y las piernas el vello es generalmente oscuro.
Este artículo nos lo envía Ana Pascual. “Completé la educación secundaria en Madrid, el bachillerato en los Estados Unidos y actualmente estoy estudiando bioquímica en la universidad de Purdue. Desde pequeña la ciencia ha sido uno de mis mayores intereses. Me apasiona todo lo que tiene que ver con los mecanismos que actúan en el funcionamiento del cuerpo tanto humano como animal. En el futuro espero tener la oportunidad de trabajar en medicina o en investigación científica. Otras de mis pasiones son la oratoria, la pintura y la música”.
Bibliografía

La gente cada vez se concentra menos en las oficinas: más motivos para abrazar el teletrabajo

15 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Un vínculo muy especial: por qué perder a un perro es tan duro como perder a un familiar

Por primera vez en 75 años, el Premio Nobel de Literatura se quedará sin entregar

Tras matar a 17 personas, el asesino de Parkland está recibiendo cartas de amor y fotos eróticas

Compartir
107
TWITTER
EMAIL
10 Julio 2018 – Actualizado 11 Julio 2018, 18:41
ESTHER MIGUEL TRULA@flamencastone
Imagina que eres el director de una empresa TIC, de un empleo de gestión administrativa o el dueño de un grupo de comunicación. Tal vez tengas miedo de permitir que tus empleados trabajen en casa, sin vigilancia, pero según recientes estudios ya no es una elección si lo que buscas es la eficiencia laboral: desde 2008 la pérdida de concentración en las oficinas ha aumentado un 16%, y hasta un 13% de los trabajadores dicen que no cuentan con espacios de trabajo que les permita concentrarse en las instalaciones de su empresa. Al parecer, muchos millennials ponen ahora como primera necesidad de su oficina que haya silencio.
La eterna batalla del presencialismo vs teletrabajo: cada vez más claramente gana la segunda en detrimento de la primera, aunque por supuesto, para esos trabajos que obliguen a un esfuerzo intelectual autónomo por parte del trabajador. ¿Cuánto más trabaja un oficinista en su casa que en el curro? Es una respuesta difícil, ya que depende desde el sector laboral hasta los roles asignados al empleado, pero según el INE los teletrabajadores aumentan su productividad entre un 5% y un 25% respecto a los presenciales. No calientan la silla, sino que buscan completar el volumen de trabajo. El 91% de los trabajadores siente que estaría más productivo en su casa que en la oficina.
Las oficinas divertidas no funcionan: pese a lo mucho que se prodigan los diseños de los espacios de trabajo al estilo de Google o Facebook, no valen para todo el mundo. Oficinas abiertas, con mesas de ping pong y neveritas con cerveza, pueden funcionar para empleos que requieran de un desarrollo creativo en equipo, pero para todos los que no se pasen tres cuartas partes de la jornada trabajando con sus compañeros estos escenarios suponen una trampa mortal para la concentración.
Las diáfanas, tampoco: aunque no haya toboganes, las oficinas abiertas y sin cubículos (que suponen en Estados Unidos más del 70% del modelo arquitectónico laboral y aquí también están por todas partes) tampoco son mucho mejores: los que trabajan en “grandes praderas“ se distraen cada tres minutos por las personas que los rodean y pierden hasta 86 minutos de trabajo al día.
Más eficientes, más estresados: como empleador, y como hemos visto, puede que el teletrabajo sea la mejor opción para muchos modelos de negocio. Sin embargo, el trabajo por objetivos en lugar de por horas regladas tiene importantes contras para los trabajadores: según la última Encuesta Nacional de Condiciones de Trabajo, un 33% de los empleados que trabajan a distancia superan las 40 horas a la semana mientras que los que lo hacen en oficinas son un 19%. Reportan más estrés y trastornos del sueño. Sufren por sentir que están siempre conectados y es más habitual que trabajen estando enfermos que sus compañeros de oficina presencial. Nada de lo que un empresario ambicioso vaya a quejarse.

¿Cómo se escucharía nuestra voz en Marte?
Colaborador Invitado11JUL18
Imagínate que pudieras ir a pasar la tarde a Marte, que pudieras respirar su atmósfera sin peligro y después de un picnic decidieras descansar un poco, poner algo de música o charlar con tus amigos, y… espera un momento, ¿cómo sonaría tu voz? ¿Se escucharían los sonidos en Marte igual que en la Tierra? Y si no, ¿cómo sería la diferencia?

Antes de abordar temas un tanto más complicados empecemos por lo más básico:
¿Qué es el sonido?
Empecemos por aclarar cómo funciona esto del sonido. El sonido, como bien sabrás, es una onda, y dentro de esta clasificación se cataloga como una onda mecánica. Esto quiere decir que se propaga a través de un medio como podría ser el aire o el agua (aunque no exclusivamente).
¿Y cómo se lleva a cabo esa propagación? Pues la onda, que podríamos definir como “perturbación”, altera el estado de las moléculas del medio en el que se encuentra –y por el que se propaga- y como las moléculas están conectadas entre sí esta perturbación se irá transmitiendo de unas a otras.
Podemos ver este efecto en esta animación:

Sabiendo esto, podemos deducir que cuanto mayor sea la densidad del medio, más facilidad tendrá esa onda para propagarse y viceversa: a menor densidad, mayor dificultad para propagarse y por tanto la onda irá perdiéndose a medida que se propaga y desaparecerá con más facilidad.
Lo que nos lleva al siguiente punto: ¿De qué depende la velocidad del sonido?
La densidad del medio no es el único factor que influye en su propagación, de hecho también depende de la temperatura a la que se encuentre el medio (el movimiento (=calor) de las partículas del medio influye en la propagación de la onda, de modo que a menor temperatura mayor “rigidez” entre las partículas y por lo tanto, más difícil es que se propague la onda por ellas), de la humedad en el ambiente (aunque si estamos en Marte esto no nos influye), la presión (a menor presión más espacio habrá entre las moléculas, lo que se traduce en una menor densidad)…
Condiciones de la atmósfera marciana. ¿De qué se compone su atmósfera?
Para conocer cómo se escucharían los sonidos en Marte conviene, evidentemente, conocer de qué está compuesta la atmósfera, así sabremos en qué condiciones se encontrará el sonido para poder propagarse por ese medio.
En su atmósfera, Marte presenta diversos gases, como son el monóxido de carbono, óxido nítrico, xenón, metano y hasta un poco de vapor de agua (0,03%). Pero los gases más presentes son sobre todo y con diferencia, el CO2, seguido por Nitrógeno y Argón, aunque en mucha menos medida, como podemos comprobar a continuación:
Dióxido de carbono: 95.32%
Nitrógeno: 2.7103%
Argón: 1.6%

Sabiendo esto, y si me lo permitís (y si no también, porque como soy yo la que escribe la entrada, es una de las ventajas de las que puedo disfrutar), voy a simplificar el trabajo suponiendo la atmosfera de Marte como si estuviese compuesta exclusivamente por CO2, porque para lo que nos interesa saber no supondrá un cambio significativo.
Densidad atmosférica
Otro aspecto a tener en cuenta es la densidad de la atmósfera en Marte, y lo cierto es que en Marte la densidad, al tratarse de un planeta con menos masa que el nuestro, no puede retener tan bien los gases de su atmósfera y los pierde en razón de unos 100 Kg por segundo. De modo que la densidad de esta atmósfera es mucho menor y por lo tanto el sonido se pierde con mucha más facilidad, por lo que dijimos antes: no hay tanta unión entre las moléculas y por lo tanto la onda no tiene material por el que viajar. De hecho, si gritásemos en Marte con todas nuestras fuerzas se percibiría como un susurro, o ni eso.
Pero seguro que si has decidido leer este post no es para que te diga que en Marte no se escucha prácticamente nada y quedarme tan pancha, ¿verdad? Seguro que quieres saber más detalles. Y en realidad, la siguiente pregunta es: y si a pesar de la baja densidad pudiéramos escuchar los sonidos con más o menos claridad, ¿cómo los percibiríamos? Bien, pues imaginemos que hemos superado este problema con un sonotone muy potente y continuemos.
La temperatura en Marte.
Debido a su fina atmósfera, a Marte le cuesta bastante más que a la Tierra retener el calor en ella, y como podemos ver, las temperaturas máximas son bastante asequibles, ya que no bajan hasta los grados bajo cero, sin embargo, al caer la noche el calor se disipa rápidamente dando lugar a unas temperaturas mínimas bastante considerables, lo que provoca que la temperatura media en cada mes (y finalmente la temperatura anual media) sea bastante baja. O sea, que si viajas a Marte mejor llévate un abrigo calentito.

Con estos datos podríamos calcular la velocidad del sonido en Marte. Las temperaturas en Marte varían mucho, de modo que haré una media entre las máximas y las mínimas anuales para tener un promedio. De esta forma, la media anual entre la máxima (-5,7 ºC) y la mínima (-78,5 ºC) es de -42,10 ºC.
Advertencia: Los cálculos que siguen a continuación son muy de andar por casa en zapatillas y con datos aproximados, así que el resultado será aproximado y para nada exacto, pero sí lo suficiente como para comprender la situación a grandes rasgos.
A partir de la fórmula de los gases ideales podemos sacar la fórmula para calcular la velocidad del sonido en Marte:

Donde:
ϒ: Constante adiabática del CO2, que en este caso y para la temperatura dada será aproximadamente de 1,31
R: Constante de gases ideales, que en Marte tiene un valor diferente al de la Tierra, como es lógico, y este valor es de 191,8 J/Kg/K
T: La temperatura de la atmósfera en ese momento, que es la que calculé antes: -42,10 ºC, y expresándolo en Kelvin (-42,10+273,15) nos quedan unos 231,05 K.
Aplicando todo esto a la fórmula tenemos…

El resultado es que la velocidad del sonido en Marte es alrededor de un 30% inferior a la de la Tierra (343,20 m/s). Y te preguntarás, vale pero, ¿esto en qué afecta? Pues al viajar más lento, las ondas del sonido se “alargan” un poco más, dicho de otra forma, la longitud de onda es mayor que en la Tierra, por lo que la frecuencia, al ser inversamente proporcional, disminuye, y a menor frecuencia más grave lo percibe nuestro oído.

Resumiendo un poco, lo que ocurre es que en Marte, si realmente fuéramos capaces de escuchar nuestras voces, se nos escucharía un 30% más grave que en la Tierra. Para que te hagas una idea, las mujeres tendríamos una voz similar a la de los hombres, y los hombres… como la voz que tendría Darth Vader con laringitis.
Este artículo nos lo envía Sabela Ben, (blog Peladillo Cuántico). “Desde muy pequeñita me empecé a hacer preguntas sobre la vida y el universo y con eso se despertó mi interés por la ciencia. Unos años más tarde, a los 9, decidí que quería ser astrofísica cuando intenté recrear el sistema solar a escala en el techo de mi habitación. En seguida me di cuenta de que no era posible, porque pretendía que la lámpara fuera el Sol y tenía un tamaño demasiado grande como para que entrasen todos los planetas y además no hablemos del tamaño minúsculo que según mis cálculos tendrían los planetas, sin mencionar a Plutón. Finalmente, después de muchas vivencias más, conseguí entrar en la carrera de física en la UNED y aquí me hallo, persiguiendo mi sueño, sin saber si lo conseguiré, pero por lo menos el camino es divertido mientras tanto.
Bibliografía

La cueva de Tailandia representa todo lo que está mal con la visión del mundo de Elon Musk

71 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Por primera vez en 75 años, el Premio Nobel de Literatura se quedará sin entregar

La historia negra de Diogo Alves, el asesino en serie que acabó con su cabeza envasada en formol

España va a cerrar las centrales térmicas y las nucleares al mismo tiempo. Es una mala idea

Compartir
391
TWITTER
EMAIL
11 Julio 2018 – Actualizado 24 Julio 2018, 11:34
MOHORTE@mohorte
El pasado 23 de junio doce niños de entre 11 y 16 años quedaron atrapados en la cueva Tham Luang de Tailandia. Incapacitados para hollar una salida pero aún vivos, su historia se hizo progresivamente viral. Dos semanas y media después los equipos de rescate tailandeses han logrado llevar la historia a buen puerto: todos los niños (y su entrenador, adulto) han sido rescatados para regocijo de media humanidad. Es una historia en la que sólo existen ganadores.
Y en la que también está Elon Musk.
Desde un primer momento, Musk mostró un inusitado interés en la historia, ya fuera por su intrínseco carácter humano o por sus sugerentes posibilidades técnicas. Discutió largo y tendido las diversas estrategias para el rescate por Twitter, hasta que a mediados de la semana pasada tomó una determinación a la postre muy aplaudida: construir un pequeño submarino capaz de transportar a los pequeños desde su remota cueva hasta un lugar seguro.
A partir de ahí, el propio Musk relató los avatares del proceso. Un equipo combinado de SpaceX y The Boring Company dedicó varios días a diseñar, montar y testar sobre el terreno las cápsulas (ilustradas por él mismo en su cuenta de Twitter). Musk se puso en contacto con las autoridades tailandesas y con los equipos de rescate, hasta que tomó la determinación de viajar a la cueva en persona para solventar mejor las complejas cuestiones técnicas.

Elon Musk
✔@elonmusk
Just returned from Cave 3. Mini-sub is ready if needed. It is made of rocket parts & named Wild Boar after kids’ soccer team. Leaving here in case it may be useful in the future. Thailand is so beautiful.
0:05 – 10 jul. 2018
308 mil
94,1 mil personas están hablando de esto
Información y privacidad de Twitter Ads
Entre tanto, la situación para los pequeños era cada día más crítica: el aire que respiraban se estaba volviendo progresivamente tóxico y los equipos especializados del gobierno tailandés no parecían contar con mayores avances (un submarinista murió asfixiado en el proceso). En un lapso breve de tiempo, Musk se proyectó hacia el mundo como La Solución al drama de la cueva, el hombre que acude con la nueva buena tecnológica para solventar los acuciantes problemas de la humanidad.
¿Qué terminó pasando? Que las fantásticas cápsulas diseñadas por Musk con el expreso propósito de rescatar a los niños no sirvieron para nada. “Es una tecnología muy buena y sofisticada, pero no es práctica para esta misión”, terminaría explicando uno de los responsables del grupo de rescate en The Guardian. Los especialistas sobre el terreno sacaron a los niños con bombonas de oxígeno, una cuerda guía y un cursillo avanzado de nado y buceo. A principios de esta semana la totalidad del equipo de fútbol había escapado a su destino fatal dentro de la cueva. Sin Musk.
Musk, preso de sí mismo
Lo que llegó después fue un parcial escarnio público de Musk a través de memes recurrentes, especialmente una vez él mismo siguió comentando y detallando los pormenores del rescate. Musk llegó al extremo de respondera las noticias que los medios de comunicación publicaron sobre la no intervención de sus cápsulas. Para muchos, fue un desdibujo de su figura como Iron Man aspiracional, un ejercicio de oportunismo plagado de ideas extravagantes.
Por momentos, daba la sensación de que Musk estaba más preocupado por ilustrar su infinito abanico de ideas que por formas prácticas de sacar a los niños de la cueva.

Elon Musk
✔@elonmusk
En respuesta a @elonmusk
Simulating maneuvering through a narrow passage
2:04 – 9 jul. 2018
96,3 mil
26,9 mil personas están hablando de esto
Información y privacidad de Twitter Ads
Es complejo entrever hasta qué punto las intenciones de Musk tenían un carácter propagandístico o surgían meramente de su altruista interés. Es cierto que durante los últimos tiempos Musk ha participado en otras misiones de carácter humanitario (como las baterías eléctricas entregadas a Puerto Rico, en plena crisis de energía y colapso total de la infraestructura del país), y que siempre se ha inmiscuido en proyectos de enorme escala sin previo aviso o aparente interés empresarial.
Pero más allá de sus intenciones, lo que la cueva de Tailandia revela es todo lo que está mal con Elon Musk (cuando lo está). Diversos ingenieros de SpaceX y The Boring Company pasaron varios días imaginando y ensamblando pequeñas cápsulas capaces de introducirse en una estrechísima y peligrosísima cueva, tan capaces de transportar con seguridad a los doce niños como de introducirse en los rincones más revirados de la morfología subterránea. En última instancia, lo que salvó a los pequeños fue una cuerda, una bombona de oxígeno y dos submarinistas.
Es una dinámica en la que Musk incurre con frecuencia. The Boring Company serviría como paradigma: una solución de indudable audacia técnica, jamás testada antes por cualquier otra empresas, proyectada sobre uno de los problemas más persistentes del urbanismo contemporáneo y destinada a revolucionar de arriba a abajo la movilidad de las ciudades. Un proyecto de absoluto magnetismo mediático, incapaz de no filtrarse en los medios de comunicación entre parabienes.
Y al mismo tiempo, una idea poco práctica. The Boring Company traslada la cuestión candente de la movilidad urbana, esto es, los coches y su natural acumulación en forma de atascos, de la superficie al subsuelo. No hace suya ninguna audaz idea sobre los retos del urbanismo del futuro, sino que entierra el problema. Mediante una tecnología transformadora, de aparente potencial revolucionario y a través de una obra a gran escala que tunela una megalópolis, sí, pero simplemente lo entierra. Lo que pasa a estar arriba está ahora abajo. Igual de problemático, pero de impecable técnica.

Elon Musk
✔@elonmusk
22:55 – 8 jul. 2018
208 mil
59,5 mil personas están hablando de esto
Información y privacidad de Twitter Ads
En ambas reacciones se manifiesta un deje habitual de la ideología de Musk: la tecnología como herramienta redentora del ser humano, la técnica (personificada en sus exitosísimas, brillantes empresas) como clave de bóveda para todo dilema que afronte la humanidad. La respuesta de Musk al drama de Thailandia se alinea a la perfección con las ideas de un hombre que juzga a las innovadores empresas tecnológicas del mañana como las garantes del progreso civilizatorio: grandilocuentes y brillantes, pero también a menudo desenfocadas.
De ahí que sus fantásticos submarinos se contrapusieran de forma inmediata a la gris alternativa del gobierno de Tailandia: ¿unos simples submarinistas sujetando la bombona de oxígeno de los niños guiados por una cuerda? ¿Eso es todo lo que tiene que ofrecer la mediocre burocracia estatal? Para Musk, sus cápsulas servían al mismo propósito que The Boring Company, la instalación de baterías solares en Australia o la cesión de Powerpacks a Puerto Rico: demostrar que la innovación privada está mejor capacitada que nadie para solventar Los Grandes Problemas.
Y de ahí que su inexistente fracaso (simplemente no se llegaron a utilizar) se haya interpretado con tanta sorna en tantos rincones: pese a lo fashionde sus apuestas, Musk se ha visto derrotado por los equipos de rescate tradicionales con sus lógicas pero no demasiado impresionantes herramientas técnicas. Más allá del márketing, la tentativa de Musk representaba de forma muy fidedigna el modo en el que observa al planeta, su hipotética visión ideal para la humanidad del mañana.
Como es lógico, su reciente hiperactividad en Twitter y otras redes sociales han apuntalado su exposición mediática, llevando hasta el paroxismo las parodias sobre su carácter redentor/salvador y sobre su omnipotencia tecnológica à la Tony Stark. El caso de Thailandia ejemplifica tanto lo audaz como lo exagerado de Musk. Tanto lo bueno como muy especialmente lo malo.

Cuánto calor se espera para este verano en España y cuándo empezará “lo malo”

11 COMENTARIOS
SUSCRÍBETE A XATAKA CIENCIA
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
RSS
Flipboard

TE RECOMENDAMOS

Las personas inteligentes tienen las células cerebrales más grandes de lo normal

Estas son las hormonas que te ayudan a perder peso (y así puedes hacerlas colaborar)

Comer cuando tenemos hambre no es la mejor manera de mantener una dieta saludable

CompartirCuánto calor se espera para este verano en España y cuándo empezará “lo malo”

64
TWITTER
EMAIL
12 Julio 2018 – Actualizado 16 Julio 2018, 20:27
SANTIAGO CAMPILLO@Scruzcampillo
Llevamos ya varios años rompiendo récords de temperatura, tanto a escala global como a escala local, en España. Sin embargo, este 2018 parece habernos traído un verano inusualmente suave. ¿Cuándo va a comenzar el “infierno”? La ropa de playa y las ganas de piscina aumentan mientras esperamos la siguiente ola de calor. Pero puede que no estemos ante el verano más típico de nuestra historia.
“De momento no hay perspectivas de una ola de calor”
En la península hemos pasado una primavera bastante suave y húmedapara lo que estábamos acostumbrados durante los últimos años. Las lluvias y el clima parecen haber demorado el calor un poquito, algo que se nota en las temperaturas de este inicio de verano.
Debido a este panorama inesperado, nos hemos puesto en contacto con la Agencia Estatal de Meteorología, la AEMET, y les hemos preguntado por esta pintoresca situación. Delia Gutiérrez, meteoróloga y portavoz de la Agencia, nos ha contado qué esperamos para este verano y su por qué.

“Es verdad que llevábamos un montón de años batiendo récords, no solo a nivel global, sino también en España. Sin embargo, este verano está siendo muy suave y, de momento, las perspectivas que tenemos son similares”. Al menos en cuanto a las siguientes semanas se refiere. “Venimos de vivir unos días de cierto calor, un poco por encima de los valores normales en muchas zonas del país, pero nada extraordinario”.
“De hecho”, continúa la experta, “este verano todavía no hemos tenido ninguna ola de calor como las que hemos vivido años anteriores y, de momento, no hay perspectivas de que vayamos a vivirla”. Según nos explica Delia, aunque hemos vivido una ligera subida en las temperaturas recientes, lo cierto es que durante la semana del [del 9 al 16 de julio] la tendencia es a la baja.
¿Cuándo empezará “lo malo”?
La AEMET hace una serie de previsiones a corto, medio y largo plazo. La mayor precisión en estas, explica Delia, abarca los diez días siguientes. A partir de este lapso temporal, los datos estadísticos son los que marcan dichas previsiones en las cuales “acertar” se hace más difícil. Para las previsiones mensuales se utilizan los datos de años anteriores, que permiten marcar lo que “cabría esperar”.
“Para los próximos días no se atisba ningún cambio que indique que podría entrar un episodio de calor más intenso y duradero. Al menos de aquí a diez días”. Pero es que, además, esto parece consistente con las previsiones para el resto del verano.
Según los datos probabilísticos ofrecidos por AEMET para la predicción estacional, tampoco cabe esperar ningún aumento de temperaturas reseñable durante los siguientes meses. Esto quiere decir que podría hacer calor, o no. Pero no hay ningún indicio que nos haga esperar una ola de calor durante este periodo. La única y ligera excepción sería en la zona este de la península, así como en Baleares, donde la previsión es un poco más elevada en su probabilidad de calor. Pero, de nuevo, son datos muy ligeros.

“Solamente en la franja mediterránea y en Baleares hay una señal que indica que puede ser un poco más probable que sea algo más cálido de lo normal”. Por el contrario, es curioso que en Canarias se espera una ligera probabilidad mayor de que el las temperaturas bajen. “Es algo que venimos viendo desde hace unas semanas, de forma consistente”, comenta Delia.
“Este patrón, aunque parece que no dice mucho, encaja perfectamente con lo que llevamos de verano”
“Este patrón, aunque parece que no dice mucho, encaja perfectamente con lo que llevamos de verano”, comenta. “Estamos viendo un verano que no está siendo muy señalado ni en frío ni en calor, en la mayor parte del país, salvo en la franja mediterránea, Baleares y Canarias”. Pero la meteoróloga no duda en apuntar que estas previsiones son probabilísticas, y que todo podría cambiar.
Y ¿a qué se debe este ambiente más suave? Aunque es difícil de entender todo el contexto meteorológico, por el momento parece que la razón viene del Atlántico. “Nos están llegando bajas [presiones] que se descuelgan, masas de aire templado… desde el mar Atlántico”, comenta Delia. Sin embargo, en el resto del planeta el verano viene siendo caluroso, tal y como cabe esperar de un verano.
“¿Qué ha pasado con el cambio climático?”
Es bastante común asociar los episodios locales, que son los que vivimos cada uno, con datos de carácter más global. Y si hay algo de carácter global, eso es el cambio climático. Pero esta relación de ideas es una equivocación. “Lo que pasa localmente, en un año y en un sitio, no es indicativo de la tendencia global. Esta hay que entenderla observando todos los datos en conjunto”, confirma la experta, sin duda alguna.
“El cambio climático es un fenómeno a escala mundial y se traduce en muchos fenómenos a escala local, pero que no siempre se producen en el mismo sitio ni de la misma manera”, explica. “A escala global las señales del calentamiento global son muy objetivas, muy claras y muy rotundas”. Para ejemplificar lo que nos comenta, Delia nos cuenta el caso de esta primavera, que ha sido más fría y húmeda de lo normal en España.

“Pero es que esto ha sido la excepción”, afirma. “En el resto de Europa ha hecho mucho calor y han tenido escasez de precipitaciones, algo a lo que no están acostumbrados. El que nosotros vivamos una primavera suave no quiere decir que no haya señales de que estemos viviendo un calentamiento a nivel global, lo que es un hecho ampliamente constatado y que casi nadie pone ya en duda”.
“Un planeta que se calienta”, explica la meteoróloga, “es un planeta en el que la circulación se ve muy alterada y empiezan a pasar cosas a las que no estamos acostumbrados”. Lo que comenta Delia es lo que llevamos viendo desde hace un tiempo: el cambio climático promete situaciones más extremas y difíciles de prever. “Las cosas hay que verlas con un poco de persepectiva, y cuando las miras así, el que un verano sea suave, que desde luego no es el primero, no es indicativo. La curva de las temperaturas sigue creciendo de manera inequívoca”, zanja la experta.

La primera piedra del futuro del LHC
Colaborador Invitado13JUL18
El futuro del Gran Colisionador de Hadrones (LHC), en el CERN, ya es presente. El pasado 15 de Junio se dio el pistoletazo de salida a las obras de mejora del LHC que durarán hasta el año 2026. Momento en el que verá la luz, y nunca mejor dicho, el High Luminosity LHC (HL-LHC), que proporcionará diez veces más datos de los que haya recogido el LHC hasta la fecha.

Actualmente, el LHC se encuentra funcionando a pleno rendimiento y lo está haciendo por encima de las expectativas. Pero, aunque todavía tiene cierto margen de mejora, su tecnología, que data de los años 90, está empezando a quedarse un poco antigua. Por ese motivo, en 2016 el consejo del CERN (el principal órgano de toma de decisiones) aprobó el proyecto de mejora del LHC. Un proyecto que se extenderá durante prácticamente una década y tendrá un coste aproximado de unos 950 millones de francos suizos, unos 825 millones de euros.
La idea principal detrás de esta mejora es incrementar el número de colisiones que se producen en los dos experimentos más grandes, ATLAS y CMS. El HL-LHC multiplicará por cinco el número de colisiones que se producen cada segundo en el actual LHC. De está manera, entre los años 2026 y 2036, se podrá acumular diez veces más información que toda la generada por el LHC durante 15 años. Con semejante cantidad de información deberíamos tener acceso a procesos muy raros que ocurren con una probabilidad muy baja y que pueden contener la respuesta a las grandes cuestiones de la física que todavía permanecen abiertas.

El HL-LHC es un proyecto en el que están involucrados 29 institutos de 13 países diferentes, entre los que se encuentra España. Más de un quilómetro de acelerador será
reemplazado por nuevas tecnologías que harán posible incrementar el número de colisiones en los experimentos. Para conseguirlo, la primera idea es multiplicar por dos el número de partículas que contiene cada haz de partículas. A más partículas, más colisiones. Además, se reducirá el tamaño de los haces de partículas en los puntos de colisión para aumentar así la probabilidad de que dos protones colisionen entre ellos. Para ello, se instalarán nuevos imanes superconductores alrededor de los puntos de colisión que exprimirán los haces hasta un tamaño por debajo de las 10 micras. Estos imanes especiales que llamamos cuadrupolos se encargan de focalizar el haz como si de una lente se tratase. Los actuales cuadrupolos que cumplen dicha función están fabricados de un material superconductor compuesto por una aleación de niobio y titanio (NbTi). De cara al HL-LHC, la potencia de estos imanes aumentará y se requerirá hacer uso de otro material superconductor, esta vez una aleación de niobio y estaño (Nb3Sn). Estos nuevos imanes nos permitirán sacarle todo el jugo a los protones que circulan por el LHC.
Los experimento estarán encantados de tener tanta cantidad de datos. Pero el aumento de colisiones no será, como decimos en Cataluña: “bufar y fer ampolles”. Es decir, que no será fácil. En la actualidad, cada vez que dos paquetes de partículas se cruzan en los puntos de colisión de ATLAS y CMS, entre 50 y 60 protones llegan a colisionar verdaderamente. A este número se le conoce como pile up (apilamiento) y es un auténtico quebradero de cabeza para los físicos experimentales. Éstos tienen que desenmarañar las trazas de las partículas generadas en cada una de esas colisiones y diferenciarlas para poder hacer un análisis detallado. Y si a estas alturas los experimentos ya están sufriendo la gota gorda, para el HL-LHC se espera que el pile up se incremente hasta 200. Por esta razón, los detectores también experimentarán cambios notables. Algunas de las capas más internas se reemplazarán por otras más eficientes y robustas a la vez, ya que tenemos que pensar que con el aumento de colisiones también aumenta la radiación a la que están expuestos todos los componentes de la máquina. Y no queremos que nuestro acelerador se quede como una tostada quemada el segundo día.
Como cabe esperar, el aumento de colisiones también conllevará un aumento de la información útil que viene de los experimentos y que se necesita gestionar y almacenar. La cuestión es que el centro de computación del CERN ya se encuentra a día de hoy bastante saturado, así que también va a necesitar una mejora considerable así como hacer un uso intensivo del GRID, la red global de computación que se creó a la par que el LHC.
Con la ayuda de un cangrejo
A lo largo de la mayoría del anillo, los dos haces de protones que viajan en sentidos opuestos circulan por dos tuberías diferentes. No obstante, durante los últimos metros antes de llegar a los puntos de colisión, ambos haces pasan a compartir la misma tubería. Por otro lado, el haz no es un chorro contínuo de protones sino que está formado por pequeños paquetes uno destrás de otro formando un tren en el que cada vagón está separado del siguiente unos 7 metros. De esta manera, cada paquetito de uno de los haces colisiona únicamente con un paquete del otro haz en cada punto de colisión. Pero bien podría darse el caso de que dos paquetes a los que no les “toca” colisionar entre ellos, lo hiciesen durante los 200 metros en los que comparten la misma tubería. Para evitarlo, durante ese tramo los haces se mantienen separados para luego desviarlos transversalmente hacia el punto de colisión. De esta manera las colisiones no tienen lugar de frente estrictamente sino que lo hacen con un cierto angulo de cruce. Una de las consecuencias de este método es que los dos haces no se solapan completamente en el punto de colisión, reduciendo considerablemente el número de colisiones que se producen.
En el LHC tal cuál se encuentra ahora, esta reducción es tolerable. En cambio, la mejora del LHC conlleva la reducción del tamaño de los haces en los puntos de colisión. Esto implica que el ángulo de cruce tiene que aumentar y, en consecuencia, el número de colisiones que se producen se reduciría hasta niveles inaceptables en un acelerador que se ha construido precisamente para aumentar dicho parámetro.
Esquema de funcionamiento de las cavidades de cangrejo que se instalarán en el LHC.
Para contrarrestar el efecto que produce el ángulo de cruce, se instalarán unos nuevos dispositivos especiales que, mediante un campo eléctrico, aplicarán a los haces una rotación transversal de tal manera que, pese a colisionar con un cierto ángulo, cada par de paquetes colisionando lo hará de frente, recuperando así la luminosidad perdida. Estos dispositivos se llaman “crab cavities” (cavidades de cangrejo) y han comenzado ya a probarse con éxito en el mismo acelerador que proporciona los protones al LHC, el Super Proton Synchrotron (SPS). En la imagen siguiente vemos la distribución del haz antes y después de aplicar la rotación del haz, donde se puede apreciar como la “cabeza” del haz se levanta cuando encendemos la crab cavity. Este resultado representa uno de los pilares fundamentales de cara a las posibilidades que ofrecerá el HL-LHC.
Demostración de la rotación de los paquetes de protones bajo el efecto de las cavidades de cangrejo en el SPS
Para el HL-LHC se instalarán un total de 8 crab cavities, 2 a cada lado de cada uno de los experimentos de alta luminosidad, ATLAS y CMS. Para un correcto funcionamiento, se necesita que estas cavidades se encuentren correctamente posicionadas y orientadas con precisiones sub-milimétricas.
Más allá del LHC
Aunque el LHC sufrirá un cambio sustancial, no será el único acelerador del CERN que lo hará. Toda la cadena de aceleradores que se encarga de llevar los protones desde la fuente en la que se crean hasta el LHC también necesitará de una mejora considerable para poder cumplir con las nuevas exigencias.
Más allá de los nuevos componentes puramente de la máquina, otro de los ingredientes fundamentales para incrementar la luminosidad total es mejorar el tiempo en el que la máquina se encuentra disponible para producir colisiones. Para ello, se recolocará parte del equipo para hacerlo más accesible durante las tareas de mantenimiento. Se construirán también nuevas galerías subterráneas y túneles donde se colocarán las nuevas instalaciones de criogenia, electricidad, refrigeración y ventilación.
Durante gran parte del tiempo que duren las obras, el LHC continuará funcionando con normalidad. Las obras de mejoran irán en paralelo hasta que el año 2024 se paré durante más de dos años para acabar de realizar la mejora y que el HL-LHC vea la luz.
Al LHC le espera un futuro brillante.

Derogar el concordato, una tarea urgente
La inesperada victoria de Pedro Sánchez en la moción de censura contra Mariano Rajoy ha puesto de actualidad un gran número de problemas, larvados durante años, cuya solución es imprescindible para la construcción de un estado moderno que rompa definitivamente los lazos que unen al actual con el anterior régimen dictatorial franquista.
Uno de los más importantes es seguramente el de las normas que deben regir las relaciones entre el estado y las distintas confesiones religiosas. La connivencia de la iglesia católica con la dictadura, iniciada desde los primeros momentos de la guerra civil provocada por los golpistas, propició una larga serie de privilegios y prebendas que han perdurado hasta ahora. La transición, supuestamente modélica, hacia un estado democrático se articuló mediante una serie de normas que trataron de minimizar las pérdidas para la poderosa y próspera iglesia católica, particularmente para su jerarquía. Y todo ello con un barniz de separación entre iglesia y estado que cubriera las apariencias sin tocar ninguna prerrogativa importante.
El primer cortafuegos para evitar perder la situación de privilegio del catolicismo se estableció en el propio texto constitucional. El debate de los ponentes constitucionales, de evidentes posturas contrapuestas en este asunto, derivó en una disparatada redacción que, por un lado, declaraba el estado aconfesional y, por otro, obligaba a mantener las consiguientes relaciones de cooperación con la Iglesia católica. Tamaño dislate puede entenderse únicamente si esta mención fue una de las condiciones irrenunciables de los que negociaban desde la posición de superioridad que proporciona el poder.
La segunda norma establecida fue el concordato, oficialmente llamados Acuerdos con la Santa Sede de 1979. Una normativa dedicada exclusivamente a enumerar todo tipo de privilegios encaminados a financiar con el erario todo tipo de asuntos jurídicos, económicos, educativos y proselitistas, y a dispensar a la iglesia católica del pago de impuestos sobre rentas y patrimonio.
Estos Acuerdos son un lavado de cara del anterior Concordato de 1953, redactados subrepticiamente por un gobierno aún franquista antes que la propia constitución y firmados en la Ciudad del Vaticano sólo cinco días después de que entrara en vigor la nueva Constitución al ser publicada en el BOE el 29 de diciembre de 1978.
Aún quedaría por hablar de la Ley de Libertad Religiosa de 1980, nacida de nuevo para privilegiar a la religión católica frente a otras confesiones y, también, frente a la ausencia de ellas. Asuntos como funerales de estado, presencia de autoridades en actos religiosos y los juramentos y promesas de los cargos públicos, deben ser regulados urgentemente para separar claramente el estado de la iglesia católica.
Tras 40 años de vigencia de la constitución de 1978, la sociedad española ha sufrido una espectacular transformación desde el punto de vista religioso, pasando de ser aplastantemente católica y mayoritariamente practicante a ser una de las más secularizadas de Europa y, consiguientemente, de todo el mundo. Una transformación que, a la vista de las estadísticas de religiosidad por franjas de edad, no va a dejar de acelerarse en los próximos años. La adecuación normativa a esta nueva situación es, por tanto, ineludible y, con el paso del tiempo, será cada vez más urgente. Esto atañe a la reforma de la propia constitución pero, con carácter previo, deben ser derogados los acuerdos con la Santa Sede y sustituida la ley de Libertad Religiosa por un ley de Libertad de Conciencia. Solo así se conseguirá una relación del estado con las distintas confesiones propia del siglo XXI, y no anclada en una normativa nacionalcatólica proveniente de una dictadura del siglo XX, e incluso de apariencia decimonónica.
El comienzo del gobierno de Pedro Sánchez, cuyos ministros han prometido todos el cargo sin biblia ni crucifijo ha sido esperanzador. Pero, más allá de este gesto simbólico de laicismo, no se sabe que se haya producido ningún movimiento más allá de algunas buenas palabras. Queda tiempo aún, pero urge sacudir todo este ropaje nacionalcatólico que nos han obligado a vestir a nuestro pesar.
Naturalmente, hay otro vestigio franquista del que nos tenemos que deshacer, la monarquía borbónica reinstaurada por el dictador. Una institución que, cada vez más, pierde prestigio a raudales a medida que salen a la luz sus partes más escabrosas, herencia de actitudes y comportamientos naturales durante la dictadura que los llevó de nuevo al poder. Pero esa es otra historia.
Salud.

Adicción a la comida
Colaborador Invitado16JUL18

¿Puedes decirle que no a una barra de chocolate una noche fría de invierno? ¿Eres capaz de comer solamente una Pringles? ¿Cuántas veces has guardado algo en la heladera con convicción y has vuelto a los dos minutos por un “poquito más”?
¿Por qué a veces nos cuesta tanto contenernos? ¿Cuál es el límite entre “quiero” y “necesito”?
¿Podemos realmente hablar de adicción cuando hablamos de comida?
Cuando emprendemos una acción o comportamiento que nuestro cerebro de un millón de años considera que aumentara las probabilidades de sobrevivir o reproducirnos, nos recompensa con una amplia gama de sensaciones que damos en llamar “placer”.
Sin embargo, en lo que respecta a las adicciones (drogas, alcohol, juego, etc.), si bien es cierto que hay un componente de placer, lejos está el placer de ser toda la explicación del asunto. Existe algo más, algo que nos enseña a repetir ese comportamiento en el futuro. El compuesto responsable de este fenómeno se denomina dopamina, un neurotransmisor producido de manera endógena en una zona del cerebro conocida como área tegmental ventral, y que viabiliza el mecanismo conocido como “refuerzo” (reinforcement). Simplificándolo bastante, cuando nos encontramos en nuestro entorno con un estímulo que genera la liberación de dopamina en cantidades significativas, se planta la semilla para volver a buscar ese estímulo en el futuro. Basta con, por ejemplo, sentir el aroma de pan horneado para comenzar a salivar. [No querría alarmarte, pero debo advertirte que, si tu salivación se activa con el sonido de una campana, es altamente probable que seas un perro.]
La búsqueda o interacción periódica con el estímulo en cuestión forma un hábito, y los hábitos, una vez establecidos, son difíciles de erradicar.
Stephan Guyenet es Doctor en Neurociencias de la Universidad de Washington, donde pasó 12 años investigando sobre obesidad, con foco en la regulación de la grasa corporal y en el comportamiento alimentario. En su libro “The Hungry Brain” [El cerebro hambriento] Guyenet se detiene especificamente en la diferencia neurofisiológica entre refuerzo y placer. Mientras el primero esta mediado por la dopamina, el segundo tiene su origen en una familia de compuestos conocidos como endorfinas (si, la misma familia que se relaciona con el ejercicio y con el chocolate). Por lo tanto, sostiene, placer y adicción no siempre van de la mano.
Adicción: poniendo blanco sobre negro (o grises sobre grises)
Existen bastantes definiciones de adicción, y la complejidad es aún mayor considerando que existe un debate en la comunidad científica respecto a cómo definirla, lo cual lleva a enunciaciones relativamente especificas relacionadas con aquello a lo que la adicción refiere (alcohol, drogas, juego, etc.).
Mas allá de las particularidades de cada definición, esto comienza a delinear un problema que va a recorrer todo este articulo y que no es otro que la arbitrariedad.
¿Qué es una silla? ¿Qué sucede si le rompemos una pata? ¿Y dos? ¿Sigue siéndolo? ¿Y si le arrancamos el respaldo? ¿En qué momento deja de ser silla? La arbitrariedad puede determinar que algo sea una cosa y no otra, cuando la realidad puede ser, quizás, un tanto más matizada.
Guyenet, quien pasó más de 12 años investigando la obesidad y el comportamiento alimentario me dijo al respecto: “Es solamente cuando un impulso cruza una barrera de intensidad arbitraria que usamos la etiqueta de adicción. Sin embargo, el daño puede existir aun cuando ese límite no se cruce.”
La bendición se vuelve condena.
“La etiqueta de adictivo va al corazón del comportamiento. Comer fue nuestra primera adicción: así es como nuestros cerebros están diseñados” – me dijo el Dr. David Kessler, autor del libro “The End of Overeating: Taking Control of the Insatiable American Appetite” en una entrevista por email.
Desde una perspectiva evolutiva, en un ambiente caracterizado por la escasez y la impredecibilidad, los azúcares y las grasas eran indicios de una buena cuota de energía segura. En un entorno así, la glotonería nos permitió sobrevivir y prosperar como especie.
En la actualidad, sin embargo, aquella otrora ventaja se ha vuelto una maldición. Kessler me dijo al respecto: “estamos inundados de productos baratos, convenientes y sabrosos que nos están engordando y enfermando”.
Hiperpalatabilidad: cuando lo sabroso se vuelve irresistible
-“Señor dietista, por favor, no me quite el apio porque me muero”.
Nunca sucedió, ¿verdad?
Nadie parece tener un deseo incontrolable por las hortalizas frescas. Cuando el hambre está ausente, se necesitan estímulos realmente tentadores para despertar el apetito. Después de una gran comida, cuando ya estamos saciados, cualquiera de nosotros rechazaría una ensalada de tomates. Pero ¿qué haríamos ante un brownie o ante un trozo de lemon pie?
Parece clave, entonces, intentar comprender por qué cuanto más palatable es la oferta, mayor es tambien la disposición a dejar de lado la sensación de saciedad.
Una revisión publicada en febrero de 2018 se propuso investigar cómo la exposición a alimentos palatables tienen la capacidad de alterar la regulación del apetito y el comportamiento alimentario, llevándonos a comer en exceso.
Entre los puntos más destacables de las conclusiones, los autores refieren que los alimentos altamente palatables y sus estímulos asociados pueden desencadenar la hiperfagia a través de la modulación de mecanismos fisiológicos y supra fisiológicos. Lo que esto quiere decir, y que probablemente parezca una obviedad, es que no comemos solamente para satisfacer nuestras necesidades energéticas o nutricionales. Sin embargo, existen diferencias individuales en la sensibilidad de diferentes individuos que hacen que algunos “cedamos ante la tentación” y otros puedan resistirse.
Como si esto fuera poco, existe tambien una modulación de esta sensibilidad por condiciones como el estrés o las condiciones ambientales. Dicho de otro modo, una persona puede quizás, ser más falible ante un tipo de situaciones que de otras.
En fin, mucho de esto, que nace de lo que el sentido común, parece estar respaldado por mecanismos neurobiológicos, tal como lo expone la revisión en cuestión.
Adicción a la comida: ¿qué dice la evidencia?
Varios son los investigadores que respaldan la idea de que existe evidencia para hablar de una “adicción a la comida” o, al menos, a ciertas comidas.
Un estudio publicado en 2015 entre cuyas autoras aparecen dos de las más importantes investigadoras en el tema de la adicción a la comida (Nicole Avena y Ashley Gearhardt) utilizó cuestionarios validados (Yale Food Addiction Scale) para evaluar la relación entre alimentos y patrones de consumo considerados “adictivos”. En base a los resultados de este ensayo clínico, las investigadoras concluyeron que son los alimentos altamente procesados aquellos que pueden generar patrones de comportamiento similares a los de las drogas de abuso.
Algunos de los argumentos apuntan a la idea de que no puede ser considerado “adictivo” algo que es fundamental para la supervivencia como lo es el alimento. Sin embargo, este es un argumento bastante rudimentario, y existen otros más interesantes para explorar.
En este sentido, una revisión publicada en el 2014 en la revista Neuroscience & Behavioral Reviews Journal indaga en cuan apropiado es el uso del término “adicción a la comida” porque combina los conceptos de “basado en una sustancia” (“substance-based”) y una adicción comportamental. Esencialmente, lo que estos autores dicen es que la “adicción a la comida” es un concepto inespecífico porque refiere simultáneamente al acto (comportamiento) y al objeto del acto (comida). Un ejemplo similar, se me ocurre, seria hablar de una adicción a “fumar tabaco”. Hay algo adictivo en el tabaco (comida), algo adictivo en el fumar (comer) o algo adictivo en fumar tabaco (comer comida).
Según estos investigadores, la evidencia disponible de una adicción a la comida basada en sustancia (la comida y sus contenidos) es pobre. Sin embargo, consideran que sí hay datos consistentes, tanto de modelos animales como humanos, para hablar de la existencia de un comportamiento alimenticio adictivo.
Con la postura opuesta, y en respuesta a esta revisión, Schulte, Potenza y Gearhardt publicaron un comentario en la revista Apetite en el que discuten específicamente cuál es la evidencia y que consideraciones hay que tener en cuenta a la hora de hablar de una adicción a la comida (basada en la comida en sí) o de una adicción a comer (basada en el acto).
El problema más grave de esta segunda postura (adicción a comer), según los investigadores, es que ignora estudios en los que se ve una contribución de los atributos de la comida (alto en azúcar y grasa, por ejemplo) en el desarrollo y mantenimiento de un comportamiento tipo adictivo
Otra revisión de 2018 publicada en la revista Nutrients va en línea con la postura de Schulte Potenza y Gerhardt, concluyendo que los síntomas parecen encajar mejor con un desorden basado en sustancias [alimento] que con un desorden basado en lo comportamental [acto de comer].
Los ingenieros del placer.
El ganador del Pulitzer Michael Moss expone, en su best-seller “Fat, sugar, salt: How the food giants hooked us”, el detrás de escena de la industria alimentaria. Entre otras revelaciones muy jugosas, Moss cuenta la historia de Howard Moskowitz y su más famosa creación: el “bliss point”.
Moskowitz es realmente un personaje interesante. Se graduó en el Queens College de New York con especialidades en matemática y psicología. Luego, hizo un doctorado en psicología experimental en Harvard, para dedicarse eventualmente a la investigación de mercado, convirtiéndose quizás, en uno de los más famosos científicos de la historia industria alimentaria.
El desarrollo del “bliss point” por parte de Moskowitz marcó el comienzo de una era en la que la industria se apoyaría cada vez más en la ciencia para el diseño y desarrollo de productos.
Moskowitz recibió la tarea de mejorar una famosa bebida de origen estadounidense llamada Dr. Pepper. Para hacerlo, decidió un abordaje absolutamente basado en matemáticas y estadística. Hizo desarrollar 59 versiones de la bebida, cada una con una cantidad levemente diferente de azúcar. Luego, la evaluó entre 3000 individuos a lo ancho de los EE. UU., para luego aplicar técnicas complejas de estadística. Logro así, dar con la cantidad exacta (ni más, ni menos) de azúcar que más aceptación tenia entre los consumidores.
Moskowitz llamó “bliss point” a su hallazgo, que luego se extendió a otros ingredientes (sal, grasa, saborizantes, etc.) para optimizar productos de la industria alimentaria.
Palatabilidad 2.0
Azúcar, grasa y sal, o como me gusta llamarlos: “los 3 mosqueteros de la industria alimentaria”, son ingredientes que aumentan la palatabilidad de casi cualquier alimento. Pero no todo en la industria alimentaria se limita a Atos, Portos y Aramis. D´Artagnan también existe.
En su libro “Why Humans like junk food”, el investigador Steven Witherly recorre una serie de estrategias y tecnicas que la industria alimentaria aplica a ciertos productos para incrementar su palatabilidad. El caso más interesante, desde mi punto de vista, es el de Oreo, las galletas más vendidas en la historia. Mas allá de su oneroso contenido en azúcar, grasa y sal, que ya de por si le otorgan una palatabilidad enorme, hay otras cosas sucediendo tras bambalinas.
Witherly desarrolla el concepto de “contraste dinámico” para referirse a cualidades organolépticas (color, sabor, aroma, textura) que, mediante un cierto juego de “opuestos”, logran un resultado incremental. En lo que refiere al color, el negro de las tapitas contraste con el blanco “nieve” de la crema. En el juego de texturas, el crocante de la galleta contraste con la suave emulsión del relleno. Una mezcla de azúcar y sal en lo que refiere al sabor, coronada por un complejo uso de los aromas de la vainilla y el chocolate.
Dieta de cafetería: una lección de roedores.
En los años 70, la investigación sobre la obesidad estaba comenzando a tomar fuerza. Como paso previo a experimentar en seres humanos, los pobres roedores suelen ser quienes salen sorteados como modelos experimentales. Podrá parecer un tanto obvio, pero para estudiar la obesidad, un investigador necesita especímenes obesos.
Para quienes sean ajenos a la metodología de experimentación en modelos animales, es preciso comentar que las ratas de laboratorio consumen típicamente alimento balanceado (tambien llamado ‘pienso’). Cuando las ratas son alimentadas con un pienso típico, es prácticamente imposible que se vuelvan obesas. Suelen, simplemente, comer hasta saciarse y, cuando no tienen hambre pierden todo interés por el alimento.
La estrategia para desarrollar especímenes obesos en aquel momento era usar piensos con más grasa que lo habitual, lo que hacía que el alimento fuera más palatable; así las ratas comenzaban a comer más y ganar peso. A pesar de ello, era un tanto difícil que volvieran obesas con relativa rapidez. ¿Como podía acelerarse este proceso?
La solución, como tantas otras veces en la historia, provino de un golpe de suerte.
Anthony Sclafani, hoy profesor emérito del departamento de psicología en la Universidad de Nueva York, fue el afortunado. [Pasteur decía, sin embargo, que “la suerte favorece solo a la mente preparada”] En su época de estudiante, hace más de 40 años, trabajaba como asistente de investigación en un laboratorio dedicado al estudio de la obesidad. Al parecer, un compañero de Sclafani había dejado unos restos de cereales de desayuno “Froot Loops”, cuestión que podría haber pasado totalmente desapercibida si no fuera porque una rata que Sclafani supervisaba dio con estos restos. La avidez del animal por el cereal azucarado fue tal que Sclafani tuvo su momento “Eureka”.
Decidió entonces, ir al supermercado para hacerse de los productos más sabrosos que pudiera encontrar. Queso, pepitas de chocolate, malvaviscos, leche condensada azucarada, mantequilla de maní, y unos cuantos más completaban la lista junto a los ya mencionados “Froot Loops”.
Sclafani decidió brindar a las ratas de su laboratorio con un banquete compuesto por los productos más palatables que encontró en el supermercado. El resultado fue asombroso.
Los roedores no simplemente comían, devoraban. Bocado tras bocado, parecía no haber límite para su glotonería. Ya no se interesaban en su alimento balanceado; solo tenían ojos (y mandíbulas) para la tentadora oferta de productos de supermercado.
Un par de semanas alcanzaban ahora para volver obesas a las ratas. La ‘dieta de supermercado’, como quedó inmortalizada en la publicación de Sclafani, actualmente conocida como ‘dieta de cafetería’, sigue usándose y al día de hoy sigue siendo el método más efectivo para inducir obesidad y síndrome metabólico en roedores.
Conclusiones finales.
Bueno, pues después de todo esto, ¿podemos finalmente decir que existe una adicción a la comida?
Como hemos visto, no existe una posición única de la ciencia respecto a: 1) si existe efectivamente la adicción a la comida; 2) si, de existir, lo adictivo es la comida o el acto de comer. Más allá de las diferencias en las posiciones que diferentes investigadores toman, parece existir un consenso respecto a la necesidad de seguir investigando.
Mientras tanto, puede que como individuos tomando decisiones cotidianas sobre nuestra alimentación, no necesitemos precisar si efectivamente existe o no una adicción a la comida para actuar en consecuencia. Parece más útil, aunque puedo estar errado, intentar identificar nuestros patrones de comportamiento para poder tomar medidas precautorias y decisiones inteligentes.
Este artículo nos lo envía Ramiro Ferrando. Licenciado en Nutrición en la Universidad Isalud (Bs. As, Argentina). Realizó un Máster en Nutrigenómica en la Universidad de las Islas Baleares (Mallorca, España) Actualmente es estudiante de Máster en Periodismo en la Universidad de Illinois de Urbana-Champaign (Illinois, EE. UU.) Escribe asiduamente en medios como Clarín, La Nación y en su blog (www.piensoluegocomo.com)

El calor del verano está haciendo que tu cerebro trabaje más lento y peor, confirma la ciencia

4 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

El rescate de Eulalia a cargo de Desokupa, el reverso de la PAH que desahucia por encargo

Todo lo que necesitas saber sobre la avispa asiática para no morir este verano

España va a cerrar las centrales térmicas y las nucleares al mismo tiempo. Es una mala idea

CompartirEl calor del verano está haciendo que tu cerebro trabaje más lento y peor, confirma la ciencia

121
TWITTER
EMAIL
16 Julio 2018 – Actualizado 18 Julio 2018, 22:00
MOHORTE@mohorte
Pese al persistente mito popular, el verano puede ser un lugar horrible, algo particularmente cierto para todos aquellos que continúan trabajando entre finales de junio y principios de septiembre. A la desbandada generalizada en oficinas, redacciones y centros de ocio hay que sumar el inevitable, plomizo calor. Altas temperaturas que no sólo se filtran en nuestro cuerpo y producen toneladas de sudor y agotamiento, sino que también lastran las funciones de nuestro cerebro.
¿Cómo? Ralentizando su funcionamiento. El calor está haciendo, con toda probabilidad, que tus funciones de cálculo, de escritura o de pensamiento sean menos eficientes de lo que acostumbran. Es la conclusión a la que ha llegado un estudio realizado por la Universidad de Harvard en el que se comparó el desempeño intelectual de dos grupos de estudiantes de Boston durante una insoportable ola de calor. Unos contaban con aire acondicionado en las habitaciones, otros no.
¿Qué pasó? Que aquellos que respondían a las preguntas diseñadas por el equipo de investigación en las habitaciones más frescas lo hacían con mayor eficiencia y velocidad que sus compañeros. La muestra tenía que enfrentarse a dos tests (desde sus teléfonos) diarios durante doce días. Como explica el director del trabajo, Joen Allen, en NPR, los estudiantes encerrados en las habitaciones-horno acertaron un 10% menos que sus pares, y erraron los test algorítmicos un 13% más.
¿Por qué? Allen se sirve de la parábola de la rana dentro de la cazuela para explicar el efecto del calor en nuestro cerebro: lento, progresivo e imperceptible, pero letal. El estudio buscaba rellenar el hueco dejado por la ciencia en la investigación de la temperatura de los edificios en el rendimiento escolar o laboral. La ausencia de refrigeración y, ante todo, las altísimas temperaturas tienen un efecto claro en nuestras capacidades. El calor derrite nuestra productividad y agilidad mental.
¿Sabemos más? Hay otros estudios que han determinado con anterioridad cómo determinado umbral de temperaturas pueden provocar que los alumnos aprueben o suspendan un examen con mayor probabilidad. Lo mismo vale para el trabajo de cualquier oficina: más calor, se cree, provoca que los empleados trabajen menos. Es el mismo argumento que llevó a los colegios a imponer los periodos de vacaciones más largos durante los meses estivales: el calor se resiente.
¿La temperatura ideal? Aproximadamente 22 ºC, si hacemos caso a otros estudios. A partir de 26 ºC nuestro cerebro comienza a desconectar (con una caída de la productividad del 9%). Lo mejor en las circunstancias estivales es disponer de espacios más acondicionados: otro trabajo ilustró cómo los empleados de edificios con certificado ecológico y bien ventilados superaban en rendimiento a aquellos que no disfrutaban de sus ventajas. Agua, temperatura idónea y mucha paciencia: las recetas para que tu cerebro continúe laborando en las tediosas condiciones del verano.

ORDENADORES
Sobre gatos, qubits y teleportación: el extraño mundo de la computación cuántica
POR @ALVY — 17 DE JULIO DE 2018

Holly Cummins ha terminado de publicar una serie de tres artículos titulada Cats, Qubits, and Teleportation: The Spooky World of … (Gatos, qubits y teleportación) en InfoQ en la que explica de forma breve y bastante concisa todo lo básico que se necesita saber sobre computación cuántica: algo que hace un par de décadas ni soñábamos con que existiera y que hoy en día contratas «en la nube».
Estas son las tres entregas:
Quantum Computation (Part 1)
Quantum Algorithms (Part 2)
Quantum Computation Applications (Part 3)
El primer capítulo es una introducción rápida (todo lo rápido que puede ser eso) a la mecánica cuántica, en especial a conceptos como la cuantización, la dualidad onda-partícula, el espín, la superposición, el entrelazado y la decoherencia, además de algo sobre «rarezas» como la consciencia o los universos múltiples –ahí es donde entra en juego el famoso gato. También se explica cómo funciona la teoría de la información cuántica.

Ya en la segunda parte se habla de los algoritmos que se pueden realizar con computación cuántica. Está la teleportación, la factorización (y el famoso algoritmo de Shor) y la simulación de sistemas cuánticos. También hay algoritmos de búsquedas, los problemas de colisiones y el famoso problema del viajante. También se habla un poco de aprendizaje automático y de la velocidad de los cálculos cuánticos y sus límites.
La tercera y última parte se refiere a las aplicaciones prácticas de la computación cuántica, para quienes no sean amigos de experimentar con gatos o de adivinar con gran esfuerzo que 35 = 5 × 7. Primero explica hasta dónde sirven los ejemplos del capítulo anterior y luego entra en las ciencias naturales, los problemas de tipo práctico que tienen todas las implementaciones y cómo se podrían resolver – algo todavía en investigación. Se habla de criptografía cuántica, del hardware cuántico del futuro, de la tolerancia a fallos, de la nube y de la compresión conceptual. Finalmente se habla de la ventaja cuántica (supremacía cuántica): ese mágico momento en que los computadores cuánticos sean más fiables y poderosos que los ordenadores actuales, dando lugar a una «nueva era» – algo que no se sabe todavía cuándo sucederá.

España va a cerrar las centrales térmicas y las nucleares al mismo tiempo. Es una mala idea

72 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

¿De verdad es México el segundo país más peligroso del mundo? Lo que dicen los datos

Tras revelar datos de la víctima de La Manada, las empresas se están marchando de Forocoches

La historia negra de Diogo Alves, el asesino en serie que acabó con su cabeza envasada en formol

Compartir
443
TWITTER
EMAIL
17 Julio 2018 – Actualizado 24 Julio 2018, 14:15
MOHORTE@mohorte
Era una de las grandes ideas del nuevo ejecutivo socialista en materia de energía: cerrar paulatinamente las centrales térmicas y dar carpetazo definitivo a la energía nuclear. Paso a paso, la agenda del ministerio dirigido por Teresa Ribero se va cumpliendo. Hoy mismo la ministra ha confirmado la intención del gobierno de enterrar la nuclear en España en 2028. Y al mismo tiempo, el gobierno ha anunciado sus planes para el cierre de siete centrales térmicas antes de 2020.
Parece una gran idea. Puede no serlo.
El dilema. España se enfrenta al mismo dilema que otros países: deshacerse de su dependencia al carbón y al ciclo combinado, altamente contaminantes y contribuidores netos al calentamiento global, sin mermar la oferta energética de país. Por el momento, la transición ha sido sostenida parcialmente por la certidumbre de la nuclear, cuyo porcentaje en el mix nacional asciende al 22%. Es la primera fuente de energía en España si diseccionamos el cómputo renovable (un 40% en 2016).
El problema, claro, es tan antiguo como la fisión del átomo: los residuos nucleares son una bomba de relojería sobre los que siempre recae una sombra de sospecha.
El plan. De ahí que las agendas verdes a menudo entrelacen tanto el cierre de las térmicas como el cierre de las nucleares. Es el caso de Ribero y el actual gobierno socialista. El fin programado de siete centrales de carbón (todas para 2030) coincide con la anunciada no renovación de licencias de todas las centrales nucleares que aún funcionan en la península. Para 2028, España habrá reducido sustancialmente su dependencia nuclear y térmica(aunque no la habrá erradicado).
El problema. Sin embargo, el planteamiento tiene algunas fallas consustanciales a la naturaleza actual de las renovables. Ni tienen la capacidad para sostener la creciente demanda eléctrica bajo todas las circunstancias ni aún somos capaces de almacenar la oferta sobrante cuando las condiciones sí son óptimas. Dicho de otro modo: sin el sostén de la nuclear, España tendría que recurrir a alternativas contaminantes y carasallá donde las renovables no llegaran (aka: carbón).
Los referentes. Esto no quiere decir que las renovables a corto o medio plazo puedan sustituir la demanda al completo de un país con las necesidades de España. En ocasiones puntuales, Dinamarca, Escocia o Portugal han funcionado sólo con solar, hidráulica o eólica. Pero el ejemplo más significativo es el alemán: cuando cerró todas sus nucleares tras el accidente de Fukushima su dependencia al carbón aumentó. Y con ella sus emisiones y sus niveles de contaminación.
Alemania es hoy un país que sigue tirando de térmicas para abastecer al 40% de su demanda. Las renovables, pese a su célebre política verde, no están llegando. China y su salvaje potencia solar instalada también ilustra las limitaciones actuales de la energía renovable.
La transición. ¿Cómo cuadrar el círculo? Es una medida que todos los gobiernos con vocación verde deben tomar. Quizá espaciando más el cierre de las instalaciones nucleares y permitiendo que la tecnología renovable evolucione antes de tomar la alternativa a la mayor parte de la producción. En España eso implicaría, probablemente, renovar licencias. Algo que numerosos partidos no están dispuestos a hacer por su poca popularidad electoral.

Cuidado con los estudios científicos que dicen cosas raras, raras
Ayer vi en Twitter que alguien difundía un enlace a un estudio publicado en el American Journal of Public Health, según el cual había quedado demostrado que las políticas de austeridad habían causado un aumento de muertes en España, entre 2010 y 2015, de 500.000 personas (¡una tragedia, según destacan los propios autores, mayor que la de la guerra civil!). La mortalidad ajustada por edad (es decir, calculada para una población con una estructura de edades estable), que había venido cayendo continuadamente entre 2000 y 2010, cambió bruscamente su tendencia en 2011, y llegó a ser en 2015 un 40% más de la mortalidad esperada (esta última, por lo que parece, calculada simplemente con una tendencia lineal de lo que había pasado entre 2000 y 2010).

A mí se me encendieron todas las alarmas, porque me parecía imposible que un cambio así hubiera pasado desapercibido. Busqué el texto completo (no es de acceso libre), y encontré no solo cifras que me seguían pareciendo muy raras, sino también afirmaciones causales categóricas: que el cambio de tendencia se podía atribuir a la austeridad, y no a ninguna otra cosa. Como si, por decir algo, el aumento del paro, previo en gran parte a las políticas de austeridad, no pudiera tener nada que ver.

La curiosidad me ha llevado esta mañana a hacer cuatro comprobaciones, en un ratito, que muestran que entre 2000 y 2015(periodo analizado en el artículo) la mortalidad ha seguido cayendo de manera continuada en España. Usando la estructura de edad de 2010, esta es la evolución de la mortalidad ajustada por la edad que obtengo:

La mortalidad cayó aproximadamente un 22% entre 2000 y 2010 y volvió a caer un 9% entre 2010 y 2016. En tasa anual, en el primer periodo bajó un 2,2% anual, aproximadamente, y en el segundo, un 1,5% anual. Ligera reducción del ritmo de caída. No, de ninguna manera, aumento espectacular de la mortalidad, como dice el artículo publicado.

No podía comprender de dónde salía semejante discordancia, hasta que he visto una referencia a una nota de prensa de la Sociedad Española de Salud Pública y Administración Sanitaria (SESPAS), que remite a otro artículo publicado en la propia revista, contestando al anterior, y explicando que el INE hasta 2010 usaba, para estandarizar las tasas a una estructura de edad dada, la de España en 1999, pero desde 2011 usa, por recomendación de Eurostat, la estructura de edad de Europa facilitada por Eurostat. Y eso explica el “salto” de los datos, de 2010 a 2011, de 700 a 893 fallecidos por 100.000 habitantes (los datos son distintos a los míos, puesto que yo he usado otra estructura de población, la de julio de 2010).

Los autores del segundo artículo dicen, con educada diplomacia, que los resultados del primero deberían ser tomados “with great caution” (con gran cautela). Si fueran menos educados dirían que el artículo es un disparate y que debería ser retirado. La verdad, a mí me extraña que no lo haya hecho la propia revista, viendo la magnitud de los errores que contiene.

Pero en fin, más allá del caso concreto, la moraleja es clara: las revistas científicas también pueden publicar trolas. Los filtros de las revistas intentan evitar que esto pase, pero no hay sistema humano perfecto, y por eso a veces seguirá sucediendo. Y por ello hay que tener máxima cautela cuando un solo artículo dice algo que contradice completamente lo que sabemos previamente, por cultura general, o por cultura científica sobre el área concreta. Muchas veces, la gran revelación será falsa o errónea. Y antes de publicitar a los cuatro vientos un hallazgo asombroso, mejor preguntar un poco por ahí. Tal vez hablando con expertos, o tal vez, como en este caso, simplemente consultando las bases de datos públicas del INE. Posiblemente en este caso la nota de SESPAS ha cumplido esa función, lo que explicaría que ningún medio importante, por lo que he visto, haya divulgado los resultados del primer artículo. Lo que no impide, claro, que alguna gente lo esté difundiendo por las redes sociales. Pero esa es otra batalla.

Qué pasa a nivel legal si Amazon ha puenteado la huelga con contrataciones ilícitas

20 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Más allá de la locura: así configuraron las fiebres del oro nuestro mundo moderno

Manuel Valls, el extranjero que ayudaría a Ciudadanos a luchar por la unidad de España en Barcelona

Una sentencia que es un terremoto: así ha reaccionado el mundo a la condena a La Manada

CompartirQué pasa a nivel legal si Amazon ha puenteado la huelga con contrataciones ilícitas

157
TWITTER
EMAIL
17 Julio 2018 – Actualizado 23 Julio 2018, 13:26
ESTHER MIGUEL TRULA@flamencastone
Estamos en temporada de Amazon Prime Day, uno de los momentos más jugosos para la empresa estadounidense, su segunda campaña de rebajas más rentable después del Black Friday. El mega almacén del centro de San Fernando de Henares (Madrid), con 1100 empleados indefinidos y aproximadamente otros 900 temporales, tiene convocada una huelga que están secundando mayoritariamente los empleados con mayor seguridad. Quieren recuperar y mejorar las condiciones del anterior convenio que el gigante del ecommerce les quitó en 2016 por haber caducado. Es una huelga internacional: centros logísticos de Polonia y Alemaniatambién se han unido.
Se estima que los diez centros españoles (de los que todavía Henares sigue siendo el más importante) recojan cientos de miles de pedidos estos tres días. Y sin embargo, y salvo en casos puntuales, no va a haber trastorno en su logística por esta huelga. Las compras de los consumidores van a llegar a tiempo.

CCOO de Madrid@CCOOMadrid
Tres días de #HuelgaAmazon, en San Fernando de Henares #Madrid, coincidiendo con el #PrimeDay. La multinacional pretende crear varias categorías salariales para un mismo trabajo @AmazonEnLucha
9:07 – 16 jul. 2018
121
152 personas están hablando de esto
Información y privacidad de Twitter Ads
Según han comentado las fuentes sindicales a varios medios de este país, hay indicios de que Amazon Spain Fulfillment, la filial española de la marca, ha incurrido en esquirolaje. Se habrían contratado a trabajadores externos para hacer las funciones de los huelguistas, algo que está prohibido.
Hay periódicos, como El Español, que directamente dan por bueno que Amazon ha contratado “a cerca de 600 empleados” extra para esta campaña en las últimas semanas. El Confidencial, más modesto, comenta que el miembro del comité de empresa y representante de CCOO afirma que “hay indicios” de que se han contratado a 350 temporales. Para Cinco Días, son 300. Según la versión oficial de Amazon, “la información relativa a la contratación adicional para suplir a los posibles huelguistas […] no se ajusta a la realidad”.
¿Se puede contratar a temporales durante una huelga?
“No es legal, contratar a través de ETT va contra el propio derecho a huelga”. Hablamos con Sergio Carrasco Mayans, abogado especializado en Derecho de las Nuevas Tecnologías y en Derecho Público y colaborador de Derecho en Red. “Ahora, los sindicatos entiendo que lo denunciarán ante un juzgado y éstos tendrán que ver realmente si es cierto que se ha infringido esta cláusula”, dice Carrasco.
El punto 6.5 del Real Decreto de Relaciones de Trabajo establece que “durante el transcurso de la huelga, el empresario no puede sustituir a los huelguistas por trabajadores que no perteneciesen a la empresa al tiempo de comunicarse la misma”. Así que si Amazon Spain Fulfillment confirmó estas contrataciones con posterioridad al aviso de huelga incurriría junto con la ETT en una infracción “muy grave”, según el artículo 19.3 de la LISOS al incurrir en el artículo 8 de la Ley de Empresas de Trabajo Temporal.
Incumplir estos preceptos podría conllevar multas de entre 6.251 y 187.515 euros por huelguista sustituido. Claro que habría que demostrar que se sustituyó a estos trabajadores y que lo hizo la empresa a la que dio servicio la ETT. Si, pongamos, contratase otra empresa distinta a Amazon Spain Fulfillment pero que operarse en el mismo centro, podría no haber problema.

Rafa Sanz@indvbio
De 1000 empleados/as fijos/as de la planta de Amazon en San Fernando de Henares, 985 han secundado la huelga.

La empresa ha contratado a 600 esquiroles a través de una ETT para reventar la #HuelgaAmazon. Pues nada, a los tribunales y a la inspección de trabajo.

y #BoicotAmazon
14:32 – 16 jul. 2018
4.856
4.954 personas están hablando de esto
Información y privacidad de Twitter Ads
Hay una complejidad añadida: ¿qué es contratar a sustitutos? Este centro tiene, de continuo, al menos un 25% de empleados temporales a través de ETT que, en la mayoría de los casos, andan renovando su contrato cada 15 días.
El problema es que el crecimiento de la empresa ha hecho que la fábrica tenga en ocasiones puntuales hasta un 60% de plantilla temporal, aunque vaya en contra del convenio del sector. Como decían otros compañeros, ayer mismo el centro de Henares tenía a 1100 fijos y 900 temporales, de los cuales ninguno de éstos últimos se arriesga a secundar la huelga, ya que sería renunciar a que vuelvan a contratarte.
Si los sindicatos denuncian, Amazon Spain Fulfillment tendrá que explicar cuántos temporales contrató después de la convocatoria de huelga, cuántos de ellos estaban previstos en función del incremento de pedidos del Prime Day y cuántos son renovaciones “automáticas”. Si, al margen de esto, los sindicatos son capaces de demostrar que Amazon contrató a temporales extra para suplir a los trabajadores regulares, habría problemas. Si como dice Amazon, no ha habido un incremento del equipo, no se enfrentarían a ninguna sanción.
¿Y desviar el trabajo a otros centros?
Además de la pelea de contratados, Amazon habría puenteado estos días el perjuicio causado por la protesta de los madrileños trasladando carga de trabajo a Barcelona. “Desde hace unas semanas que la empresa está desviando el trabajo hacia otros centros”, decían los sindicalistas a El País. La empresa también niega estos hechos en un comunicado que indica que la fábrica de Henares está funcionando con normalidad, aunque todos los periodistas trasladados al centro han constatado el bajo volumen de actividad del almacén.
Para Carrasco, “Este es un terreno más farragoso, porque la empresa puede regirse por la capacidad de reacción que tienen sus infraestructuras. Pueden alegar distintos motivos para trasladar las cargas de trabajo. Entonces, si se ha trasladado actividad a otro centro, habrá que ver cómo se ha hecho y por qué. No alegarán que forma parte de las protestas, claro, podrían decir que se ha optado por trasladar el trabajo de manera ordinaria”.
¿Puede Amazon castigar a los temporales?

CTXT@ctxt_es
En respuesta a @ctxt_es
Los trabajadores: “No hay otra manera: o con la patronal o con la clase obrera”. #HuelgaAmazon
14:01 – 16 jul. 2018
491
404 personas están hablando de esto
Información y privacidad de Twitter Ads
La empresa alega que tienen que contratar de forma estacional dependiendo del flujo de ventas, ya que, por ejemplo, en diciembre mueven casi la mitad de su volumen de negocio anual. Sin embargo, también se valieron de esta fórmula para purgar en la anterior convocatoria de huelga a los indefinidos que quisieron secundarla, al menos según denunciaron los sindicatos.
¿Se puede “echar” a quien no trabaja de forma indefinida dentro? En teoría, no. “Es una práctica ilegal, ya que estás causando un perjuicio en el trabajador por el mero hecho de secundar la huelga, pero el problema en estos casos es la prueba. Demostrar que se ha evitado renovarle por esta causa y no por otras, como suele ser habitual, igual que hay despidos por falta de rendimientos u otros motivos, aquí con casi total seguridad podrían alegar algo así”. Evidentemente, los empleados temporales están mucho más descubiertos que los indefinidos.
Amazon no está sola, pero sería un gesto extraño proviniendo de una empresa tan grande. “En las más pequeñas muchas veces sí que intentan saltarse el derecho a huelga mediante las contrataciones externas”, explica Carrasco, “se ve mucho en los servicios de seguridad como son de obras o de aeropuertos, por ejemplo. Lo importante es que los sindicatos lo denuncien para castigar estas infracciones, proteger a los trabajadores y desalentar a estas empresas para que no vuelvan a cometer algo así”.

Mae Jemison, la astronauta que quiso ampliar la visión que los extraterrestres tienen del mundo
Colaborador Invitado18JUL18

Al igual que la mayoría de las niñas y niños de su edad, Mae Carol Jemison había respondido la misma pregunta al menos un millón de veces. Podía “olerla” antes incluso de que la pronunciaran. Le llegaba con ver la cara de los adultos, cómo se inclinaban para mirarla a los ojos, sonreían con expresión bobalicona y se frotaban las manos, encantados de repetir por enésima vez aquella cuestión con voz de tiple desafinado:
¿Y tú Mae, qué quieres ser de mayor?
Quien formulaba la pregunta aquel día era la profesora. De pie, en el centro del aula, animaba a los alumnos a que uno a uno compartiesen sus vocaciones. Cuando le tocó el turno, Mae ya tenía la respuesta en la punta de la lengua. En realidad llevaba tiempo allí, lista -como un cohete en su lanzadera- para todo el que quisiera interrogarla sobre sus planes de futuro.
La niña se puso de pie, apoyó las manos en el pupitre y clavó sus enormes ojos castaños en los de la profesora.
Quiero ser científica.
¿Científica? -la maestra arrugó la nariz. Igual que si hubiese olido algo desagradable, pensó Mae. Luego dio un respingo- ¡Ah, quieres decir enfermera!
No, me refiero a ser un científico.
Durante sus años de colegio Mae Jemison (1956) ya intuía que algunas cosas no encajaban. No tenía sentido por ejemplo que su maestra del jardín de infancia se sorprendiera cuando ella decía que quería ser científica. Tampoco que todos aquellos cohetes que despegaban rumbo al espacio estuviesen siempre pilotados por el mismo tipo de astronautas: hombres blancos, de rostros rubicundos y la apariencia de padres de familia.
¿Y si había extraterrestres siguiendo a lo lejos el periplo de aquellos cohetes? ¿Qué impresión se llevarían de la Tierra? Desde luego la de que era un lugar aburrido, lleno de hombres de ceño fruncido, casi fotocopias unos de otros. Salvo el pequeño zoo de monos, moscas, orugas, tortugas, perros… que habían salido rumbo al espacio desde 1947, los únicos que se subían a las naves espaciales eran señores. ¿Por qué no mujeres? ¿Y por qué no afroamericanos? Y rizando el rizo… ¿Por qué no iba a hacerlo una joven afroamericana, como la propia Mae?
Durante años Mae rumió todas aquellas cuestiones. A la vez hizo cuanto estaba en su mano para darle en las narices a su incrédula profesora del jardín de infancia. Primero su tío la inició en los secretos de la antropología, la arqueología, la evolución y la astronomía. Después se interesó por la ingeniería biomédica. A los 16 ingresó en la Universidad de Stanford, de donde salió cuatro años más tarde con un título de ingeniera química y estudios afroamericanos bajo el brazo.
En 1977, estrenada la veintena, Mae ya había conquistado su sueño de niña. Era una científica. Quedaban aún por responder sin embargo las preguntas que se había planteado cuando en 1969 seguía con la nariz pegada al televisor los primeros saltos de Neil Armstrong por la superficie rugosa de la Luna.

Aún con la ropa impregnada del olor de las aulas de Stanford, la joven se matriculó en la escuela de medicina de Cornell, en Ithaca (Nueva York). Durante unos meses trabajó como voluntaria en un campamento de refugiados camboyanos en Tailandia y de allí dio el salto a Kenia en 1979. Dos años después obtenía su grado en Medicina, con el que empezó a trabajar primero en Los Ángeles y más tarde en África Occidental. En el continente negro Mae se sumó a las filas de Peace Corps y a la embajada de EE UU. Entre los proyectos en los que se embarcó destaca la investigación para el desarrollo de la vacuna contra la Hepatitis B.
Todos aquellos logros sin embargo sabían a poco a Mae -ahora la doctora Jemison-. Con 30 años decidió que era hora de que los extraterrestres ampliasen su concepto de quiénes habitan el planeta. Aunque desde su época de colegiala en Chicago la carrera espacial había ganado en diversidad -ya no era coto exclusivo de señores blancos- aún había camino por recorrer.
En 1983 había despegado rumbo al espacio el primer astronauta afroamericano: Guion Bluford, un joven ingeniero de Filadelfia que se embarcó en la misión STS-8. Tres años antes ya había surcado los cielos en una Soyuz el cubano Arnaldo Tamayo, el primer cosmonauta de ascendencia africana. Décadas atrás -en 1963- Valentina Tereshkova había abierto caminos al convertirse en la primera astronauta mujer al despegar desde el Cosmódromo de Baikonur. Pero… ¿Y las afroamericanas? Mae se propuso ser la primera en ceñirse el casco y subirse a una nave.
De regreso a EE UU, a finales de 1986, se convirtió en uno de los 15 escogidos para incorporarse a la NASA. Acceder a la prestigiosa agencia espacial no resultó sencillo. Mae tuvo que competir con cerca de 2.000 candidatos. Durante varios años trabajó en Cabo Cañaveral, hasta que la seleccionaron para sumarse a una misión conjunta entre EEUU y Japón.
Su aterrizaje en la NASA no coincidió con la mejor etapa de la institución. Poco antes -en enero de 1986- el transbordador Challeger se había desintegrado solo 73 segundos después de su lanzamiento. En el accidente murieron los siete tripulantes. Entre ellos, dos mujeres: Judith Resnik y Christa McAuliffe.
El 12 de septiembre de 1992 Mae logró su sueño: se subió al Endeavour en la misión STS-47 y se convirtió en la primera astronauta afroamericana. Durante ocho días -190 horas, en total- realizó experimentos como especialista en misiones científicas. A lo largo de su semana en el espacio estudió la ingravidez, los efectos del mareo o las células óseas. Según detalla la NASA, antes de regresar a tierra el equipo completó 44 experimentos conjuntos entre EEUU y Japón.
La doctora Jemison dejó la NASA en marzo de 1993. Desde entonces ha fundado compañías tecnológicas e imparte clases. En un guiño del destino a sus apuros en el jardín de infancia, hoy presta su nombre a una escuela de Detroit. “No permitas que nadie te robe tu imaginación, creatividad o curiosidad. Es tu lugar en el mundo, tu vida. Continúa y haz todo lo que puedas con ella. Haz que sea la vida que deseas vivir” -explicaba la exastronauta en noviembre de 2009 durante una conferencia que impartió ante estudiantes- “Nunca te veas limitado por la imaginación limitada de otras personas… Si adoptas sus actitudes, entonces la posibilidad no existirá porque ya la habrás cerrado.”
Este artículo nos lo envía Carlos Prego Meleiro. Carlos es un periodista gallego. Escribe tan cerca del mar que las olas de las Rías Baixas casi, casi pueden salpicar su teclado cuando lo aporrea. Desde hace años tiene la gran suerte de dedicarse a lo que más le gusta: escribir historias. Desde 2010 trabaja en el periódico Faro de Vigo. La principal razón de este artículo es la de dar a conocer su campaña Crowdfunding para sacar adelante el libro “Científicas que conducían ambulancias en la guerra y otras mujeres en la ciencia“.
En Científicas que conducían ambulancias en la guerra Carlos busca recoger episodios y pequeños destellos biográficos que nos acercan a algunas de las mentes más grandes la historia, desde Hipatia hasta Maryan Mirzakhani. Sus textos están escritos con aspiración literaria: de forma clara y accesible, pero sin renunciar a la originalidad. Lo que buscan es despertar en el lector la misma sed de saber que le inculcaron a él algunos de los grandes historiadores de la ciencia, como Isaac Asimov o John Gribbin. El volumen se compone principalmente de artículos, pequeñas píldoras para saborear y disfrutar con calma.
Carlos tan solo necesita un empujón para completar su crowdfunding en este enlace… ¡Anímate!

ay muchas razones para mantener sellada la tumba milenaria descubierta en Alejandría

22 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Más allá de la locura: así configuraron las fiebres del oro nuestro mundo moderno

La cueva de Tailandia representa todo lo que está mal con la visión del mundo de Elon Musk

Un vínculo muy especial: por qué perder a un perro es tan duro como perder a un familiar

Compartir
389
TWITTER
EMAIL
18 Julio 2018 – Actualizado 23 Julio 2018, 10:07
ESTHER MIGUEL TRULA@flamencastone
En unas obras de Sidi Gaber se ha encontrado por accidente, y a un puñado de metros del suelo, el sarcófago más grande hallado nunca en Alejandría. Es de granito negro, mide más de dos metros y medio de longitud y está aún sellado. No se ha abierto jamás en los más de 2.000 años que tiene. Los científicos no saben qué habrá dentro, suponen que por su envergadura será la tumba de algún acaudalado ciudadano egipcio, pero su es raro que se encuentre aislado, sin una gran tumba llena de riquezas a su alrededor. Han decidido abrirlo.
Y por supuesto, la reacción de Internet ha sido pedir que no se haga. No, no y no. Niet. Nope.

Neil Gaiman
✔@neilhimself
I know how this one goes…
ScienceAlert@ScienceAlert
A Massive, Black Sarcophagus Has Been Unearthed in Egypt, And Nobody Knows Who’s Inside http://zpr.io/6afXT
11:05 – 11 jul. 2018
8.701
1.910 personas están hablando de esto
Información y privacidad de Twitter Ads

BryanEdwardHill
✔@bryanedwardhill
DON’T.

DON’T DO IT.
ScienceAlert@ScienceAlert
A Massive, Black Sarcophagus Has Been Unearthed in Egypt, And Nobody Knows Who’s Inside http://zpr.io/6afXT
6:24 – 11 jul. 2018
8.191
2.497 personas están hablando de esto
Información y privacidad de Twitter Ads

Valerie Vza Complex
✔@ValerieComplex
En respuesta a @ScienceAlert
I’ve seen this movie 1000 times. Don’t open that shit
6:43 – 11 jul. 2018
1.097
81 personas están hablando de esto
Información y privacidad de Twitter Ads

Hija del tomate@ShoutsandBites
Deseando que lo abran y se libere tremendo virus letal que estuviera ahí latente y acabe con la humanidad!!
Mysterious Universe@mysteriousuniv
Egypt Will Open Giant Black Mystery Sarcophagus Despite Warnings – http://bit.ly/2zOEsl8

12:44 – 18 jul. 2018
112
51 personas están hablando de esto
Información y privacidad de Twitter Ads
La maldición del faraón: es en lo que piensan millones de personas ahora mismo. “La muerte golpeará con su miedo a aquel que turbe el reposo del faraón”, decía la inscripción de la tumba de Tutankamon que inició la arqueología egipcia moderna allá por 1922 de la mano de Howard Carter y aventura en la que murieron al menos ocho de los exploradores relacionados con su apertura (se cree que más) a lo largo de un par de décadas, algunas de ellas en extrañas circunstancias. Varios años después, se determinó que muchos fueron provocados por una bacteria concentrada por siglos en el sepulcro, claro que “bacteria mortal” puede ser perfectamente la forma en la que se manifiesta el conjuro endemoniado.
Un valle de muerte: los de Carter no estaban solos. Walter Brian Emery, otra de las figuras de la egiptología más reconocidas, murió trágicamente en 1971 tras años encargándose de las excavaciones de Sakkara. También un saqueador alemán cuya identidad no trascendió se enfrentó en 2007 a otra fiebre faraónica: robó una reliquia en el emblemático Valle de los Reyes, cerca de Luxor, y a su regreso empezó a sufrir unas terribles fiebres y fatigas que acabaron con su vida. Su hijo decidió entonces devolver el objeto para intentar dar marcha atrás al conjuro y que la maldición no se extendiese más.
Tenemos más que perder que ganar: sí, puede que descubramos tesoros y detalles que nos hagan aprender mucho de historia, más teniendo en cuenta que, tras décadas de saqueo, una tumba sellada es una rareza valiosísima. Pero, supersticiones aparte, también podría ser que con esta noticia estemos contribuyendo al reboot del Dark Universe o a una nueva entrega de La Momia, y nadie quiere eso.
La tumba de Alejandro Magno: se cree que la pieza pertenece al periodo temprano de los Ptólomeos, dinastía de faraones que gobernó entre el 305 y 30 antes de Cristo. Alejandro III fue, claro, el fundador de Alejandría. Murió en junio de 323 a. C. El tamaño del sarcófago, como han señalado, es de lo más inusual, y apunta a una figura importante. Si los cálculos de los expertos se han equivocado por un puñado de años, estaríamos ante el cadáver de una de las figuras más importantes de la historia.
Misión imposible: el gran sarcófago deberá ser levantado por una grúa y transferido a un sitio arqueológico para ser abierto y examinado. Se estima que el peso de este recipiente funerario sea de 30 toneladas, 15 de ellas sólo de la tapa.

¿Por qué no se usa el “Ojo de Halcón” en el fútbol?
IdeaSecundaria20JUL18
Como la mayoría de los lectores sabrán, el videoarbitraje (VAR) y el Ojo de Halcón son los sistemas que se utilizan en fútbol y tenis respectivamente, para ver ciertas jugadas repetidas y ayudar a tomar una decisión cuando la simple apreciación visual del árbitro no haya sido clara.
¿En qué consiste cada sistema? El VAR está compuesto por 12 cámaras colocadas estratégicamente en algunos puntos del terreno de juego, las cuales transmitirán su señal hacia una cabina de vídeo alejada del campo donde tres árbitros están monitorizando en todo el momento las acciones del partido a través de varios monitores. Por su parte, el Ojo de Halcón se compone de 10 cámaras situadas en la pista y conectadas a unos ordenadores que realizan los cálculos para conseguir el sitio exacto del bote de la bola.
Sistema de cámaras en el Ojo de Halcón
Olvidémonos de las faltas en el fútbol, y centrémonos en el seguimiento de la pelota. La razón de que haya tantas cámaras en los dos sistemas es para poder seguir los movimientos de la bola en todo momento y en distintas partes del campo de juego, de manera que no quede oculta por situarse uno o varios jugadores en medio. Ahora bien, si las definiciones son tan parecidas, ¿por qué no se usa el Ojo de Halcón también en el fútbol?
En tenis, las cámaras capturan a unos 60 fotogramas por segundo la posición de la pelota en cada instante. Empleando la triangulación de imágenes con las cámaras repartidas por la pista, las capturas son procesadas por un software, el cual se encarga de generar el mapa 3D de la pista y la trayectoria de la bola. Y esto es lo que se ve en televisión cuando un jugador pide Ojo de Halcón. Debido a que la pelota va muy rápido y puede estar oculta por el jugador, este software realiza predicciones según leyes físicas para poder predecir dónde estará la bola en ciertos momentos. Es esencial destacar que el Ojo de Halcón es una solución comercial de la empresa Sony, por lo que los algoritmos que se emplean para calcular la trayectoria de la bola no son públicos.
En fútbol, voleibol o baloncesto el cálculo de la estela de bola no es tan sencillo, ya que hay mucha más incertidumbre. No es lo mismo el movimiento de la pelota cuando está en posesión del jugador, el cual en muchas ocasiones es impredecible, que cuando la lanza o pasa a un compañero. Se entenderá enseguida con un par de ejemplos. Una pelota de baloncesto no sigue la misma trayectoria si realizamos con ella un lanzamiento balístico, que si la hacemos rotar sobre sí misma en el tiro (efecto Magnus). Lo mismo ocurre en el fútbol, y esos efectos al balón no se capturan bien con las cámaras. Podría decirse que el Ojo de Halcón realiza la predicción con cálculos físicos mucho más limitados en tenis que los que existen en otros deportes.
Sin embargo, la innovación tenística hace un flaco favor al público al hacer pensar que siempre es infalible y calcula a la perfección el punto de bote de la bola. Hay fallos, incluso a pesar de que se emplean filtros como el de Kalman o el de partículas para seguir mejor la bola. De hecho, Sony garantiza una precisión mínima de ±6mm. La realidad es que ningún sistema será capaz de llegar nunca a una exactitud total.
La razón es muy sencilla: en ciencia, al hacer cualquier medición cometemos errores, y siempre hay que indicar el margen de error con el que trabajamos. Eso lo entienden muy bien en el cricket, ya que su sistema de repetición de jugadas indica la incertidumbre a los espectadores cuando es necesario.
Hemos explicado hasta ahora dos sistemas que se basan en captación visual y de cálculos físicos para monitorizar la posición de una pelota en el deporte. Sin embargo, hay más sistemas en otras actividades. Por ejemplo, en robótica es muy habitual instalar cámaras infrarrojas alrededor de una sala y colocar en partes concretas del robot, unos pequeños marcadores detectables por infrarrojos. De esta manera, un programa de ordenador puede saber la posición y orientación del robot. Los más habituales se llaman sistema Vicon y Optitrack. Y si necesitamos una precisión menor, también podemos usar sensores Bluetooth para posicionar a un objeto móvil en un espacio.
Por ejemplo, este sistema Bluetooth se emplea en algunos centros comerciales para saber dónde y cuánto tiempo está el cliente en cada sección del supermercado. En este caso, el emisor de ondas acostumbra a situarse en el carro de la compra. La ventaja de esta solución es que consume muy poca energía.
Cuadricóptero y sistema Vicon

¿Qué es una máquina?
Colaborador Invitado21JUL18
Máquinas y sistemas mecánicos
Empecemos por lo más obvio: una máquina es un sistema mecánico, es decir, gobernado por las leyes de las interacciones físico-mecánicas (y por extensión, todas las leyes que gobiernan el universo material, por ejemplo las leyes de la química). Una polea o un motor son máquinas clásicas, pero también lo son una pila alcalina y un microprocesador, aunque no tengan piezas móviles. Ahora bien, ser un sistema mecánico, ¿es eso todo?
De acuerdo con esta noción de máquina, que solo considera los aspectos físicos o mecánicos, el Sistema Solar es una máquina. Pero, ¿lo es? Me parece bastante obvio que no: el Sistema Solar no es una máquina, porque no ha sido diseñado. Solo si pensamos que el Sistema Solar ha sido construido por una poderosa civilización extraterrestre (una hipótesis que tal vez no queramos descartar del todo), que ha calculado y ha establecido el tamaño del Sol y las órbitas de los planetas para que la zona habitable sea la que es, y entonces pueda surgir la vida en el planeta Tierra, etc., solo entonces el Sistema Solar sería una máquina, porque habría sido diseñado con vistas a un objetivo. En cambio, si no ha sido diseñado con un propósito determinado, entonces el Sistema Solar no es propiamente una máquina, aunque metafóricamente podamos referirnos a él como tal.
¿Es el Sistema Solar una máquina?
Es decir, el concepto de máquina comprende dos aspectos diferentes, pero inseparables: algo sujeto a leyes mecánicas y algo diseñado para un fin. Por eso resulta equívoco usar el término “máquina” para referirse a un “sistema mecánico no finalizado” (es decir, sin finalidad) tal como el Sistema Solar. Y también sería totalmente incorrecto omitir el aspecto de finalidad y decir que una máquina es un conjunto de elementos materiales que realiza acciones exclusivamente físicas, ya que el elemento omitido es absolutamente esencial. Aún más incorrecto sería pretender que el funcionamiento de la máquina es explicable solo en términos de las interacciones mecánicas entre sus componentes, sin tener en cuenta el “para qué” de esas interacciones. Lo primero para entender una máquina, mucho más importante que su estructura física, es su finalidad.
En esta línea, los diccionarios definen sabiamente la noción de máquina como “agregado de diversas partes ordenadas entre sí y dirigidas a la formación de un todo” (Real Academia Española), o como “estructura material diseñada para un propósito específico” (Oxford English Dictionary), etc. El punto clave está aquí en las palabras ‘dirigido’ y ‘diseñado’, que subrayan la naturaleza intencional de la máquina, es decir, el hecho de que tiene un propósito o intención. (Notemos, no obstante, que propiamente hablando ‘diseño’ es un término más amplio que ‘propósito’. El diseño abarca el propósito, pero también la estructura, la elección de materiales empleados, etc.)
Tener un propósito o intención no necesariamente implica ser consciente. Es obvio que un reloj o un termostato pueden tener un propósito sin necesidad de ser conscientes, puesto que ese propósito les ha sido impuesto desde fuera. El reloj no tiene ninguna intención voluntaria y consciente al decir las horas; somos nosotros los que interpretamos el movimiento del reloj en términos de la división convencional del paso del tiempo. Decir la hora es una interpretación del movimiento del reloj y, siendo una interpretación, corresponde a un acto mental que proviene de fuera del reloj mismo y ha sido implementado en él. Podemos decir con toda propiedad que el reloj dice la hora, pero no porque quiera conscientemente, sino porque es la materialización de un acto mental exterior a él, a saber, el propósito con el que ha sido construido. De la misma manera, un termostato no se da cuenta de que mide la temperatura; son el fabricante y el usuario quienes lo hacen: es aquí donde encontramos el propósito, la intencionalidad, el significado.
En definitiva, las acciones de una máquina no son exclusivamente físicas ni pueden explicarse exclusivamente como interacciones mecánicas: son acciones intencionales, acciones dotadas de significado, dirigidas a un propósito, que alguien ha establecido desde fuera de la máquina. Por eso es imposible entender una máquina sin entender su finalidad. Y, desde luego, una máquina no necesita ser consciente para tener un propósito y ejecutar acciones intencionales que sean significativas para una consciencia externa a ella.
Un experimento mental en el desván
Una de las tareas habituales a las que nos enfrentamos los profesionales de la ingeniería consiste en lo que denominamos el proceso de ingeniería inversa (reverse engineering); es decir, dado un artefacto, tratar de averiguar cómo funciona y para qué sirve (cuál es su propósito), con el fin de mejorarlo o, si es el caso, imitarlo. En un primer momento puede parecer que el tradicional método científico-experimental es adecuado para resolver esta tarea, pero una mirada más atenta revela que esto no es así. En efecto, descubrir para qué sirve un artefacto, es decir, su finalidad, es tanto como descubrir la intención con la que fue fabricado (o incluso la intención con la que es utilizado, que puede no coincidir con la primera: piénsese en tantos objetos que usamos como pisapapeles…).
Consideremos, por ejemplo, un artefacto de apariencia incierta que encontramos en un viejo desván [1]. Lo observamos atentamente, y descubrimos que tiene un movimiento cíclico con un periodo de 24 horas más un minuto, es decir, parece un reloj. Hasta aquí todo bien, esta observación de un movimiento regular está al alcance del método científico-experimental. Ahora bien, de esta observación no podemos concluir cuál fue la intenciónque tenía el fabricante que construyó tal artefacto. Lo que sí podemos hacer es proponer hipótesis sobre esta intención, entre las cuales se pueden sugerir al menos las tres siguientes: (a) la finalidad del artefacto era manifestar un movimiento cíclico con un periodo de 24 horas, pero resulta que por diversas causas el periodo es algo mayor, es decir, hay un funcionamiento defectuoso; (b) la finalidad del artefacto era manifestar un movimiento cíclico con un periodo de 24 horas más un minuto, de donde resulta que funciona perfectamente, pues ese es el periodo que manifiesta; (c) la finalidad del artefacto era una que no tenía nada que ver con el movimiento cíclico y que no se nos ha ocurrido todavía — si hay movimiento cíclico observable es pura casualidad, o efecto no intencionado del fabricante.
Un viejo desván es el sitio perfecto para encontrar artefactos de propósito desconocido
El punto clave es que no hay ningún experimento imaginable que sirva para determinar cuál de estas hipótesis es la correcta. La única forma de saber con certeza cuál era la intención del fabricante, y por tanto para qué sirve el artefacto, es preguntar al propio fabricante (una forma de preguntarle es leer el manual de instrucciones o atender a otras manifestaciones públicas de su intención). Puede ocurrir, incluso, que la finalidad del artefacto fuera ser regalado como motivo decorativo, por tanto su exactitud para medir el tiempo sería irrelevante.
No es posible determinar la función prevista y deseada de un artefacto a partir de la observación de su funcionamiento efectivo, precisamente porque la mera observación no puede distinguir el funcionamiento defectuoso del correcto. Es decir, el control de calidad, que es otra de las tareas primordiales de la ingeniería, solo tiene sentido una vez conocida la finalidad del artefacto en cuestión. Una máquina solo se entiende desde su finalidad –aunque no la cumpla–, y solo desde su finalidad se puede juzgar si funciona bien o mal. ¿Qué es un abrelatas que no funciona? Para conocerlo como abrelatas no basta examinar su funcionamiento, puesto que, precisamente, no funciona bien…
Un caso extremo lo constituyen las famosas máquinas de Rube Goldberg que hemos visto en innumerables comics, películas y anuncios publicitarios. Se trata de aparatos muy complejos que realizan una tarea muy simple de una manera muy indirecta y retorcida, pero que son comprensibles una vez que se conoce su finalidad, es decir, el propósito con el que fueron diseñadas.
La famosa servilleta auto-operada de Rube Goldberg
Otro ejemplo bastante claro lo tenemos en el software. Si los comentarios en un programa son tan importantes, es porque declaran la intención del programador con respecto a un fragmento de código, algo que a menudo no es tan fácil de comprender examinando el código del programa en sí, ni observando la ejecución del programa.
De todo esto podemos concluir que el método científico-experimental, en sentido estricto, es insuficiente para averiguar para qué sirve un artefacto, es decir, para hacer ingeniería inversa, por mucho que la ingeniería inversa sea una parte habitual del trabajo de un ingeniero. El método científico-experimental es, por sí mismo, insuficiente para definir, comprender y construir cualquier máquina.
El método científico, la finalidad y la tecnología
Contrariamente a una idea bastante extendida, el método científico-experimental no tiene la respuesta a todas las preguntas, en particular las preguntas acerca de la finalidad de los artefactos que construyen los ingenieros. En el ámbito de los artefactos, el mundo humano de las intenciones es tan real, o más, que el mundo de las relaciones físico-mecánicas. Para hacer buena ingeniería no basta con dominar las leyes de la naturaleza; la interpretación de la intencionalidad y el contexto del simbolismo de los artefactos son también esenciales.
Como decía antes, las acciones de una máquina no son exclusivamente físicas: son acciones intencionales, dirigidas a un propósito, y por eso resulta imposible entender una máquina sin entender su finalidad. Es más, la misma contraposición entre “acción física” y “acción intencional” es engañosa, puesto que todo artefacto humano implica ambos aspectos de forma perfectamente compatible. El funcionamiento de un artefacto mecánico, tal como una ratonera, consiste en una disposición de acciones físicas gobernadas por las leyes de la naturaleza, y al mismo tiempo un sistema de acciones intencionales —es decir, dirigidas a un propósito— diseñadas por el artífice: no son dos conjuntos diferentes de acciones, sino dos puntos de vista diferentes sobre el mismo conjunto de acciones. Por lo tanto, es imposible tener una comprensión adecuada del funcionamiento y existencia de una máquina sin comprender su propósito. Dicho de otra forma, es imposible entender qué es una máquina desde el reduccionismo del método científico-experimental (el cual excluye de partida el análisis de la finalidad); es imposible entender una máquina si la reducimos a sus aspectos físico-mecánicos.
Una ratonera obedece simultáneamente a las leyes físicas y a su propósito
Con esto no quiero decir que el método científico-experimental esté equivocado en su deliberada indiferencia hacia la finalidad, sino sólo que es insuficiente para entender cabalmente aquellas realidades caracterizadas por tener finalidad, como son los actos libres, y los productos de esos actos libres, los artefactos humanos. El método científico es perfectamente legítimo tal cual es, olvidadizo y desconsiderado con la finalidad; lo que no es legítimo es absolutizarlo, el reduccionismo. No pretendo desautorizar el método científico, sino tan sólo destronarlo de un lugar que no le corresponde. No debemos convertir el método científico en un absoluto, ni identificar el reino del conocimiento científico/objetivo con el reino de las relaciones naturales físico-mecánicas. Esto dejaría fuera de la ciencia, ni más ni menos, todo el campo de la ingeniería y la tecnología, el reino de las cosas artificiales. Como ya sugería el Premio Nobel de Economía Herbert Simon a mediados del siglo XX [2], es necesario reconocer y promover una verdadera ciencia de lo artificial que eleve el estatus del diseño y producción de artefactos al nivel de conocimiento objetivo, incluso si se aparta del modelo experimental clásico de la ciencia, por el simple hecho de incluir la consideración de finalidad.
Que los artefactos tienen finalidad es algo obvio y que admiten sin dificultad incluso gente con mentalidad a priori tan poco filosófica como los ingenieros. No es ese el punto, sino que esa finalidad no se descubre con el método científico entendido en sentido estricto, porque las explicaciones finalistas no son verificables ni falsables. Los experimentos científicos pueden decirnos lo que ocurre, y con qué frecuencia. Pueden establecer rigurosamente regularidades y leyes. Pero no pueden asegurar que esa regularidad responda a un diseño intencionado, ni cuál sea ese diseño. No podemos conocer con certeza el propósito de un artefacto, salvo interrogando a su artífice. Propiamente hablando, no puede haber evidencia empírica de que existe diseño.
Con esto no quiero decir que el razonamiento hacia atrás, hacia el diseño, sea ilegítimo; no quiero decir que no podamos conocer (quizás mejor decir “adivinar”) la finalidad, que no podamos hacer ingeniería inversa: ¡lo hacemos los ingenieros todos los días! Lo que quiero decir es que los experimentos no son el camino adecuado, suficiente, para lograrlo.
Todo lo dicho se resume en dos frases: es imposible entender lo que realmente es una máquina sin entender para qué sirve, su propósito, su finalidad. Y para entenderlo no basta el método científico-experimental.
Este artículo nos lo envía Gonzalo Génova, profesor de la Universidad Carlos III de Madrid. Aparte de mis clases de informática, también imparto cursos de humanidades en los que trato temas de filosofía de la tecnología y pensamiento crítico.
Además de usar las redes sociales de Naukas, si quieres comentar y debatir más a fondo puedes visitar mi blog De máquinas e intenciones (reflexiones sobre la tecnología, la ciencia y la sociedad), donde esta entrada estará disponible en un par de días. Para un desarrollo más técnico de las ideas expuestas aquí, ver la referencia [3].
NOTAS
[1] La idea de este experimento mental surgió hace tres años en el curso de un intenso debate en Naukas sobre La creación del mundo que sigue pendiente.
[2] Herbert A. Simon, The Sciences of the Artificial. Cambridge, Massachusetts: MIT Press, 1969.
[3] Gonzalo Génova, Ignacio Quintanilla Navarro. Discovering the principle of finality in computational machines. Foundations of Science. Published online 13 February 2018. El manuscrito está accesible desde mi página académica personal.
Créditos de las imágenes

Un vínculo muy especial: por qué perder a un perro es tan duro como perder a un familiar

53 COMENTARIOS
SUSCRÍBETE A MAGNET
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
Snapchat
Instagram
RSS
Flipboard

TE RECOMENDAMOS

Todo lo que necesitas saber sobre la avispa asiática para no morir este verano

El brutal futuro de los asientos de avión: casi de pie y a escasos centímetros de distancia

Bajo el comunismo vivíamos mejor: la ex-Yugoslavia es comparativamente más pobre hoy que en 1989

CompartirUn vínculo muy especial: por qué perder a un perro es tan duro como perder a un familiar

1817
TWITTER
EMAIL
21 Julio 2018 – Actualizado 25 Julio 2018, 02:20
THE CONVERSATION
Hace poco, mi mujer y yo pasamos por el peor momento de nuestras vidas: la eutanasia de nuestra querida perra, Murphy. Recuerdo que mantenía el contacto visual con Murphy, momentos antes de que dejase de respirar. Me miró con una adorable mezcla de confusión y confirmación de que todos estábamos bien porque estábamos allí con ella.
Cuando la gente que no ha tenido perro ve a sus amigos que tienen mascota llorar por su pérdida, normalmente piensan que están exagerando un poco, ya que “solo es un perro”. Sin embargo, los que aman a los perros saben la verdad: una mascota no es “solo un perro”.
Muchas veces, mis amigos me han confesado, sintiéndose culpables, que habían llorado más la pérdida de un perro que la de sus familiares o amigos. Un estudio ha confirmado que, para la mayoría de las personas, la pérdida de su perro es, en casi todos los casos, comparable a la pérdida de un ser querido. Lamentablemente, en nuestra cultura no hacemos ceremonias, no ponemos esquelas en los periódicos y no existe servicio religioso para la pérdida de nuestra mascota; evitando todo lo anterior nos sentiremos un poco menos avergonzados por demostrar en público que lamentamos su muerte.
Quizá, si fuéramos conscientes de lo fuerte e intenso que es el vínculo entre un amo y su mascota, aceptaríamos mucho mejor ese dolor. Eso ayudaría a los dueños de los perros a aceptar su muerte y a superarla.
Una unión única entre especies
¿Qué tienen los perros para que su vínculo con los humanos sea tan especial?
Para que los humanos lo sepan, han tenido que adaptarse a vivir con ellos durante los pasados 10.000 años, y lo han hecho bastante bien. Son los únicos animales que han evolucionado y se han convertido en compañeros y amigos. El antropólogo Brian Hare ha escrito Hipótesis de la domesticacióndonde explica que los perros pasaron de ser lobos grises a animales con habilidades sociales con los que interactuamos igual que lo hacemos con otras personas.
(Matt Nelson/Unsplash)
Puede que uno de los motivos por los que nuestra relación con los perros es más satisfactoria que con los humanos es que los perros nos dan un amor incondicional, sin críticas y positivo. Ya lo dice el dicho: “Voy a convertirme en el tipo de persona que mi perro cree que soy”.
No es casualidad. Han sido criados de manera selectiva para que estén pendientes de las personas. Una resonancia magnética muestra cómo el cerebro del perro reacciona con el mismo entusiasmo antes sus dueños que con la comida. Los perros reconocen a las personas y aprenden a interpretar las emociones de los humanos y sus expresiones faciales. Estudios científicos han indicado también que los perros advierten las intenciones de los humanos, intentan ayudar a sus amos e incluso evitan a las personas que no colaboran con sus dueños o que no los tratan bien.
No es de extrañar que los humanos respondan positivamente a este afecto, a esta ayuda y a esta lealtad. Mirar a un perro puede hacer que las personas sonrían. Los dueños de los perros tienen mayor bienestar y son más felices, de media, que las personas que tienen gatos o que no tienen ninguna mascota.
Como un miembro de la familia
Nuestro gran cariño hacia los perros se menciona en un estudio recientesobre “equivocarse de nombre”, es decir, cuando llamamos a alguien por otro nombre. Como cuando los padres se equivocan llamando a uno de sus hijos por el nombre de otro. Pasa lo mismo cuando confundimos el nombre de la mascota con uno de los nombres de los miembros de la familia, lo que indica que el nombre del perro se ha asociado con el mismo grupo cognitivo que contiene al resto de miembros de la familia. Curiosamente, con los gatos rara vez pasa esto.
No hay ni que decir lo mucho que echan de menos los dueños a sus perros cuando no están con ellos.
(Marcus Cramer/Unsplash)
La psicóloga Julie Axelrod afirmó que la pérdida de un perro es tan dolorosa porque los propietarios no están perdiendo solo a una mascota. Puede significar la pérdida de un amor incondicional, de un compañero que les brinda seguridad y comodidad, y puede que haya protegido a ese ser como a un hijo.
La pérdida de un perro puede alterar también gravemente la rutina del propietario, mucho más que si hubiera perdido a un pariente o a un amigo. Para los dueños, sus horarios diarios, incluso en vacaciones, pueden girar en torno a las necesidades su mascota. Los cambios en el estilo de vida y en la rutina diaria son unos de los principales causantes del estrés.
Según una encuesta reciente, muchos de los que han perdido a sus mascotas han creído ver o escuchar el movimiento, la respiración o el llanto de su mascota fallecida. Esto suele pasar poco después del fallecimiento, sobre todo a los dueños que estaban muy unidos a su mascota. Es cierto que la muerte de un perro es terrible. Pero los dueños están tan acostumbrados a la presencia reconfortante y sin críticas de sus compañeros caninos que, muy frecuentemente, acaban adquiriendo uno nuevo.
Sí, echo de menos a mi perra, pero estoy seguro de que volveré a pasar por esto otra vez dentro de unos años.
Imagen: Patrick Hendry/Unsplash
Autor: Frank T. McAndrew, profesor de psicología en el Knox College.
*Este artículo ha sido publicado originalmente en [The Conversation](Autor: Hibai Lopez-Gonzalez, Investigador postdoctoral, Universidad de Deusto. Este artículo ha sido publicado originalmente en The Conversation. Puedes leer el artículo original aquí.). Puedes leer el artículo original aquí. *

¿Por qué los inmigrantes de EEUU tienen menos enfermedades mentales que los estadounidenses?

5 COMENTARIOS
SUSCRÍBETE A XATAKA CIENCIA
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
RSS
Flipboard

TE RECOMENDAMOS

El día que se dio 3.000 libras a homeless para que los gastaran como quisieran

Si triunfas en la vida seguramente no sea ni por tu talento ni tu inteligencia

Lo que crees sobre el cambio climático depende mucho de tu ideología política

Compartir¿Por qué los inmigrantes de EEUU tienen menos enfermedades mentales que los estadounidenses?

106
TWITTER
EMAIL
21 Julio 2018 – Actualizado 24 Julio 2018, 21:34
SERGIO PARRA@SergioParra_
Utilizando la Encuesta Epidemiológica Nacional sobre Alcohol y Condiciones Relacionadas y entrevistas personales, un nuevo estudio encuestó a más de 36.000 inmigrantes descubriendo algo sorprendente y contraintuitivo: que los inmigrantes de Estados Unidos tienen menores tasas de problemas de salud que los propios estadounidenses.
En concreto, el estudio halló menor probabilidad de experimentar ansiedad, trastorno bipolar, depresión y trastornos relacionados con el trauma.
Inmigrante saludable
A priori, uno podría pensar que el estrés de mudarse a un nuevo país, establecer una nueva vida y aprender una nueva cultura puede constituir un desafío a la salud mental de un inmigrante, porque todo ello es de todo punto estresante. Sin embargo, las personas inmigrantes son precisamente las más saludables y mentalmente duras, las que se atreven a enfrentarse al desafío.
Según esta hipótesis, llamado del inmigrante saludable, las personas que están dispuestas a migrar, y que pueden hacerlo con éxito, forman parte de un subconjunto excepcionalmente saludable y psicológicamente resistente.
Esencialmente, los inmigrantes parecen ser más saludables porque solo los saludables, en general, son los capaces de emigrar. Las personas poco saludables carecen de la capacidad o el deseo de abandonar sus países de origen, mientras que las personas más sanas que voluntariamente deciden inmigrar resuelven mejor el estrés de hacerlo y son más resistentes mentalmente en general.
También es probable que las barreras logísticas y financieras a la inmigración impidan que las personas enfermas lleguen a los Estados Unidos. De hecho, cuando se eliminan estas barreras, las tasas de trastornos mentales en los inmigrantes tienden a aumentar a los niveles de los estadounidenses. Los puertorriqueños, por ejemplo, pueden viajar libremente a los Estados Unidos sin pasar por la inmigración. Como resultado, tienen niveles comparables de enfermedades mentales como individuos del continente.

La encuesta utilizada para recopilar la mayor parte de los datos no distinguía entre los tipos de inmigrantes entrevistados, por lo que este estudio no pudo comentar las diferencias específicas entre los migrantes voluntarios (trabajadores, personas que habían inmigrado para estar con la familia, etc.) y migrantes involuntarios (refugiados y solicitantes de asilo). Sin embargo, investigaciones previas han demostrado que los refugiados experimentan niveles más altos de trastornos que los inmigrantes no refugiados.
Aclimatación cultural
Sin embargo, el estudio también reconoce que otros factores pueden estar en juego cuando se trata de la salud mental de los jóvenes inmigrantes. Un factor notable es la aclimatación cultural. ¿Son más saludables los que mejor se adaptan a la cultura que les hospeda o es al revés?
Al parecer, los inmigrantes que se sumergen más en su cultura adoptiva experimentan peores resultados de salud que aquellos que están menos adaptados a la misma. Por ejemplo, los hispanos de Estados Unidos que en su mayoría hablan español y se asocian con otros hispanohablantes son menos propensos a consumir drogas y comer comida rápida, y es más probable que sean físicamente activos.
Si se adaptan más a la cultura, también entran más en contactos con ciudadanos del país, lo que aumenta la probabilidad de discrminación, sea ésta explícita o implícita, lo que aumenta las tasas de estrés. También al tener competencias lingüísticas más altas, al parecer, son capaces de detectar con más frecuencia posibles matices en la discriminación de los estadounidenses.
Naturalmente, estos resultados aparecen en Estados Unidos. Está todavía por ver si estos fenómenos se repiten en otros países, o si la procedencia del migrante es decisiva para alterar algún valor.

Estado de la misión ExoMars 2020: Roscosmos y la ESA en la superficie de Marte
Daniel Marín21JUL1860 Comentarios
El 24 de julio de 2020 debe despegar la misión ExoMars 2020 a bordo de un cohete Protón-M desde Baikonur. Esta misión ruso-europea, que debía haber sido lanzada en 2018, debe investigar el pasado de Marte y su habitabilidad usando para ello un taladro que, por primera vez, permitirá explorar el subsuelo de Marte a dos metros de profundidad. Pero para que el rover ExoMars 2020 de 345 kg lleve a cabo sus investigaciones, primero debe aterrizar en el planeta rojo. Y el encargado de poner en la superficie de Marte la gran esperanza blanca europea de la exploración marciana será la plataforma de superficie de Rusia. Para este país ExoMars 2020 supone la vuelta a Marte después de décadas de olvido y los últimos fiascos de las misiones Mars 96 y Fobos-Grunt.
ExoMars 2020 (NPO Lávochkin).
ExoMars 2020 es una sonda compleja de 2.900 kg formada por dos elementos principales, el CM (Carrier Module) y el DM (Descent Module). El CM, de construcción europea, es la etapa de crucero que se encarga de controlar y dirigir la nave en el trayecto hacia Marte. El DM, construida por Rusia y la ESA, es la cápsula de descenso. El DM está formado a su vez por la cápsula con los escudos térmicos (heat shield y backshell), la plataforma científica o de superficie de descenso (SP o PP) y el rover propiamente dicho. La contribución rusa a la cápsula y la plataforma de superficie están a cargo de la empresa NPO Lávochkin.
Elementos de ExoMars 2020 (NPO Lávochkin).
Configuración de lanzamiento y de crucero de ExoMars 2020 (NPO Lávochkin).
Dimensiones de ExoMars 2020 (ESA).
Distintos elementos de ExoMars 2020 (NPO Lávochkin).
El retraso de la misión de 2018 a 2020 se debió en buena parte a la falta de dinero por parte de la ESA para financiar el proyecto, pero a Roscosmos le ha venido muy bien el retraso con el fin de poner a punto los sistemas de la sonda. En 2016 el consejo de ministros de la ESA tuvo que añadir 340 millones de euros al proyecto para que siguiese adelante. En junio del año pasado se congeló el diseño del sistema de propulsión y otros elementos de la sonda de cara a fijar la fecha de lanzamiento. En mayo de este año el programa pasó por la revisión CDR (Critical Design Review) que congeló el diseño de la mayor parte de elementos del vehículo. La cápsula de descenso ha sido construida conjuntamente por Lávochkin y Thales Alenia Space de Italia.
Modelo técnico de la plataforma de superficie de ExoMars 202 (NPO Lávochkin).
Pruebas del sistema de propulsión de la plataforma PP (NPO Lávochkin).
Pruebas del radar de superficie (NPO Lávochkin).
Mientras, el resto de elementos sigue progresando a buen ritmo. En la sede de NPO Lávochkin de Moscú se ha construido un modelo técnico de la plataforma de superficie (o PP, «plataforma de aterrizaje» en ruso) y se ha integrado con la cápsula del DM. También se han realizado las pruebas del crítico radar de superficie que se encargará de gestionar el encendido de los motores de frenado. Recordemos que para aterrizar en Marte es necesario usar algún sistema complementario a los paracaídas, como cohetes y/o airbags, ya que la atmósfera es demasiado tenue. En este sentido, también se han realizado pruebas de encendido de varios de los motores de frenado de la PP y del despliegue de las rampas de descenso para el rover hasta la superficie. La plataforma de superficie también incluye varios instrumentos científicos que están en su fase de pruebas final.
Elementos del DM de ExoMars 2020 (NPO Lávochkin).
Pruebas de la rampa de descenso del rover (NPO Lávochkin).
En cuanto al rover en sí, el corazón de la misión, la ESA ya ha construido el ejemplar de pruebas STM (Structural Thermal Model), el primero de los tres rovers que se ensamblarán como parte del programa y que sufrirá todo tipo de «perrerías» (vibraciones, cambios de temperatura, vacío, etc.). El último, obviamente, será el ejemplar de vuelo que viajará a Marte, mientras que el segundo será una copia idéntica que se quedará en la Tierra para realizar pruebas por si surge algún problema durante las operaciones en el planeta rojo. Por cierto, si crees que el hecho de que el rover no tenga nombre propio puede dar lugar a confusión —la carga científica se llama Pasteur, pero no es el nombre del vehículo—, tranquilo, porque la ESA ha decidido crear un concurso público para bautizarlo como es debido.
Rover ExoMars 2020 (ESA).
Partes del rover ExoMars 2020 (ESA).
Rover ExoMars 2020 (ESA).
Ejemplar STM del rover ExoMars 2020 (ESA).
Otra vista del STM (ESA).
En marzo se probó en Kiruna (Suecia) el despliegue del paracaídas principal, de 35 metros de diámetro y 70 kg, usando un helicóptero. A diferencia de las misiones marcianas de la NASA, ExoMars 2020 se caracteriza por el uso de cuatro paracaídas en vez de uno (de construcción rusa, por cierto). El primero, el paracaídas piloto, se desplegará a velocidades supersónicas (Mach 1,8 – 2,1) y estabilizará la nave de cara a la apertura del paracaídas principal, formado a su vez por dos paracaídas que se abrirán sucesivamente (el segundo, o paracaídas principal, ayudado por el segundo paracaídas piloto). Este sistema permite diseñar paracaídas más eficientes para cada rango de velocidades, a costa, eso sí, de aumentar el peso y la complejidad.
Pruebas del despliegue del paracaídas principal de ExoMars 2020 (ESA).
Secuencia de descenso de ExoMars 2020 (ESA).
Secuencia de despliegue de los paracaídas de ExoMars 2020 (ESA).
ExoMars 2020 aterrizará en Oxia Planum —relativamente cerca de Meridiani Planum, donde aterrizó Opportunity— o Mawrth Vallis, uno de los lugares candidatos para la misión Mars 2020 de la NASA. Los dos sitios destacan por la presencia de minerales relacionados con la presencia de agua líquida en el pasado. La decisión final sobre el lugar de aterrizaje se tomará a finales de este año. Una de las grandes preocupaciones de los encargados del proyecto es el lanzador usado para la misión, el Protón-M/Briz-M ruso. Este cohete lleva acumulada una racha de fallos relativamente elevada que ha ahuyentado a los clientes comerciales, lo que a su vez se traduce en una falta de misiones de aquí a 2020. Y sin suficientes misiones comerciales no se puede garantizar que haya bastantes lanzamientos como para recuperar la confianza en este veterano vector antes del despegue de ExoMars 2020. El Protón forma parte de la contribución rusa al programa ExoMars, una contribución que fue esencial para salvar el programa después de la retirada unilateral de la NASA durante la pasada década. Hace dos años la misión ExoMars 2016 despegó exitosamente rumbo a Marte usando este mismo cohete.
ExoMars 2020 (ESA).
Otra vista de la plataforma PP (NPO Lávochkin).
Tras años de retrasos y sobrecostes, la ESA y Roscosmos se juegan mucho con ExoMars 2020, sobre todo después del éxito agridulce de ExoMars 2016. Esta última misión, con una contribución rusa más modesta, está formada por la sonda TGO (Trace Gas Orbiter), actualmente alrededor de Marte, y la sonda de aterrizaje Schiaparelli, que, como todos sabemos, sufrió un aterrizaje un tanto brusco que dejó un bonito cráter en la superficie marciana. ExoMars 2020 será la oportunidad para que ambas agencias espaciales logren, al fin, situar con éxito una sonda sobre la superficie de Marte.

El fuego bacteriano
Colaborador Invitado22JUL18
Manzano afectado por fuego bacteriano
Imaginemos el aspecto de un fragmento de madera sometido a una llama…de color negruzco y sensación de quebrar fácilmente. Precisamente ese es el aspecto de las plantas que sufren la enfermedad denominada como fuego bacteriano, nada que ver con una combustión real, pero con consecuencias mortales para las plantas contagiadas.
Erwinia amylovora es la bacteria causante del fuego bacteriano de las rosáceaes, enfermedad de cuarentena en la Unión Europea. Esta bacteria es originaria de Estados Unidos y afecta a diferentes especies de plantas dentro de la familia Rosaceae, siendo las de mayor importancia agrícola las pertenecientes al grupo de los frutales de pepita, como el manzano, el peral, el membrillero o el níspero. La primera vez que se identificó la presencia de la bacteria en el territorio español fue en una plantación de manzanas para sidra, en Guipúzcoa en 1995, apareciendo focos por casi todas las comunidades autónomas en años posteriores.
Distribución mundial de Erwinia amylovora
La importancia que la enfermedad presenta a nivel mundial redunda en su elevado impacto económico, al afectar frutales ampliamente consumidos, la rápida migración de la bacteria en el interior de la planta, su capacidad de diseminación e infección, junto con la ausencia de métodos eficaces de lucha frente a ella. En la actualidad, se han descrito focos de la enfermedad en toda Norteamérica, casi toda Europa, Oriente Medio, el norte de África y Nueva Zelanda.
El ciclo de vida de E. amylovora va en consonancia con el desarrollo estacional del vegetal. La bacteria infecta a la planta generalmente en primavera, a través de las flores o pequeños brotes en desarrollo, al contagiarse de plantas cercanas por insectos, pájaros, viento, lluvia o herramientas de labranza contaminadas. A partir de ese momento, la bacteria comienza a infectar todos los tejidos de la planta, desplazándose hacia la base del tallo y produciendo la muerte de todas las células a su paso. Además, todos los órganos infectados producirán exudados llenos de bacterias, fuente de nuevos contagios. Cuando llega el otoño, las bacterias se asientan en los tejidos leñosos del tallo, formando grandes heridas longitudinales, denominadas chancros, donde surgirán los exudados contagiosos de la primavera siguiente.
Los síntomas que presentan las plantas afectadas por la enfermedad incluyen una masiva necrosis de flores, frutos, hojas y ramas, derivando en el característico aspecto de quemado que le da nombre, pudiendo también presentar exudados en todos los órganos. En primer lugar, se observa el “quemado” de flores y brotes, curvándose estos últimos en forma de cayado de pastor, desde ahí la necrosis avanza por las hojas y el resto de las ramas, hasta alcanzar el tronco leñoso.
Flor de manzano destruída por el fuego bacteriano, y fruto con exudados típicos de la enfermedad
Como ejemplo, en la legislación vigente en la comunidad autónoma de Castilla y León, si se identifica una parcela contaminada con fuego bacteriano deben seguirse los siguientes pasos: 1) establecer una zona de seguridad de 1 km de radio, donde se efectuarán seguimientos de las plantas susceptibles y se prohibirá su salida; 2) se arrancarán y destruirán de forma inmediata todos los árboles y plantas con cualquier tipo de síntoma relacionado con la enfermedad (sin necesidad de un diagnóstico bacteriológico), además de todas las plantas susceptibles cercanas.
En resumen, el fuego bacteriano representa una enfermedad vegetal de gran importancia a nivel mundial, muy contagiosa e incluida en el grupo de cuarentena, provocando su identificación en una parcela un grave problema para el agricultor, al estar obligado a destruir muchos individuos productores.
“La ciencia que no es divulgada hacia la sociedad es como si no existiera”
Este artículo nos lo envía Jorge Poveda Arias, Graduado en Biología y trabaja en una empresa dedicada a la cría a nivel industrial de insectos con fines de alimentación. Además, realiza una tesis doctoral en el estudio de las interacciones planta-microorganismo. Entre sus campos de interés, destacan la biotecnología, la agricultura, la alimentación, la microbiología, la entomología y la divulgación científica en general, dentro de los cuales presenta una variada formación, destacando un Máster Universitario en Agrobiotecnología, un Máster Europeo en Calidad y Seguridad Alimentaria, o diferentes Posgrados de Experto Universitario, en Biotecnología Alimentaria, Entomología Aplicada, Diagnóstico Molecular Ambiental y Divulgación Científica.

Se ríen de nosotros, sus súbditos
La restauración de la monarquía borbónica fue una decisión del dictador genocida Franco, tras el derribo a sangre y fuego del anterior régimen republicano legítimo. Era la segunda vez que, por la fuerza, se restauraba la dinastía de los borbones en España.
Esta decisión de Franco podría haber sido efímera si, tras su muerte, la llamada transición (irónicamente considerada modélica por algunos de sus protagonistas) hubiera discurrido como una verdadera ruptura de la sociedad española con uno de los períodos más nefastos de su historia. Pero la realidad que se impuso fue que el paso a un sistema democrático era posible únicamente si no eran puestas en cuestión algunas de las principales señas de identidad de la dictadura, y una de ellas era la monarquía encarnada en el designado por Franco como su sucesor, Juan Carlos Borbón Borbón, para el que el entonces jefe del estado nacional católico creó el pomposo título de Príncipe de España.
La monarquía fue por tanto la única opción posible para los que deseaban el fin de la dictadura y el paso a un nuevo estado democrático que situara de nuevo a España entre los modernos países europeos. Era democracia con monarquía o seguir con la dictadura por un tiempo indefinido.
El rey Juan Carlos no abjuró nunca públicamente de este evidente nexo de unión de su jefatura de estado con la anterior. No se le conoce pronunciamiento alguno en ese sentido, y no parece que dudara en conceder un título nobiliario con grandeza de España, el Ducado de Franco, a María del Carmen Franco y Polo, en atención a las excepcionales circunstancias y merecimientos que en ella concurren, un acto que atenta directamente contra cualquier mínima conciencia democrática.
No resulta extraño entonces que, desde el principio, se requiriera una protección especial de la monarquía para distanciarla de tan vergonzoso comienzo. La primera y más importante medida fue un pacto, no escrito, entre los principales medios de comunicación españoles para ocultar cualquier escándalo, pequeño o grande, que afectara a los miembros de la familia real, a la par que aparecían cotidianamente alabanzas, elogios y reportajes panegíricos de la familia real. Cualquier momento era bueno para contraponer el supuestamente ejemplar comportamiento de los residentes del Palacio de la Zarzuela en contraste con el exhibido por familias reales y presidentes de otros países europeos.
Es evidente que un pacto de silencio de este tipo repugna a cualquiera que confíe mínimamente en un sistema democrático, para el cual la libertad de prensa es uno de los pilares fundamentales. Pero el tiempo parece demostrar que contribuyó a ocultar supuestos comportamientos incluso delictivos del entonces rey Juan Carlos; algo que no resultaría extraño si los vemos como continuación de actitudes y comportamientos naturales durante la dictadura que llevó de nuevo al poder de los Borbones. Pero ya sabía Abraham Lincoln que no puedes engañar a todo el mundo todo el tiempo y la publicación de los primeros escándalos llevaron a una precipitada abdicación en favor de su hijo Felipe. El objetivo era repetir de nuevo una jugada completamente similar: colocar en la jefatura del estado una persona limpia de toda sospecha mientras todos los comportamientos execrables se apuntaban al anterior rey, que cargaba con todos los pecados a modo de chivo expiatorio.
Pero, por el agujero creado en ese pacto de silencio de los medios, siguen saliendo a la luz asuntos que revelan supuestos comportamientos delictivos: cuentas en Suiza, comisiones por intermediación en contratos del Estado, blanqueo de dinero, uso de la amnistía fiscal de Montoro, etc.
Lo natural, en cualquier país de tradición democrática, habría sido un escándalo de enormes dimensiones y la puesta en marcha de una investigación urgente por parte de las más altas instituciones. Pero lo cierto es que hemos avanzado poco. Los únicos partidos estatales que piden una investigación son Podemos e Izquierda Unida y, de nuevo, los principales diarios y cadenas de televisión pasan de puntillas por este asunto. El propio gobierno socialista considera que es un asunto ya antiguo que no afecta al actual jefe del estado, obviando que ser hijo del anterior es el único mérito aducido para llegar a serlo.
No podemos permitir que este asunto se termine olvidando. No les podemos dar la oportunidad de mentirnos otros 40 u 80 años. La monarquía debe asumir todas las responsabilidades que se deriven, judicial y políticamente, de la investigación de esos supuestos hechos criminales. Y la propia monarquía como institución deberá ser cuestionada por ello si hubiera lugar. No somos súbditos, que no se rían de nosotros.

Salud

El simple aroma del café parece incrementar nuestras habilidades matemáticas

0 COMENTARIOS
SUSCRÍBETE A XATAKA CIENCIA
Recibe un email al día con nuestros artículos:
SUSCRIBIR
Síguenos
Twitter
Facebook
Youtube
RSS
Flipboard

TE RECOMENDAMOS

Lo que crees sobre el cambio climático depende mucho de tu ideología política

Nuevo estudio en ratones revela por qué el ayuno ayuda a adelgazar tanto

El truco de los cinco minutos para combatir la procrastinación

Compartir
408
TWITTER
EMAIL
22 Julio 2018
SERGIO PARRA@SergioParra_
Que el café es el motor matutino del ser humano ya casi es un lugar común, y es cierto que la ingesta de cafeína aunmenta la velocidad de determinados procesos cognitivos. Lo que nunca se había probado hasta ahora es que el simple aroma a café podría incluso aumentar tales capacidades.
Concretamente, el aroma del café podría aumentar nuestra competencia en pruebas de matemáticas (la parte analítica de Graduate Management Aptitude Test, o GMAT) según una investigación realizada en Stevens Institute of Technology.
Placebo
El trabajo, dirigido por la profesora de Stevens School of Business, Adriana Madzharov, no solo resalta la fuerza oculta del aroma y el impulso cognitivo que puede proporcionar en las tareas analíticas, sino también la expectativa de que los estudiantes rindan mejor en esas tareas. Madzharov, con sus colegas de Temple University y Baruch College, ha publicado sus hallazgos en el Journal of Environmental Psychology.
En resumen, oler un aroma parecido al café, que no tiene cafeína, tiene un efecto similar al del consumo de café, lo que sugiere un efecto placebo del aroma del café. Los resultados sugieren que las expectativas sobre el rendimiento se pueden explicar por las creencias de que el aroma del café por sí solo hace que las personas estén más alerta y enérgicas.
Madzharov, cuya investigación se centra en el marketing sensorial y la estética, busca explorar si los aromas similares al café pueden tener un efecto placebo similar sobre otros tipos de desempeños. Por el momento, quizá deberíamos ir comprando ambientador con olor a café para instalarlo en nuestro lugar de trabajo.

Comienza la exploración del asteroide Ryugu
Daniel Marín23JUL1825 Comentarios
El pasado 27 de junio la sonda japonesa Hayabusa 2 llegó oficialmente al pequeño asteroide Ryugu. En ese momento dio comienzo la fase de exploración de este cuerpo menor del sistema solar. En una entrada anterior comentamos las vicisitudes del viaje de Hayabusa para alcanzar las proximidades de 162173 Ryugu desde el lanzamiento de la sonda en diciembre de 2014 y quedó patente que viajar hasta un asteroide cercano (NEO) de pequeñas dimensiones no es una tarea sencilla. Para empezar, ¿en qué momento sabemos que hemos llegado a un cuerpo con un campo gravitatorio tan minúsculo cuyo diámetro apenas alcanza un kilómetro? Pues de forma arbitraria. El equipo de Hayabusa 2 decidió en su momento que la sonda se acercaría primero a 20 kilómetros de distancia de Ryugu. Ese punto, alcanzado el 27 de junio, recibe el nombre técnico de BOX-A, por tratarse de un espacio con forma de cubo de 1 a 5 kilómetros de arista. El 16 de julio la sonda se internó por primera vez en el espacio conocido como BOX-C, una zona alargada de 1 kilómetro de ancho y 15 kilómetros de largo que permite acercarse al asteroide hasta solo 5 kilómetros, aunque no está previsto que la nave se aproxime tanto hasta el 1 de agosto.
Ryugu visto a 20 km de distancia el 30 de junio (JAXA).
Desde BOX-A Hayabusa 2 ha observado Ryugu con sus cuatro instrumentos principales: la cámara ONC, la cámara de infrarrojo cercano NIRS3, la cámara de infrarrojo medio TIR y el altímetro LIDAR. Ryugu ha resultado ser una pequeña pila de escombros formada por rocas y piedras de todos los tamaños. Aunque su forma es muy distinta, recuerda poderosamente al asteroide Itokawa, que fue visitado por Hayabusa 1. En principio podríamos pensar que no tiene nada de especial que dos asteroides cercanos de pequeño tamaño sean parecidos, pero no olvidemos que Ryugu es un asteroide de tipo C —o sea, rico en sustancias orgánicas—, mientras que Itokawa es un asteroide de tipo S —con una composición «rocosa»—. Se cree que los asteroides de tipo C, más numerosos, son restos mejor conservados de la formación del sistema solar, de ahí que Ryugu fuese seleccionado como el objetivo de Hayabusa 2. Sea como sea, Ryugu es el primer asteroide de tipo C de pequeño tamaño que visitamos de cerca, así que habrá que esperar a que la sonda de la NASA Osiris-REx se acerque a Bennu, otro asteroide cercano de tipo C, para poder comparar con fundamento. Probablemente los procesos de formación de asteroides pequeños a partir de la fragmentación de asteroides más grandes sean relativamente independientes de su composición.
En verde la zona BOX-A, donde llegó Hayabusa 2 el 27 de junio. En rosa BOX-C (JAXA).
Maniobras de la sonda a finales de julio de 2018 (JAXA).
Maniobras de la sonda en agosto (JAXA).
Ryugu en 3D rotando (JAXA, University of Aizu, University of Tokyo, Kochi University, Rikkyo University, Nagoya University, Chiba Institute of Technology, Meiji University and AIST.).
En las imágenes de Hayabusa 2 se aprecian numerosos bloques de roca repartidos por la superficie, incluyendo una enorme roca de 130 metros situada casi en el polo norte de Ryugu. Una de las primeras tareas del equipo de Hayabusa 2 ha sido crear un sistema de coordenadas de cara al estudio de Ryugu y para seleccionar los potenciales lugares de aterrizaje. La latitud resulta fácil determinarla a partir del eje de rotación, pero la longitud es un asunto distinto, ya que el punto de origen es por definición arbitrario. Los investigadores han elegido una roca solitaria cercana al ecuador para marcar el meridiano 0 de Ryugu y poder calcular la longitud de las diferentes características del terreno.
Roca que marca el meridiano 0 de Ryugu (JAXA).
Otra vista de Ryugu (JAXA).
El láser del LIDAR de Hayabusa 2 se está usando para levantar un modelo en tres dimensiones del relieve de Ryugu, un paso fundamental a la hora de calcular las pendientes y las variaciones locales de la aceleración de la gravedad en la superficie. Recordemos que Hayabusa 2 es una misión de retorno de muestras y está previsto que intente recuperar partículas de regolito de la superficie de Ryugu en al menos tres ocasiones. El primer intento tendrá lugar en septiembre u octubre, seguido por un segundo intento en febrero de 2019 y otro en abril o mayo. Este último aterrizaje se producirá en el cráter que dejará tras de sí el choque de un proyectil de cobre de 2,5 kg, lo que permitirá recuperar muestras a mayor profundidad que apenas hayan sido alteradas por el viento solar o los rayos cósmicos. No obstante, estas fechas son solo orientativas y dependerán de las características del terreno o los problemas que pueda encontrar la nave en el transcurso de su misión.
Modelo 3D de Ryugu (Kobe University, University of Aizu (shape model creation), Auburn University (video creation), JAXA).
Medidas del LIDAR en 300º y 60º de longitud (JAXA).
Para recoger las muestras Hayabusa 2 usará una especie de manguera que entrará en contacto con la superficie muy brevemente. Justo en ese momento la sonda disparará una pequeña bola de tantalio de 1 centímetro y 5 miligramos a cerca de 1000 km/h. El impacto contra el suelo levantará una nube de polvo que será recogido por la sonda. En caso de que este sistema falle —algo que ya pasó con Hayabusa 1—, la manguera de recogida de muestras está diseñada de tal forma que al despegarse de la superficie podrá capturar partículas con el borde. Cada «aterrizaje» durará apenas un segundo, ya que Hayabusa 2 levantará el vuelo de forma casi inmediata para alejarse del asteroide y evitar un posible vuelco sobre la superficie. Como comparación, la misión Osiris-REx emplea un sistema muy diferente en el que se usa un chorro de nitrógeno para levantar el regolito. De todas formas, no olvidemos que Hayabusa 2 es una sonda con un presupuesto muy modesto y está previsto que recoja cerca de 100 miligramos de muestras, mientras que Osiris-REx es una sonda mucho más compleja y cara que debe capturar un mínimo de 60 gramos de la superficie del asteroide Bennu.
Modelo 3D de Ryugu a partir de los datos de LIDAR (JAXA).
Ryugu visto en el infrarrojo medio por la cámara TIR con una resolución de 20 m/píxel (JAXA).
Hayabusa 2 lleva además el pequeño aterrizador europeo MASCOT (Mobile Asteroid Surface Scout) y el trío de pequeñas subsondas MINERVA II, denominados de forma un tanto tramposa como «rovers». Estas subsondas nos mostrarán imágenes de la superficie de Ryugu una vez desplegadas, lo que ocurrirá en octubre de este año y en julio de 2019, si todo sale según lo previsto. En diciembre de 2019 Hayabusa 2 partirá de Ryugu y la cápsula con las muestras aterrizará en Woomera (Australia) en 2020. Pero antes de que eso ocurra la sonda japonesa debe explorar en detalle ese pequeño y fascinante asteroide que es Ryugu.
Ryugu comparado con Fuji-san (JAXA).
Ryugu en todo su esplendor (JAXA).

Misión E2T: una sonda europea con paneles solares para estudiar Encélado y Titán
Daniel Marín24JUL18101 Comentarios
Encélado y Titán son dos lunas de Saturno y, al mismo tiempo, son también dos de los mundos más fascinantes de nuestro sistema solar. Encélado posee un océano subterráneo global con fuentes hidrotermales que podemos estudiar directamente gracias a los géiseres que salen de su hemisferio sur, mientras que Titán destaca por sus mares y lagos de metano, además de su densa y compleja atmósfera. Desgraciadamente, desde que la sonda Cassini finalizó su misión ya no tenemos allí ningún emisario de la humanidad que nos muestre las maravillas de estos mundos. Está claro que tenemos que volver a Saturno, aunque solo sea por estudiarlos. Sin embargo, por el momento no hay ninguna misión en firme que siga los pasos de Cassini. En los últimos años han surgido propuestas de misiones para explorar Encélado y Titán, pero ninguna ha logrado ganar suficientes apoyos. Para la última misión de tipo New Frontiers de la NASA se presentaron dos sondas centradas en Encélado, ELF (Life Investigation For Enceladus) y ELSAH (Enceladus Life Signatures and Habitability). Y, desgraciadamente, ninguna de las dos no pasaron a la final. Menos conocida es la propuesta europea E2T, muy similar a las anteriores, pero de origen europeo.
Diseño de la sonda E2T (Mitri et al.).
E2T (Explorer of Enceladus and Titan) fue un proyecto que se presentó como sonda candidata para la próxima misión de tipo medio, M5, de la ESA. Si te digo que tampoco pasó el corte y no fue seleccionada para figurar entre las tres finalistas seguro que no te sorprende, pero no por ello deja de ser una propuesta realmente curiosa. A diferencia de otras sondas similares, el punto fuerte de E2T era que debía estudiar casi por igual Encélado y Titán, ya que hasta la fecha la mayoría de propuestas se ha centrado más en Encélado y su habitabilidad.
Los mares de metano de Titán (Mitri et al.).
E2T debía realizar 17 sobrevuelos de Titán a alturas tan bajas como 900 kilómetros para analizar in situ la composición atmosférica de la mayor luna de Saturno, además de llevar a cabo 6 sobrevuelos cercanos de Encélado durante los que habría atravesado los géiseres a una altura de entre 50 y 150 kilómetros con el fin de determinar su composición. Durante los sobrevuelos de Titán la velocidad relativa de la sonda sería de 7 km/s, mientras que en Encélado habría alcanzado los 5 km/s. Con el objetivo de cumplir su misión, E2T llevaría tres instrumentos principales: dos espectrómetros de masas, INMS (Ion and Neutral Gas Mass Spectrometer) y ENIJA (Enceladus Icy Jet Analyzer), así como la cámara de alta resolución TIGER (Titan Imaging and Geology, Enceladus Reconnaissance). El espectrómetro INMS, de construcción suiza, debía ser mucho más sensible que el instrumento homónimo de Cassini, mientras que el espectrómetro ENIJA habría sido una aportación de la agencia espacial alemana DLR. Por su parte, la cámara TIGER estaba destinada a ser una de las contribuciones de la NASA a la misión y su resolución espacial habría alcanzado los 30-100 metros en Titán y alrededor de 1 metro en el polo sur de Encélado (!). A estos instrumentos habría que añadir el experimento de radio para el estudio de la estructura interior de las lunas, suministrado por la agencia espacial italiana ASI y que hubiera continuado con la experiencia acumulada por Cassini.
Interior de Encélado (NASA/ESA).
Los espectrómetros hubiesen analizado la composición isotópica de los chorros de Encélado y de la atmósfera de Titán —con especial énfasis en los gases nobles como el kriptón y el argón— para conocer la procedencia de los volátiles de ambas lunas. De esta forma podríamos saber si el metano de la atmósfera de Titán se debe a un fenómeno relativamente reciente —¿un gran impacto?— que tuvo lugar hace unos 400 millones de años o es primigenio. O lo que es lo mismo, ¿son los mares y lagos de Titán un fenómeno geológicamente joven? Del mismo modo, también podríamos averiguar si la actividad interna de Encélado se remonta a hace muy poco, en términos geológicos, o no. Otro objetivo debía ser el estudio de las estaciones y los cambios climáticos de Titán para determinar si la localización actual de los lagos y mares en el hemisferio norte es parte de un cambio climático cíclico en el que participan los dos hemisferios. Por último, el estudio de la habitabilidad (pH, composición, biomarcadores, etc.) del océano interno de Encélado hubiese sido la prioridad indiscutible de la misión.
Trayectoria de la sonda hasta Saturno (Mitri et al.).
Sobrevuelos de Encélado y Titán (Mitri et al.).
E2T habría sido una sonda con una masa de unas 4,1 toneladas (1,9 toneladas en seco). Puesto que la ESA no tiene acceso a generadores de radioisótopos (RTG), habría empleado cuatro enormes paneles solares parecidos a los que usará la sonda europea JUICE en Júpiter para generar la electricidad necesaria —un mínimo de 620 vatios— a casi 1.500 millones de kilómetros del Sol. El fuselaje de la sonda estaría basado en el de ExoMars TGO y también emplearía sistemas de la sonda BepiColombo a Mercurio. De haber sido aprobada, E2T habría despegado en abril de 2030 a bordo de un Ariane 6.4 junto con otro satélite de comunicaciones. Tras realizar una asistencia gravitatoria de la Tierra en 2031, debía llegar a Saturno el 26 de abril de 2036. El tiempo de vuelo se reduciría gracias al uso de un sistema de propulsión eléctrico con cuatro motores iónicos QinetiQ T6. La misión primaria en Saturno habría durado unos tres años y medio. Para las maniobras principales habría empleado un sistema de propulsión tradicional con combustibles hipergólicos.
Partes de E2T (Mitri et al.).
E2T era un pelín ambiciosa para una misión de tipo medio de la ESA, pero se trata de una de esas misiones que uno no entiende cómo es posible que, a pesar de que tengamos la tecnología para llevarlas a cabo, no sean aprobadas urgentemente. Personalmente creo que solo es cuestión de tiempo antes de que veamos una sonda parecida a E2T rumbo a Saturno. Esperemos que no sea demasiado tiempo.
Titán visto en infrarrojo por el instrumento VIMS de Cassini (NASA/JPL-Caltech/Stéphane Le Mouélic, University of Nantes, Virginia Pasek, University of Arizona).

El problema con los políticos analfabetos científicos
24 julio, 2018ateo666666Deja un comentarioGo to comments

10 Votes

Vivimos en un mundo en el que desconocer la ciencia solo puede ser considerado como sinónimo de analfabetismo. Y sin embargo en cualquier país civilizado del mundo occidental se eligen representantes públicos, esos mismos que tienen que salvaguardar el interés de la ciudadanía, que deberían repetir, en el mejor de los casos, la más que elemental escuela primaria.
Porque solo así se entiende que toda una consejera de agricultura de una comunidad autónoma española se destape ahora como una “defensora” de la leche cruda. ¿es que esta impresentable analfabeta científica no ha estudiado que uno de los grandes genios de la Microbiología, que no gano un par de premios Nobel porque murió antes de su invención, demostró de la manera más inapelable que una de las medidas más eficaces para disminuir la mortalidad de ese oscuro pasado irracional en el que el hombre llevaba decenas de miles de años sumido era esterilizar, es decir “pasteurizar” ( un verbo que esta pobre analfabeta científica parece desconocer) la leche?.
Porque no nos engañemos: beber leche cruda es un riesgo sanitario tal y como lo demuestra un estudio realizado en EEUU, que indica que frente a la leche pasteurizada los consumidores de leche o queso crudos tiene un riesgo 840 veces mayor de sufrir una intoxicación y un riesgo 45 veces mayor de que esta sea lo suficientemente grave para terminar en el hospital por una más que ridicula moda de neohipies del siglo XXI.

En resumen, que quizás lo más racional para tener una verdadera democracia, en donde los ciudadanos puedan vivir sanos y seguros, sería establecer un examen sobre Ciencia a los futuros candidatos a políticos y permitir solo a aquellos que demostraran entender los fundamentos del conocimiento científico la posibilidad de ejercer su labor publica. Así el bien común, y lo que es más importante la salud y la vida de los ciudadanos, quedarían a salvo de estúpidos analfabetos científicos que, de poder ejercer su más que ignorante ideario nos retrotraerían a oscuras épocas irracionales en donde la gente moría a millones por pura ignorancia científica.
P.D.
Esta señora es la misma que hace unos años afirmó en sede parlamentaria que las hemorroides se pueden tratar

Categorías:Divulgación

Entrevista a Jose Mujica

1 junio, 2013 Deja un comentario

Completamente de acuerdo a lo que dice Jose Mujica, presidente de Uruguay:

 


Anagráma Ateo Y el hombre hizo a dios a su imagen y semejanza

¿Cómo sacarlos?

29 enero, 2013 Deja un comentario

El problema ya no es tanto cómo han llegado hasta ahí,
sino qué demonios hay que hacer para sacarlos… ¡sobre todo al último!

obeja

Caballo

Cerdo

Paloma

Perro

Vaca

Elefante

Perro2

Vaca2

Socorro

 


Anagráma Ateo Y el hombre hizo a dios a su imagen y semejanza

La muerte también falla

29 enero, 2013 Deja un comentario

 


Anagráma Ateo Y el hombre hizo a dios a su imagen y semejanza

Categorías:Cachondeo Etiquetas: ,

Guillotina, guillotina, guillotina, guillotina

16 enero, 2013 Deja un comentario

No puedo estar más de acuerdo:

 


Anagráma Ateo Y el hombre hizo a dios a su imagen y semejanza

La educación prohibida

12 enero, 2013 Deja un comentario

Un interesante documental sobre como educamos a nuestros hijos:

 


Anagráma Ateo Y el hombre hizo a dios a su imagen y semejanza

Categorías:Divulgación Etiquetas: , , ,

Edad para saber

6 enero, 2013 Deja un comentario

De el blog tu puto amigo, he encontrado una imagen fabulosa:
edad para saber lo de dios

 


Anagráma Ateo Y el hombre hizo a dios a su imagen y semejanza