Mi Blog

Adriana P

Technology
Adriana P

Un pueblo de Argentina ha tenido una idea imaginativa para luchar contra los grandes apagones: cacahuetes

Un pueblo de Argentina ha tenido una idea imaginativa para luchar contra los grandes apagones: cacahuetes

Cuando es de energía de lo que se habla, Ticino, un pueblo de la provincia de Córdoba, en Argentina, es lo más parecido a aquella irreductible aldea gala sobre cuyas hazañas escribían Alberto Uderzo y René Goscinny. Y no por su resistencia frente al asedio de las tropas romanas, sino por su sorprendente capacidad para esquivar los apagones que afectan al resto del país. Lo demostró en junio de 2019, cuando la localidad logró burlar el episodio que dejó sin luz a sus compatriotas y buena parte de Uruguay. Y lo mostró de nuevo en marzo, durante un episodio similar en el que esquivó el corte que afectó a millones de argentinos.

En el caso de Ticino, eso sí, no hay pócimas mágicas, ni druidas, sino algo mucho más común (y efectivo) en términos energéticos: cáscaras de cacahuete.

¿Cáscaras de cacahuete? Así es. Quizás suene extraño, pero esa es la clave de que Ticino haya logrado esquivar los grandes cortes de energía que han padecido millones de sus compatriotas a lo largo de los últimos meses u años. Con poco más de 2.000 habitantes, la localidad, situada en la provincia de Córdoba, dispone de un valioso as energético en la manga: la GTB, una central de generación eléctrica con biomasa. Y no con cualquiera. La instalación se nutre sobre todo de cáscaras de maní o cacahuete y, de manera ocasional, con cortezas de madera.

La planta se construyó entre 2017 y 2018, abrió sus puertas hace un lustro y —según detallan sus responsables— su capacidad de generación es de 4,63 MW y proyecta una autogestión con potencia neta de 4 MW. Para “alimentarse” usa las cáscaras que genera como subproducto Lorenzati, Rustech y Cía, una empresa que se dedica a producir, transformar y comercializar maní, cereales y oleaginosas. Sus instalaciones están en Ticino, en el área manisera de Argentina, y la firma asegura que dispone de un parque de más de 60 hectáreas y 500 colaboradores.

¿Y cómo es la planta La clave es que funciona con biomasa. Para generar energía la instalación dispone de una caldera Acuotubular HLA-22x45x400, una turbina de vapor de condensación completa, un condensador, generador eléctrico, sistemas de enfriamiento y encargados de la potencia y control de la electricidad y accesorios con diversas funciones también, diseñados para los gases, agua y aire.

“El ciclo de generación de energía a partir de biomasa se denomina Rankine, un proceso similar al termodinámico que tiene lugar en una central térmica de vapor —detalla—. Este tipo de centrales utiliza un fluido de trabajo que alternativamente evapora y condensa”. Gracias a la quema de cáscara se genera un calor que se usa para suministrar el vapor de alta presión con el que activa su generador.

¿Pero cómo funciona la planta “Con el calor se calienta el agua y obtiene vapor saturado. Se vuelve a pasar otra vez por la caldera y transforma en vapor de altísima temperatura que parece aire comprimido y se transporta hacia la turbina, que gira a 6.500 revoluciones por minuto y luego reduce su velocidad a 1.500”, explica a El País Diego Menta, electricista y jefe de la Planta de Generación de Ticino Biomasa: “La velocidad se transforma en fuerza y acopla al generador”.

¿Y qué se hace con la energía He ahí una de las claves. La energía permite abastecer al pueblo y le ofrece una valiosa garantía extra cuando se dan apagones como el de 2019 o el pasado marzo. Ticino no es una villa energéticamente aislada y está conectado al sistema nacional regulado por Cammesa, pero —precisa VíaPaís— si la Empresa Provincial de Energía de Córdoba (Epec) queda fuera de servicio, recurre a su propia generación de energía con un circuito cerrado. Resultado: que mientras el 16 de junio de 2019 millones de argentinos se veían forzados a pasar horas sin luz por un apagón, los ticinenses pudieron continuar con sus vidas.

Captura De Pantalla 2023 09 06 130720

Esquema que muestra el funcionamiento de la planta.

¿Por qué es importante? Más allá del interés que pueda tener el ejemplo de Ticino y su capacidad para esquivar los apagaones que afectan a sus coterráneos, la experiencia es interesante porque le ha permitido solucionar dos problemas de una tacada: la gestión de residuos y el suministro eléctrico. Aunque está muy lejos de los volúmenes alcanzados por China, India o EEUU, entre otros, Argentina es un productor destacado de cacahuetes, lo que acarrea desafíos, como qué hacer con las cáscaras descartadas. Una opción es almacenarlas en los campos, pero no es perfecta: esas acumulaciones pueden favorecer los incendios.

Las instalaciones de GTB permite darles una salida al mismo tiempo que se responde a otra necesidad del pueblo: reforzar su red energética. “Siempre tuvimos muchos cortes, algunos microcortes que duraban segundos o minutos. Incluso una milésima de segundo. Pero eso para una industria es suficiente para paralizar dos horas la producción”, recuerda Pablo Margiaria, de Ticino, a El País. La planta de la provincia de Córdoba les permite atajar esa desventaja y con un valioso aliado: las 45.000 toneladas de cáscaras desechada que, se calcula, se usan ahora con un fin que poco tiene que ver con la gastronomía: la generación eléctrica.

Imágenes: Lorenzati

En Xataka: Recolectar energía del aire parecía una idea loca. La Unión Europea no piensa lo mismo


La noticia Un pueblo de Argentina ha tenido una idea imaginativa para luchar contra los grandes apagones: cacahuetes fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Los murciélagos de España viven tiempos de incertidumbre. El motivo, según el CSIC: los aerogeneradores

Los murciélagos de España viven tiempos de incertidumbre. El motivo, según el CSIC: los aerogeneradores

En España, la energía eólica es uno de sus principales motores del crecimiento económico. De hecho, el número de parques eólicos en nuestro país es cada vez mayor. Ya existen 22.000 aerogeneradores repartidos entre unos 1.500 parques eólicos. Casi 400 máquinas se instalaron sólo en 2022. Aunque esta fuente de energía es un pilar importante para la transición energética, existe un problema: los parques eólicos se han convertido en un cementerio para los murciélagos.

Sus aspas ya matan a un millón de estos animales al año, poniendo a sus especies en peligro de extinción a largo plazo.

El estudio. Hasta ahora la cifra se estimaba que el número de muertes de estos animales por las aspas de los aerogeneradores era de entre 100.000 y 200.000 al año, según la Asociación Española para la Conservación y el Estudio de los Murciélagos (SECEMU). Pero un nuevo estudio conjunto del Centro Superior de Investigaciones Científicas (CSIC), la Universidad de Lund y la de Sevilla acaban de elevar esa cifra hasta el millón anual.

El mismo Gobierno de España explica en su página web que una de las principales causas de mortalidad no natural de los quirópteros es la producida por los aerogeneradores: “Considerando la biología de las especies de este grupo taxonómico, las mortalidades detectadas por esta causa podrían estar poniendo en riesgo la viabilidad de poblaciones de algunas especies de quirópteros”.

¿Por qué? Este tipo de animales suele sentirse atraído por las grandes estructuras en medio del paisaje como son aerogeneradores y curiosean por sus alrededores. Hay que tener en cuenta que las aspas de un aerogenerador viajan a una velocidad de 300 kilómetros hora. Y su impacto es una de las principales causas de muerte de los murciélagos.

Pero hay más. La otra mitad de las muertes se produce sin que les toquen las palas. Es lo que se conoce como barotrauma: los cambios bruscos de presión provocados por las aspas les producen una hemorragia interna en los pulmones o en la cavidad abdominal.

En peligro de extinción. Los investigadores recogieron 2.371 cadáveres de murciélagos sólo durante el estudio y la conclusión es  murieron entre 33.000 y 37.000 murciélagos solamente en Cádiz. Pero los autores alertan de que en algunas de las zonas analizadas se registraron las tasas de mortalidad más altas en el mundo documentadas hasta la fecha.

Según los investigadores, de las 31 especies de murciélago que viven en la España peninsular, un tercio se encuentran amenazadas, y más de la mitad morirán bajo las aspas. “Conviene recordar que los murciélagos tienen una tasa de natalidad muy baja, de una cría (a veces dos) por hembra al año”, señalaba Sonia Sánchez, autora principal del estudio.

Vigilancia ambiental. Cádiz cuenta con uno de los planes de vigilancia más drásticos de España. Han puesto vigilantes en los parques durante las horas de luz durante todo el año. Su trabajo es localizar animales muertos o heridos por los aerogeneradores y ordenar la detención de las turbinas cuando exista peligro de colisión con algún ave. Aunque los resultados del estudio demuestran claramente que estos programas no son eficientes, ya que están más centrados en aves planeadoras de gran tamaño.

Soluciones.  Si bien la eólica es una fuente de energía renovable esencial para luchar contra el cambio climático, es necesario proteger a su vez la biodiversidad. “Medidas como la parada temporal de las turbinas durante los periodos de alta actividad de murciélagos han demostrado ser vitales para reducir el impacto sobre estas especies y alcanzar esa energía verde de la que tanto se habla”, señalaba Sánchez.

Desde SECEMU, también creen necesario aplicar estas medidas sobre todo en los meses de celo (agosto, septiembre y octubre),  momentos en los que hay un actividad frenética y cuando se produce más de un 80 % de la mortalidad de los murciélagos. Y proponen activar los aerogeneradores a partir de los 5-6 m/s de viento, ya que se ha observado que la mayoría de los murciélagos mueren en noches con viento suave, cuando el aerogenerador gira a bajas velocidades, pero suficiente para que golpearlos o causarles un barotrauma.

Imágenes: Unsplash

En Xataka | Por primera vez en España, una comunidad produce más que el 100% de su demanda con viento: Aragón


La noticia Los murciélagos de España viven tiempos de incertidumbre. El motivo, según el CSIC: los aerogeneradores fue publicada originalmente en Xataka por Albert Sanchis .

Technology
Adriana P

Manhattan tiene un rascacielos de 170 metros sin ventanas. Su objetivo: ser autosuficiente y soportar lluvia radiactiva

Manhattan tiene un rascacielos de 170 metros sin ventanas. Su objetivo: ser autosuficiente y soportar lluvia radiactiva

Más que un rascacielos de Manhattan, el Long Lines Building parece una gran fortaleza levantada con el único propósito de ser inexpugnable, una inmensa mole de hormigón y granito a medio camino entre una distopía orwelliana y la torre de Mordor. Quizás suene exagerado, pero ahí van algunas cifras para entender esta rara avis arquitectónica neoyorquina: pese a que el Long Lines Building mide casi 168 metros que se reparten entre 29 plantas, no tiene ventanas. Y es normal que así sea. Sus creadores lo idearon pensando más en las máquinas que en los humanos y su objetivo era que la torre fuera autosuficiente y resistente.

Lo suficiente para soportar la lluvia radiactiva.

¿Cómo que sin ventanas? Pues así es. El Long Lines Building, a menudo conocido también como 33 Thomas Street es una descomunal torre gris de losas de hormigón y paneles de granito que se alza 168 m en pleno Manhattan sin ventanas en la fachada. Su aspecto es tan extravagante que lleva años envuelto en el misterio y fascinando a propios y extraños en Nueva York, incluido el actor Tom Hanks, que en 2017 se refirió a él como “el edificio más aterrador que jamás haya visto”.

¿Aterrador o peculiar? Se comparta o no la opinión de Hanks, el Long Lines Building es desde luego peculiar: ronda los 167,6 m de alto. Y si bien esa altura sería suficiente para muchos más pisos, según NYC Urbanism, alberga solo 29 amplias plantas que se completan con tres niveles de sótano. Que no tenga ventanas no significa tampoco que su fachada sea una superficie limpia.

Para facilitar su funcionamiento, la torre está dotada de grandes pilastras que sobresalen hacia el exterior y acogen ascensores, escaleras, conductores de aire, sistemas mecánicos y salidas de aire antes de terminar en aberturas en las plantas 10 y 29. Su aspecto compacto y su ubicación, en el corazón de Lower Manhattan, le ha valido también admiradores como el diario The New York Times, que llegó a asegurar que el enorme Long Lines Building tiene “sentido arquitectónico” y “se integra en su entorno con más gracia” que cualquier bloque de la zona.

¿Hay más? Sí. Su aspecto quizás sea fascinante, o incluso “aterrador”, en palabras de Hanks, pero lo más asombroso del Long Lines Building está en su interior. El edificio se concibió para ser totalmente autosuficiente y disponer de comida para abastecer a 1.500 personas durante dos semanas de ser necesario e incluso para sobrevivir a una lluvia radiactiva. A menudo se señala como uno de los edificios más seguros de EEUU y en 2016 The Sun se refería a él como “el rascacielos sin ventanas que puede sobrevivir a una explosión nuclear”.

e

Pero… ¿Y todo eso para qué? Por una razón muy sencilla: la torre se pensó para ser resistente, segura y acoger y proteger valiosos equipos electrónicos. Sus planos salieron del estudio de John Carl Warnecke, uno de los grandes arquitectos de EEUU entre las décadas de 1960 y 1980 y que a lo largo de su carrera se encargó de otros proyectos destacados, como el Capitolio del Estado de Hawái o el John F. Kennedy Eternal Flame. El 33 Thomas Street lo diseñó para AT&T con el objetivo de que albergase uno de los centros de telecomunicaciones más importantes de EEUU, una instalación clave para procesar llamadas de larga distancia.

Con ese propósito, Warnecke optó por una arquitectura brutalista, una enorme mole funcional que se construyó entre 1969 y 1974 en un lugar que hasta entonces ocupaba una hilera de bloques históricos. Que no tenga ventanas se explica, aclara NYC Urbanism, precisamente por su finalidad: sus fachadas sin aperturas buscan proteger los equipos y que el edificio mantenga una temperatura constante.

¿Y a qué se dedica en 2023? La pregunta del millón. Long Lines Building no solo es peculiar. Durante décadas ha ido volviéndose además misterioso, tejiendo un mito que ha crecido con reportajes publicados en medios como The New York Times o The Intercept, que en 2016 publicó un artículo en el que explicaba que, si bien AT&T aún era su propietario y usuario, el céntrico rascacielos se aprovecharía para algo más: labores de vigilancia de la Agencia de Seguridad Nacional (NSA) en Estados Unidos. De hecho, la pieza se refiere a él como “un centro de monitoreo encubierto que se usa para interceptar llamadas, faxes y datos de Internet”.

Un edificio fascinante en su exterior… y en su interior.

Imágenes: y

En Xataka: La nueva locura arquitectónica de Dubái la firma Bugatti: un rascacielos para que lo escalen los deportivos


La noticia Manhattan tiene un rascacielos de 170 metros sin ventanas. Su objetivo: ser autosuficiente y soportar lluvia radiactiva fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Seguimos sin tener claro si el teletrabajo sube o baja la productividad. Entre tanto, los jefes no se fían

Seguimos sin tener claro si el teletrabajo sube o baja la productividad. Entre tanto, los jefes no se fían

Para muchas empresas, el teletrabajo fue un experimento interesante, pero ya es cosa del pasado y parecen más que dispuestas a cerrar esa etapa para siempre imponiendo la vuelta a la oficina de una forma más estricta y enérgica.

Algunas empresas como Meta o Google se han escudado en la productividad como uno de los argumentos principales para forzar esa vuelta a la oficina. Sin embargo, la productividad del teletrabajo sube o baja en función de a quién se le pregunte ya que existen informes cuyas conclusiones apuntan en ambas direcciones. Depende de a quien le preguntes.

La productividad en entredicho. La disparidad de conclusiones en los estudios de una determinada cuestión es algo nuevo. De hecho, cuanto mayor es el interés y más intensas las presiones de una u otra cuerda, mayor número de estudios surgen a favor o en contra. Lo hemos visto en industrias como el tabaco, la alimentación, las comunicacioneso el medio ambiente.

Ante un escenario en el que con la vuelta a la oficina están en juego 1.300 millones de dólares, es normal que las empresas arrimen el ascua a su sardina para justificar la vuelta a la oficina o mantener el modelo de teletrabajo.

Ni a favor ni en contra, sino todo lo contrario. Goldman Sachs no puede considerarse un actor imparcial en esta contienda ya que ha mostrado de forma enérgica su postura contraria al teletrabajo obligando a todos sus empleados a volver a las oficinas. Sin embargo, en la entidad parecen decididos a basar su decisión en certezas y no en opiniones y han elaborado un análisis propio sobre los resultados de los estudios que afirman que la productividad sube o baja con el teletrabajo.

La conclusión es que estos estudios no están midiendo correctamente la productividad en un entorno de teletrabajo actual, o lo hacen en sectores poco representativos. Por ejemplo, los estudios que concluyen que la productividad mejora, son aquellos basados en tareas rutinarios como centros de llamadas o con resultados autoevaluados anteriores a 2013. Aquellos estudios que utilizan métricas más complejas y se centran en sectores con tareas que implican una alta concentración (como servicios de IT remoto) concluyen que el teletrabajo afecta negativamente a la productividad.

Datos estadísticas de productividad

Fuente: Goldman Sachs Global Investment Research

Fuente datos: Goldman Sachs Global Investment Research

La paranoia de la productividad. Pese a no tener evidencias claras de que el teletrabajo estuviera hundiendo la productividad, la mayoría de los responsables de empresas de tecnología y banca han optado por endurecer sus posiciones a favor del presencialismo, aunque eso ponga en contra a toda su plantilla. Más allá de los motivos económicos, detrás de estas decisiones hay un componente de control y poder sobre los empleados definida en un estudio de Microsoft como paranoia de la productividad.

El estudio revela que los supervisores, acostumbrados a vigilar a los empleados, se sienten inseguros ante el teletrabajo y desconfían de que sus empleados estén realmente trabajando, cayendo en el error de vincular productividad con presencialidad. Según el estudio, el 85% de los responsables afirma no tener confianza en sus empleados en remoto.

El trabajo híbrido como herramienta de conciliación. El trabajo híbrido parece que se ha impuesto como territorio neutral para mantener los beneficios en conciliación familiar que reclaman los empleados y apaciguar las inquietudes de los supervisores por el control de los empleados.

Según datos de TravelPerk, el 73% de las empresas en 2023 han apostado por un modelo de trabajo híbrido con entre 1 y 4 días semanales de trabajo presencial y el resto de la jornada en remoto. Solo el 11% ha optado por desestimar el modelo remoto y ha vuelto a la oficina a jornada completa, mientras que el 9% mantiene toda jornada en remoto.

En Xataka | La semana de cuatro días aún no ha llegado, pero el trabajo híbrido ya ha cambiado algo: viernes sin oficina

Imagen | Pexels (ThisIsEngineering)


La noticia Seguimos sin tener claro si el teletrabajo sube o baja la productividad. Entre tanto, los jefes no se fían fue publicada originalmente en Xataka por Rubén Andrés .

Technology
Adriana P

China quiere construir el mayor barco metanero del mundo: un titán capaz de proveer gas a 4,7 millones de hogares

China quiere construir el mayor barco metanero del mundo: un titán capaz de proveer gas a 4,7 millones de hogares

China se prepara para ir un paso más allá en lo que a metaneros se refiere. Hudong-Zhonghua, subsidiaria del gigante China State Shipbuilding Corporation (CSSC), quiere dar forma al mayor barco gasero del mundo, un auténtico titán con capacidad para 271.000 metros cúbicos y atender a una demanda de gas natural licuado (GNL) que, de cumplirse las previsiones de los analistas, registrará un impulso considerable durante los próximos años. El proyecto del fabricante asiático está en una fase incipiente aún, pero ya ha captado la atención.

Por lo pronto, acaba de dar un paso fundamental.

¿El mayor metanero? Exacto. Lo que Hudong-Zhonghua tiene en mente es un buque gasero XXL, con una sorprendente capacidad para 271.000 metros cúbicos que lo convertirá en el barco de transporte de GNL más grande de la flota mundial. Para tener una idea de qué significa eso viene bien manejar una cifra aportada por los técnicos de Lloyd´s Register, una sociedad de clasificación marítima británica: con semejante reserva de combustible el navío podría transportar GNL suficiente para abastecer a 4,7 millones de hogares de Shanghái a lo largo de un mes.

Hudong Website Smallr

Entre del AiP de Lloyd’s Register a Hudong-Zhonghua.

Pero… ¿Cómo de grande será? Si esa cifra no fuese lo suficientemente elocuente, tenemos algunos más. En su web oficial, la propia compañía china explica que los buques metaneros que fabrica o ha desarrollado se mueven entre los 147.000 o 220.000 metros cúbicos. A día de hoy la mayoría de los metaneros que salen de los astilleros tienen una capacidad máxima de 174.000, con lo que el nuevo barco los superaría en más de un 55%. Incluso se situaría por encima de los Q-Max de Qatar, de 266.000, buques que destacan en el mapa actual del GNL.

De momento, eso sí, no han trascendido muchos más detalles sobre la futura embarcación. Lloyd´s Register se ha limitado a señalar que podrá transportar gas natural licuado con una eficiencia entre un 25% y 30% mayor que la de un barco de 170.000 metros cúbicos y que aumentará además la capacidad de la terminal en un 50% sin necesidad de ampliar su tamaño. La compañía noruega DNV asegura que el diseño contempla 344 m de eslora y 53,6 de manga, medidas no muy distintas a los Q-Max y que le permitirían  atracar en más de 70 terminales de GNL repartidas por el mundo. Su ficha técnica incluye también cinco tanques de carga, un sistema avanzado anticolisión y medidas pensadas para el ahorro de energía.

¿En qué fase está? En una muy inicial todavía. Si el buque ha acaparado la atención del sector, de hecho, es porque su concepto acaba de recibir el visto bueno de algunas sociedades de clasificación relevantes durante la Gastech 2023, una cita especializada en GNL, hidrógeno y tecnología climática celebrada en Singapur. En concreto el fabricante chino ha logrado el respaldo de la francesa Bureau Veritas, la inglesa Lloyd´s Register, la noruega Det Norske Veritas y American Bureau of Shipping, entidad de clasificación marítima con sede en Houston, Texas.

¿Y cuál ha sido su último avance? Esta semana las cuatro firmas han anunciado su aprobación inicial (AiP) a Hudong-Zhonghua para el nuevo diseño. Tal vez parezca una cuestión menor o un trámite burocrático, pero el denominado Approval in Principle, en inglés, es un paso relevante, sobre todo cuando hay de por medio tecnologías jóvenes o que no están cubiertas por las prescripciones  tradicionales: básicamente confirma la viabilidad técnica del proyecto y otorga a los fabricantes la seguridad de que podrán cumplir con los reglamentos. Eso y, claro está, un plus a la hora de presentar el concepto a clientes o inversores.

“Con una capacidad de 271.000 cbm, será el buque metanero más grande de la historia, usando el sistema de contención de membrana GTT NO 96 en sus cinco tanques de carga”, explica Bureau Veritas en el comunicado en el que informa de su visto bueno al proyecto, un ‘Ok’ inicial que ha acordado tras revisar el diseño y analizar los posibles riesgos para “garantizar los más altos niveles de seguridad”.

¿Qué dice la compañía Saca pecho con su proyecto. “El Global Max tipo 271.000 cmb LNGC aporta un nuevo miembro notable a nuestra familia de la serie G5 —explica Song Wei, jefe del área técnica de Hudong-Zhonghua—. El consumo de combustible por tonelada por milla náutica (nm) de un HNLC Max de 271.000 cmb será un 9,9% inferior al de un GNLC convencional de 174.000, lo que ofrecerá una solución de mayor eficiencia a los clientes de todo el mundo para satisfacer la creciente demanda de transporte marítimo”. La compañía china asegura también que el Indicador de Intensidad de Carbono (CII) será un 23% menor.

¿Por qué un barco así? Porque el sector espera que la demanda mundial de GNL experimente un crecimiento sensible a lo largo de los próximos años. Cuánto y en qué período varían en función del análisis, pero algunas de las proyecciones son notables. En 2021 Morgan Stanley Research calculaba que la demanda de gas natural licuado experimentará un alza de entre el 25 y 30% para 2030.

El último informe del GIIGNL estima que las importaciones mundiales de gas licuado en 2022, un año muy marcado por las derivas energéticas de la invasión rusa de Ucrania, experimentaron un crecimiento del 4,5% impulsada en gran medida por la mayor demanda de GNL en Europa. “El GNL fue un área dinámica en 2022, ya que el valor del comercio mundial alcanzó un máximo histórico, duplicándose a 450.000 millones de dólares”, detallan desde la IEA.

Imágenes: Hudong-Zhonghua Shipbuilding y Lloyd’s Register

En Xataka: La industria del barco necesita reducir sus emisiones. Y para eso tiene a su primer portacontenedores de metanol verde


La noticia China quiere construir el mayor barco metanero del mundo: un titán capaz de proveer gas a 4,7 millones de hogares fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Grecia ha sufrido una DANA anormalmente extrema. Ahora todo lo que alcanza la vista está inundado

Grecia ha sufrido una DANA anormalmente extrema. Ahora todo lo que alcanza la vista está inundado

Una imagen vale más que mil palabras. Y que mil cifras también, incluso cuando estas son tan rotundas que hablan por sí mismas. El último ejemplo de lo acertado que ese ese viejo refrán lo han dejado Grecia y la DANA Daniel, una tormenta que se desarrolló hace días sobre el Mar Jónico y ha dejado a su paso inundaciones que asolaron parte de los Balcanes. Sus lluvias torrenciales se dejaron sentir con fuerza en Bulgaria, Turquía y de forma especial las islas griegas, causando destrozos y un balance de víctimas que, al menos el jueves, sumaban 14 muertos.

Durante los últimos días hemos escuchado sus impresionantes registros de precipitaciones y visto fotos y vídeos de las inundaciones. Ahora podemos tomar perspectiva y ver su efecto con un enfoque más amplio: desde el espacio.

¿Qué ha pasado? Que Grecia parece despedirse del verano de la peor manera posible. Sin tiempo para recuperarse de los incendios de las últimas semanas, el país se ha encontrado con un desafío igual o incluso más preocupante: la borrasca Daniel, resultado en parte de una fenómeno conocido como “bloqueo en Omega” y que azotó con una fuerza sorprendente al centro y este del país.

A principios de semana el temporal avanzó sobre los Balcanes dejando tormentas, lluvias torrenciales y registros de precipitaciones históricas. Las intensas lluvias se extendieron con el paso de los días a Turquía y Bulgaria, con inundaciones que provocaron destrozos y dejaron al menos 14 muertos entre los tres países.

Captura De Pantalla 2023 09 09 131629

¿Cómo de fuerte llovió? Mucho. Muchísimo. “Es el evento meteorológico más extremo en términos de lluvia en 24 horas desde que tenemos registros en el país”, reconocía Vassilis Kikilias, responsable del área de Protección Civil de Grecia. Su mensaje iba acompañado de una exhortación clara para que sus compatriotas no salieran de casa salvo que fuera esencial. La cascada de vídeos y fotos publicados en las redes con ríos desbordados y calles anegadas dan una idea de sus razones.

¿Tenemos datos? Sí. Y dan una idea contundente de lo ocurrido. Las lluvias descargaron con contundencia en Tesalia y la Grecia Central, con registros que, precisa Meteored, en algunos puntos ya superaban poco después del inicio de la borrasca los 500 l/m2 en menos de 24 horas. En Zagora (Tesalia) se recogieron cerca de 800 l/m2 en menos de 24 horas y el miércoles Meteored calculaba que acabaría pasando de los 1.000 l/m2 a lo largo de toda la tormenta.

Para hacernos una idea de qué supone eso, el récord de precipitación diaria en España se mueve en esa horquilla: lo alcanzó un día de principios de noviembre de hace ya más de tres décadas Oliva, en Valencia, donde se registraron 817 l/m2.

¿Y cuál es la novedad? A lo largo de los últimos días han llegado de Grecia datos sorprendentes y vídeos y fotos aterradoras que muestran la virulencia de la borrasca Daniel. Ahora podemos ir más allá y hacernos una idea de su impacto con una perspectiva que ayuda, aún más si cabe, a entender cuál fue su alcance.

El programa de observación europeo Copernicus ha compartido una imagen sorprendente de las áreas inundadas cerca de Volos, una localidad del centro del territorio continental griego y que actúa como capital de Magnesia. La instantánea la captó el Sentinel-1 y muestra con claridad la huella de la tormenta Daniel. Y por si la imagen no fuera lo suficientemente clara de por sí, gracias a cuentas como Un geólogo en apuros o Iban Ameztoy podemos ver con claridad el antes y después.

Pero… ¿Cómo es posible esa “huella”? Por la intensidad de la borrasca Daniel. Como recuerdan desde Copernicus, “algunas regiones recibieron hasta 800 mm de lluvia en los últimos días, más que lo normalmente se anota todo un año”. Ejemplos hay unos cuantos. En Zagora llegaron a marcar 754 l/m2 en apenas 18 horas, lo que marca un máximo histórico, y en Volos se registró en un día la cantidad de lluvia que suele acumularse todo un año, cerca de 802 mm.

Su impacto ha sido tan contundente que hay quien discute incluso si podrían formarse nuevos largos permanentes en las zonas afectadas. Además de registros de 800 mm de lluvia en 24 horas, equivalente a un año enero de precipitaciones, Copernicus EMS señala una superficie total inundada de 72.950 ha.

Imágenes: Copernicus 1 y 2

En Xataka: Madrid se salvó por diez kilómetros: la previsión de AEMET acertó la catástrofe en los pueblos de la comunidad


La noticia Grecia ha sufrido una DANA anormalmente extrema. Ahora todo lo que alcanza la vista está inundado fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

En 1977 Nueva York sufrió un apagón que duró un día. Lo que vino después no fue un baby boom: fue el hip hop

En 1977 Nueva York sufrió un apagón que duró un día. Lo que vino después no fue un baby boom: fue el hip hop

Del parte meteorológico a los manuales de historia de la música. La noche neoyorquina del 13 de julio de 1977 se coló en la crónica de la cultura urbana de la forma más chocante, rotunda y desde luego inesperada: a golpe de rayos y truenos. Literalmente. Minutos después de las ocho y media de la tarde una subestación del tendido eléctrico de Consolidated Edison recibió el impacto de un rayo al que, poco más tarde, fruto de un capricho atmosférico al que la propia compañía se referiría como “un acto de Dios”, le siguieron otras descargas que afectaron de lleno al servicio. Resultado: Nueva York se sumió en un apagón histórico de 24 horas.

El corte de energía desató el caos en parte de la ciudad…

… Y dio un impulso crucial para la cultura hip-hop.

Aquel caluroso verano del 77. Es lo que tiene la historia. A veces avanza a bandazos y con giros inesperados, como el que durante el verano de 1977 conectó la meteorología neoyorquina con el despegue del hip-hop. Para entenderlo hay que remontarse al Nueva York de hace 46 años, el de julio 1977, cuando los habitantes de la Gran Manzana arrastraban una plomiza ola de calor que duraba ya más de una semana y les llevó a sobreexplotar el suministro eléctrico de la ciudad.

Las temperaturas eran altas, mucho. Igual que la demandaba energía. Con ese telón de fondo, los neoyorquinos se encontraron el 13 de julio con una tormenta de verano que puso a prueba su suministro eléctrico: a las 20.37 h un rayo golpeó una subestación situada al lado del río Hudson y segundos después se vieron afectadas otras dos líneas de Indian Point. La cosa no quedó ahí. Para pasmo de la compañía, su instalación recibió otra sacudida que afectó a la subestación de Yonkers.

Una larga noche neoyorquina. La combinación de los rayos y la cadena de decisiones que la compañía eléctrica tomó a lo largo de los minutos posteriores acabaría derivando en un episodio histórico: el conocido como apagón de julio de 1977. Apenas una hora después de la primera descarga, Nueva York estaba ya sumida en un corte de electricidad que se prolongaría más de un día.

The New York Times precisa que el corte se declaró a las 9.34 pm del 13 de julio y no se solucionó hasta las 10.39 del día siguiente, 25 horas de ayuno energético que afectó a millones de personas. El de 1977 no era el primer apagón que afrontaba el país, que en el 65 había sufrido un enorme corte que afectó durante horas a más de 30 millones de personas repartidas por la región noroeste, pero su impacto resultó tremendo. Tanto, de hecho, que la revista TIME llegó a dedicarla una de sus portadas con un titular rotundo: “Blackout´77 Once more, with looting”.

¿De qué impacto hablamos? El Nueva York de julio del 77 no solo padecía una ola de calor con temperaturas que rozaban los 40 grados. La ciudad afrontaba una crisis mucho mayor, estructural y con la que también resultaba bastante más difícil lidiar: desempleo, pobreza y criminalidad, una tensión que se enconaba de manera especial en los suburbios y barrios como Bronx y Harlem. Con ese telón de fondo, el apagón del 77, en plena noche, representó mucho más que un simple corte de suministro que inutilizó farolas, alarmas y lámparas. Replicando un artículo del New York Post, el corte empujó a la ciudad “de las dificultades al caos”.

Quizás parezca exagerado, pero las cifras son bastante elocuentes. En apenas 25 horas se registraron 1.000 incendios, se arrestó a 3.700 personas y se calcula que unas 1.600 tiendas sufrieron dañadas por saqueos y disturbios. El impacto resultó especialmente devastador en los barrios desde East Harlem a Bushwick. Al hacer balance, las autoridades calcularon que el apagón costó a la ciudad más de 300 millones de dólares. Y eso en los años 70 y un período de apenas 24 horas.

Vale, pero… ¿Y lo del hip hop? Para entender su relación con la cultura hip hop hace falta dar otro pequeño salto en el tiempo, no mucho mayor, a comienzos de los años 70, cuando suele fijarse su “origen”. Y lo de las comillas tiene su lógica porque como fenómeno cultural resulta muy difícil, sino prácticamente imposible, establecer un momento y lugar exactos para su génesis. “Nadie dice que el día que un músico de blues rasgó la guitarra de cierta forma nació el rock and roll”, explica a NPR el historiador Jau Quan: “Otros géneros no tienen este tipo de historia”.

El hip-hop sí. Su relato se ha dotado de un capítulo iniciático así, una “gran historia para una cultura tan grandiosa”, abunda Jau Quan. Y ese “día D” es el 11 de agosto de 1973, cuando Clive Campbell, aka Kool Herc, desplegó su talento de disc jockey durante una block party, una fiesta clandestina celebrada en el Bronx. La cita fue pequeña, reducida, modesta y lo que buscaba era recaudar dinero para la hermana de Clive, no pasar a la historia, pero desde hace tiempo se presenta a menudo como un momento crucial en el nacimiento del hip-hop.

¿Y qué tiene que ver el apagón? Si hay una constante en la historia de la música o de cualquier fenómeno cultural es que cuando algo funciona, cuando algo gusta realmente, la gente intenta replicarlo, imitarlo e innovarlo. Hubo quien quiso hacer lo mismo que Kool Herc, experimentar con estilos como los que desplegaron poco después Grandmaster Flash o Afrika Bambaataa, pero para dar rienda a su talento les hacía falto algo más que buen oído y un sentido del ritmo aceptable: necesitaban un equipo especial. Especial y no precisamente barato.

El 13 de julio de 1977 eso cambió. Tras la ola de saqueos llegaron a las calles y el mercado negro mesas de mezclas, micrófonos, amplificadores, altavoces… más accesibles para quienes querían dar rienda suelta a su talento. ¿Supuso el origen del hip hop? No. Pero su influencia e impulso lo han reconocido figuras destacadas del hip hop y ha dado pie a crónicas en medios como Rolling Stone, Vice, GQ, AM New York o Slate. “Antes del apagón había tres o cuatro crews de hip hop en la ciudad. Después, había una en cada esquina”, llegaría a explicar DJ Disco Wiz.

¿Qué dicen los protagonistas? El año pasado Rolling Stone publicó parte de una conversación entre el periodista Jonathan Abrams y figuras destacadas del hip hop que ayudan a entender la influencia de aquella noche del 77. Y algunas de sus respuestas son reveladoras. “El apagón de 1977 fue lo que ayudó a engendrar una multitud de aspirantes a profesionales del hip-hop porque antes de eso la mayoría de los aspirantes a DJ no tenían dos giradiscos y mesa de mezclas, ni altavoces. Cuando se produjo el apagón parece que todo el mundo tuvo la misma idea a la vez. Cuando volvieron las luces en Nueva York todo el mundo tenía equipo”, relataba Rahiem, de Grandmaster Flash and the Furious Five.

No es la única reflexión en esa línea. MC Debbie D explica que “cuando llega el apagón, cambia el hip-hop. Es un momento crucial porque una semana después todo el mundo era DJ. Todo el mundo”. “Antes del apagón, la gente del Bronx tenía unos sistemas de sonido horribles. Al principio, Queens y Brooklyn tenían sistemas a todo volumen. Pero no mucha gente del Bronx podía permitirse grandes sistemas de sonido hasta después del apagón. Entonces, todo el mundo tenía sonido”, añade a Rolling Stone Paradise Gray. También hay quien cree que su impacto se ha exagerado para arrojar una “luz negativa” sobre el el Bronx y Harlem.

Imagen de portada: Steven Pisano (Flickr)

En Xataka: El streaming ha salvado a la industria de la música. Pero sólo a algunos géneros concretos, y el jazz no es uno de ellos


La noticia En 1977 Nueva York sufrió un apagón que duró un día. Lo que vino después no fue un baby boom: fue el hip hop fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Skibidi Toilets: el apocalipsis en forma de retrete es una pesadilla que se ha convertido en el canal más visto de Youtube

Skibidi Toilets: el apocalipsis en forma de retrete es una pesadilla que se ha convertido en el canal más visto de Youtube

La guerra entre los retretes con cabeza humana, los Skibidi Toilets, y los seres con cabeza de cámara de vigilancia, los Cameramen, se ha recrudecido. Es cierto, a los Skibidi Toilets se les vence fácilmente simplemente tirando de la cadena, pero no es fácil. ¿No has oído hablar nunca de esta serie rusa que se estrenó el pasado mes de febrero? Pues te estás perdiendo algo gordo: sus cortos en Youtube y Tik Tok cuentan sus visionados por millones y su canal de Youtube fue el más visto del mundo el pasado mes de junio.

En este conflicto, pronto la cosa se vuelve violenta: del tono inquietante de los primeros vídeos (todos están contados desde una perspectiva de primera persona, aunque no siempre es la misma, sobre todo porque a menudo quien maneja esa perspectiva muere a manos de los Skibidi Toilets o sus aliados) pasamos a un enfoque mucho más épico. Aparecen los Cameramen y otros aliados, capaces de neutralizar el paralizante sonido que emiten los retretes con el penetrante sonido que anuncia el sistema THX, y celebran sus victorias con bailes del ‘Fortnite’.

Y junto a ellos, la serie se convierte en una atroz guerra de mechas y criaturas dantescas (esto es, sanitarios gigantes contra altavoces del tamaño de un edificio). La trama se complica cuando uno y otro bando descubren cómo hacer que los enemigos usen sus armas en su favor. El resultado es una violentísima y épica trama bélica que pronto pierde todo el contacto con la realidad.

El primero y más evidente de los enigmas que rodean a la serie es quién es su creador: se le conoce como DaFuqBoom (DaFuq!?Boom! es su canal de Youtube), pero pocos datos más hay sobre él. 22 millones de suscriptores y 8.000 millones de visitas en sus vídeos en total no le han hecho salir a la luz, y sigue dedicándose a proporcionar contenido de forma incesante.

La trama se complica

La infernal melodía con la que se acercan a sus víctimas los Skibidi Toilets con un uso insistente y obsesivo es una remezcla demencial de dos canciones de éxito, ‘Give It to Me’ de Timbaland y ‘Dom Dom Yes Yes’ de Biser King. En realidad se trata de una remezcla muy popular: la que ha viralizado el bizarrísimo TikToker yasincengiz38 con sus vídeos bonachones de comida y baile. Los memes de la TikToker ParyssBryanne terminaron de sumar estética y atmósfera a los orígenes de los retretes del demonio.

En este momento la serie lleva más de sesenta episodios de entre treinta segundos y un minuto de duración cada uno. Y la estética está a la altura de su demencial y repetitiva banda sonora: sobre todo en sus primeros episodios, los vídeos parecen una especie de creepypasta hecho con el motor gráfico y assets de juegos de Valve como ‘Half-Life 2’ o ‘Counter-Strike: Source’.

De hecho, esa es exactamente la técnica que usa. En declaraciones a la web Dexerto, el autor comentó que usaba el programa Source Filmmaker. El motivo: “acceso más fácil a los distintos recursos y una gran interfaz. También sé animar en Blender, pero todo el proceso, incluida la iluminación y el renderizado, me llevaría el triple de tiempo”. En cualquier caso, se asegura de acreditar a los autores de las animaciones originales que reutiliza en Skibidi Toilets.

El resultado de este caótico batiburrillo de imágenes de pesadilla y sonidos del infierno es una de las sensaciones virales de internet. Si será flor de un día o si proyectos como un videojuego hecho por fans y ambientado en este combate épico tienen futuro es algo difícil de predecir. Al fin y al cabo, hace solo seis meses no teníamos ni idea de que un combate entre sanitarios y hombres-cámara iba a ser tan absorbente.

En Xataka | ‘Don’t copy that floppy’: así fue el vídeo anti-copias ilegales más ridículo de todos los tiempos


La noticia Skibidi Toilets: el apocalipsis en forma de retrete es una pesadilla que se ha convertido en el canal más visto de Youtube fue publicada originalmente en Xataka por John Tones .

Technology
Adriana P

Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM al frente del proyecto

Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM al frente del proyecto

Los desafíos técnicos que plantea sostener en el tiempo una instalación tan compleja como la Estación Espacial Internacional son numerosos. Y, además, algunos de ellos son críticos y muy difíciles de resolver. Proteger la salud de los astronautas, que se encuentran sometidos durante varios meses consecutivos a los efectos de la microgravedad y la radiación cósmica, es crucial, y una herramienta que contribuye a hacerlo posible es la secuenciación del ADN a bordo de la propia estación.

Utilizando esta tecnología es posible monitorizar su salud con mucha precisión porque, entre otros factores, les permite identificar microbios y otros agentes infecciosos. Además, resulta muy valiosa para llevar a buen puerto algunos de los experimentos con organismos vivos que se están realizando actualmente en la Estación Espacial Internacional. Sin embargo, la secuenciación del ADN plantea un gran problema: cada muestra genera aproximadamente medio terabyte de información, y es necesario enviar esos datos a la Tierra para que sean procesados.

El informe que contiene el resultado de la secuenciación tarda entre seis y ocho semanas en estar listo y a disposición de los astronautas. Demasiado tiempo. Los técnicos de NASA enseguida se dieron cuenta de que esa latencia no es asumible, y pusieron en marcha un proyecto que perseguía resolver este problema de la forma más eficaz posible. Y aquí entra en escena nuestro protagonista. Se llama Naeem Altaf, y es el director de tecnología espacial de IBM. Es una persona joven, pero, curiosamente, trabaja en esta compañía desde hace 20 años, y durante su periplo profesional ha pronunciado numerosas conferencias y ha desarrollado varias patentes.

No obstante, ante todo Naeem es un experto en edge computing, un paradigma de computación distribuida con una enorme proyección de futuro que podemos identificar en español como computación en la frontera o computación de frontera. Precisamente él ha sido el ingeniero que ha liderado el proyecto de NASA responsable de resolver el problema derivado del procesado de los datos que genera la secuenciación del ADN en la Estación Espacial Internacional. Hemos tenido la ocasión de hablar con él largo y tendido, y nos ha contado con todo lujo de detalles los pormenores de este proyecto tan apasionante. Esto es lo que nos ha explicado Naeem.

La computación de frontera ha resuelto uno de los grandes problemas de NASA

Como acabamos de ver, el germen del proyecto de NASA en el que vamos a indagar en este artículo es la computación de frontera, por lo que es una buena idea pedir a Naeem que nos explique de la forma más didáctica posible en qué consiste esta tecnología y qué implica en la práctica. Esta es su respuesta:

Naeemretrato

«Una manera sencilla de definir qué es la computación de frontera consiste en identificarla como la capacidad de procesar los datos allí donde están siendo generados. En esencia lo que estamos haciendo es reducir la necesidad de mover la información. Para hacerlo posible necesitas tener un modelo en esa ubicación que sea capaz de procesar los datos de entrada y entregarnos como salida una acción o una recomendación derivada de esa entrada», nos explica Naeem.

Su respuesta nos invita a intuir que la computación de frontera debe necesariamente acarrear ventajas desde el punto de vista de la reducción de la latencia derivada del procesado de la información. Pero esto no es todo. También debería ayudar a mermar el tráfico que circula por la red involucrada en la comunicación entre el lugar en el que se generan los datos y la ubicación en la que inicialmente se procesaban.

Naeem nos explica con detalle cuál es el propósito del proyecto que ha liderado para NASA:

«La Estación Espacial Internacional es un laboratorio fruto de la colaboración entre muchos países, y su función primordial es permitirnos llevar a cabo experimentos en condiciones de microgravedad. Todos los días se realizan muchos experimentos en estas instalaciones, y la mayor parte de ellos genera una gran cantidad de datos. Precisamente, esta estación es un caso extremo de computación de frontera si tomamos como referencia la Nube», apunta Naeem.

«Los smartphones y los coches autónomos con los que todos estamos familiarizados son algunos de los casos de uso de la computación de frontera. La Estación Espacial Internacional va un poco más lejos porque se encuentra en órbita, pero esencialmente es lo mismo. Este proyecto nació de la mano de los equipos de NASA y la propia estación con el propósito de identificar cuáles son los experimentos que generan un mayor volumen de datos, y también de entender cómo podemos lidiar con la necesidad de procesarlos».

«La secuenciación del ADN nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas»

«Uno de los experimentos que enseguida reclamó nuestra atención fue la secuenciación del ADN. En la estación hay un secuenciador utilizado por los astronautas, entre otras cosas, para analizar muestras y buscar microbios, y cada análisis genera aproximadamente medio terabyte de información. Esta tecnología nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas. Actualmente es necesario enviar todos esos datos a los centros de cálculo de la Tierra para que puedan ser procesados, y esta estrategia plantea varios problemas», nos asegura Naeem.

«El más relevante consiste en que el enlace de comunicación de la Estación Espacial Internacional con la Tierra también se utiliza para muchas otras cosas, y algunas son críticas, por lo que no siempre está disponible para transferir los datos derivados de los experimentos. Después de analizar a fondo este escenario nos dimos cuenta de que una forma eficaz de resolver este desafío consistía en llevar a cabo el procesado de los datos en el mismo lugar en el que se generan implementando una solución inspirada en el paradigma de la computación de frontera. Y para hacerlo posible recurrimos a los equipos Spaceborne Computer-2 (SBC-2) fabricados por HPE (Hewlett Packard Enterprise), a la plataforma multicloud híbrida IBM Cloud sobre el sistema operativo Red Hat y al gestor de contenedores Kubernetes».

Issastronauta 0

Actualmente el japonés Akihiko Hoshide, el astronauta de la agencia aeroespacial japonesa que se encuentra en la Estación Espacial Internacional, es el responsable de liderar la investigación derivada de la secuenciación del ADN.

«Una vez que tuvimos toda la plataforma a punto con el nuevo código preparamos una prueba generando datos en bruto con el secuenciador de ADN, y los equipos SBC-2 se encargaron de llevar a cabo el procesado en la Estación Espacial Internacional. Era justo lo que estaba buscando NASA. Todo el proceso requirió invertir entre 6 y 8 horas, por lo que era perfectamente posible llevarlo a cabo en un solo día. Bastaba un único día para tomar la muestra con el secuenciador, procesarla y obtener el resultado del análisis, que es un informe que pesa menos de un megabyte y que puede ser enviado rápidamente a la Tierra», concluye Naeem dando muestras claras de su satisfacción con el resultado del proyecto.

«Gracias a la computación de frontera los astronautas pueden tomar sus muestras y tener los resultados del análisis solo unas horas después»

«La computación de frontera está demostrando ser muy útil en la Estación Espacial Internacional, pero hay otros escenarios de uso en los que también encaja a la perfección. Actualmente algunos científicos están desarrollando su investigación en áreas remotas del planeta, como la Antártida, el Polo Norte o en desiertos. Si cada vez que toman una muestra se ven obligados a enviarla a su laboratorio para que sea analizada, y después tienen que esperar la llegada de los resultados, su investigación se ralentiza mucho. Pero gracias a la computación de frontera pueden tomar sus muestras y tener los resultados del análisis solo unas horas después. Es el mismo concepto que hemos trasladado al espacio», nos asegura este técnico.

Antes de concluir su explicación Naeem remarca lo importante que es para NASA haber conseguido reducir la latencia que implicaba el procesado de la información generada por la secuenciación del ADN. Esta mejora es crucial porque permite al personal de la agencia espacial y a los astronautas que se encuentran en la estación reaccionar mucho más rápido frente a cualquier contingencia que pueda comprometer su salud:

«Este proyecto nos ha permitido reducir drásticamente el tiempo que los científicos de la Estación Espacial Internacional deben esperar desde el momento en el que toman las muestras hasta que reciben el resultado del análisis. Originalmente se veían obligados a esperar entre seis y ocho semanas, y ahora gracias a la infraestructura que hemos diseñado solo tienen que esperar varias horas. En un solo día, o, en el peor de los casos, en dos días, ya tienen a su disposición el análisis de las muestras que han tomado. En este ámbito la computación de frontera marca una gran diferencia», concluye Naeem.

La estancia en la Estación Espacial implica riesgos serios para la salud

Cuando el ser humano deja atrás el ambiente protector de la Tierra se ve expuesto a multitud de amenazas que pueden comprometer seriamente su salud. Naeem nos explica por qué es tan importante que las agencias espaciales hagan todo lo que está en su mano para proteger a los astronautas no solo de las amenazas más evidentes, sino también de las que aparentemente son más nimias, como, por ejemplo, los microbios:

«El traje espacial también se beneficia de la computación de frontera debido a su capacidad de tomar muestras y analizarlas»

«En las misiones que tienen lugar en el espacio, no solo dentro de la Estación Espacial Internacional, sino también en todas las demás, como, por ejemplo, la que en el futuro nos permitirá viajar a Marte, es esencial monitorizar la salud de los astronautas. La exposición a la radiación cósmica es uno de los riesgos a los que se enfrentan, pero hay otras muchas amenazas para su salud, como, por ejemplo, la posible proliferación de microbios. Cuidar al máximo la salud de los astronautas es crucial porque, en primer lugar, tienen ese derecho, y, además, si su salud no es óptima la misión puede quedar comprometida», apunta Naeem.

«En este contexto, más allá de la enorme relevancia que tiene la posibilidad de llevar a cabo la secuenciación del ADN con rapidez, el traje espacial que utilizan los astronautas tiene una enorme importancia debido a que incorpora la tecnología necesaria para monitorizar constantemente los parámetros vitales de su organismo. De hecho, este traje es en sí mismo un dispositivo que también se beneficia de la computación de frontera debido a su capacidad de recoger muestras, analizarlas y tomar decisiones a partir de los resultados que ha obtenido. Si es necesario el traje puede por sí mismo emitir una alerta para reaccionar rápidamente ante cualquier circunstancia que amenace la salud de un astronauta», concluye el ingeniero de IBM.

Issastronauta 1

La posible proliferación de los microbios puede comprometer seriamente la salud de los astronautas que se encuentran en la Estación Espacial Internacional, pero, afortunadamente, la secuenciación del ADN les está ayudando a mantener este riesgo bajo control.

La computación de frontera tiene muchas aplicaciones. Muchísimas, en realidad. Como estamos comprobando está resultando muy valiosa para las personas que pasan largos periodos de tiempo en la Estación Espacial Internacional, pero también puede marcar la diferencia en muchos otros ámbitos. Incluso puede ayudarnos a identificar vida en otros planetas. Naeem nos explica por qué.

«Nosotros estamos involucrados en algunas aplicaciones de esta tecnología, pero hay muchas otras. Actualmente también colaboramos con un grupo de científicos que trabaja en Lhasa, en el Tíbet, y que está estudiando la salud de las plantas cuando están sometidas a la gran altitud de esta ciudad. Están combinando la computación de frontera y el aprendizaje profundo para identificar cuándo la salud de las plantas se degrada, y están obteniendo muy buenos resultados», señala Naeem.

«En lo que se refiere a la detección de vida fuera de nuestro planeta, sí, definitivamente la computación de frontera puede marcar la diferencia»

«Y en lo que se refiere a la detección de vida fuera de nuestro planeta, que es una iniciativa que estará presente en las próximas misiones a la Luna y Marte, sí, definitivamente la computación de frontera puede marcar la diferencia. Gracias a ella será posible acceder con mucha rapidez a la información, que es lo que ya están consiguiendo los astronautas de la Estación Espacial Internacional que se están encargando de la secuenciación del ADN. No sería viable tener que esperar semanas, o incluso meses, hasta que estén disponibles los resultados de las muestras».

«Creo que en el futuro veremos cómo la computación de frontera se expande con rapidez, especialmente en los proyectos que tendrán lugar en el espacio. En ellos será posible trabajar de una forma completamente autónoma y sin necesidad de enviar de forma frecuente abundante información a la Tierra. Lo podrán hacer todo por sí mismos. Y probablemente las empresas que fabricarán los dispositivos y desarrollarán el software de computación de frontera abrirán sus API. Los proveedores de software, como nosotros, podemos construir nuestros modelos y transferirlos sin dificultad a los dispositivos en los que van a ser ejecutados», concluye este experto.

Todos los proyectos de cierta envergadura se enfrentan a desafíos, y el que ha liderado Naeem para NASA no ha sido una excepción a esta regla tan firmemente asentada. Este técnico nos explica cuáles han sido los factores que se lo han puesto más difícil a pesar de que, afortunadamente, el proyecto finalmente ha llegado a buen puerto:

«El principal reto al que nos hemos enfrentado son los datos. Están en el corazón mismo del aprendizaje automático. No nos vale cualquier dato; necesitamos buenos datos. Los científicos invierten muchísimo tiempo en limpiar la información con la que trabajan debido principalmente a que en los datos se cuela mucho ruido; mucha información de la que no es posible extraer conocimiento. Si, además, el volumen de datos es muy grande, el tiempo que es necesario invertir en la limpieza puede ser enorme».

«Otro desafío que también es muy importante es la necesidad de compartir los datos. Y no es nada fácil resolverlo porque no todo el mundo está dispuesto a compartir la información que genera o maneja debido a la existencia de una multitud de restricciones de todo tipo. En resumen yo diría que los principales retos a los que nos enfrentamos son garantizar la calidad de los datos con los que trabajamos, asegurar que tenemos la cantidad de información necesaria para extraer el aprendizaje correcto, y, por último, hacer posible el acceso a los datos», sintetiza Naeem.

Issastronauta 2

La Estación Espacial Internacional contiene un hábitat específicamente diseñado para estudiar cómo se desarrollan las plantas en condiciones de microgravedad. Es asombroso lo mucho que podemos aprender gracias a la experimentación en el espacio.

La computación de frontera y el 5G dibujan un futuro esperanzador

Antes de concluir nuestra conversación no dejé escapar la oportunidad de preguntar a Naeem acerca del rol que tiene la tecnología 5G en el contexto de la computación de frontera. Es fácil intuir que estas dos innovaciones forman un tándem muy sólido capaz de marcar la diferencia en muchos ámbitos. Y sí, Naeem confirma estas sospechas de una forma contundente:

«La computación en la Nube comenzó hace algo más de una década, y creo firmemente que estamos iniciando el siguiente salto evolutivo de esta tecnología debido a que los sensores, los dispositivos que generan datos, están por todas partes. Casi todo es un sensor. Los smartphones, los termostatos, los coches autónomos… todos estos dispositivos ya están utilizando la computación de frontera. Pero, además, la industria también se está beneficiando de una forma muy profunda de esta tecnología».

«En unos tres años el despliegue de nuevos satélites conseguirá que la conectividad 5G llegue a prácticamente todos los rincones del planeta»

«Si una empresa tiene una gran fábrica puede mantener todos sus dispositivos interconectados a través de una red 5G de alta velocidad. Estos dispositivos son inteligentes, por lo que pueden comunicarse con los demás elementos de la red de una forma proactiva e inteligente para optimizar su funcionamiento e incrementar la productividad de la fábrica. Este es el futuro. La computación en la Nube tal y como la conocíamos va a quedar en el pasado debido a que esta tecnología está migrando hacia un modelo de computación de frontera en el que la conectividad 5G juega un rol protagonista», sentencia Naeem.

«De hecho, creo que el próximo gran paso consistirá en extender los satélites de comunicaciones 5G para garantizar la cobertura fuera de las áreas metropolitanas. Cuando te alejas de las grandes ciudades la conectividad 5G cae drásticamente. Este problema no tiene la misma envergadura en todos los países, pero lo habitual es que en las grandes ciudades tengamos una conectividad 5G muy rápida, y fuera de ellas nuestras conexiones sean mucho más lentas. Cabe la posibilidad de que en unos tres años gracias a los satélites la cobertura de esta red llegue a prácticamente todos los rincones del planeta. Será un paradigma nuevo en el que la computación de frontera tendrá un papel absolutamente protagonista», vaticina este afable ingeniero de IBM sin disimular lo más mínimo su entusiasmo por un futuro que nos invita a ser optimistas.

Imágenes: NASA


La noticia Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM al frente del proyecto fue publicada originalmente en Xataka por Juan Carlos López .

Technology
Adriana P

Los turistas están masificando el monte Fuji. Y las autoridades japonesas se han echado a temblar

Los turistas están masificando el monte Fuji. Y las autoridades japonesas se han echado a temblar

El monte Fuji es uno de los accidentes geográficos más populares, no solo de Japón sino del mundo entero. Pero la fama es un arma de doble filo: con la popularidad ha llegado un fenómeno temido, el de la turistificación.

Las autoridades japonesas han expresado su preocupación por el inmenso número de visitantes que día y noche acoge el monte Fuji. Se calcula que en 2019 5,1 millones de personas visitaron este paraje natural, lo que implica un problema para la conservación del entorno. Sobre todo si tenemos en cuenta que estas visitas se concentran entre julio y septiembre cuando las condiciones meteorológicas son favorables y se abren las rutas de acceso.

Fujisan entró en 2013 en la lista del Patrimonio de la Humanidad de la UNESCO, factor que pudo tener que ver con el aumento en el número de visitantes entre su inclusión en la lista y la llegada de la pandemia. El goteo de gente es prácticamente incesante y no se detiene de noche y es que son muchos los que comienzan su ascenso durante la noche con el fin de ver el sol naciente desde sus alturas.

El problema no es solo humano. El monte acoge toda una infraestructura de apoyo a los visitantes. Desde tiendas de souvenirs hasta puestos de comida, a lo que hay que añadir la logística asociada y la limpieza de basura dejada atrás por los montañeros. “Vi muchos restos de comida y botellas vacías esparcidas en la zona de los lavabos”, se quejaba un visitante local en declaraciones recogidas por la Agencia France-Presse.

Las autoridades japonesas ven también con preocupación que esta turistificación supone un riesgo también para los propios montañeros. Al elevarse el tránsito se incrementa el riesgo de desprendimientos, pero quizás la mayor preocupación venga por la exigencia del recorrido en sí mismo.

Con sus casi de 3.800 metros de altitud, el ascenso no es fácil. Las condiciones meteorológicas en sus alturas son mucho más duras que a ras de suelo y los niveles de oxígeno descienden. Esto hace que el llamado “mal de altura” pueda afectar a los visitantes.

La ruta de ascenso cuenta con “cabinas” para el descanso de los montañeros, pero durante la temporada estival las reservas de éstas rondaban la saturación. Una de las preocupaciones de las autoridades que visitantes inexpertos decidieran ascender “del tirón” si no encontraban cabinas libres, con el consiguiente aumento del riesgo de sufrir problemas serios.

Así las cosas, las autoridades japonesas anunciaron hace algunas semanas que tomarían medidas de control de masas cuando consideren que los senderos de tránsito estén saturándose, lo que parecía probable a lo largo de la temporada estival. Finalizado el periodo veraniego parece que el anuncio tuvo un efecto disuasorio y tales medidas no han llegado a ser implementadas. Por ahora

La popular lista del Patrimonio de la Humanidad de la UNESCO está acompañada de un subconjunto de elementos en peligro. Desde el Parque Nacional de los Everglades hasta Palmyra, esta lista se enfoca en aquellos sitios de relevancia que están amenazados por diversos motivos. Japón no quiere que el monte Fuji pase a engrosar esa lista, menos aún que pierda su categoría como Patrimonio de la Humanidad.

Un icono japonés

El monte Fuji es, en realidad, un volcán activo (su última erupción fue en 1707). Situado en la isla de Honshū, a tan solo 100 kilómetros de Tokio, Fujisan se eleva a algo más de 3.776 metros sobre el nivel del mar. Esto lo convierte en la montaña más alta de su isla y de todo el Japón.

Fuji es un estratovolcán, término que hace referencia al hecho de que está compuesto por numerosos estratos o capas que alternan lava solidificada y piroclastos. El monte cuenta con una característica forma cónica coronada con un cráter de más de 600 metros de diámetro y 200 de profundidad.

Fuji es un estratovolcán, término que hace referencia al hecho de que está compuesto por numerosos estratso o capas que alternan lava solidificada y piroclastos. El monte cuenta con una característica forma cónica coronada con un cráter de más de 600 metros de diámetro y 200 de profundidad.

Más allá de su geología, Fuji es un importante elemento de la cultura japonesa. No solo por ser visto como una suerte de “montaña sagrada” sino por su cercanía a la capital. Quizá lo que más haya acercado este monte a la cultura popular sea la serie de grabados del artista japonés Katsushika Hokusai, ‘Treinta y seis vistas del monte Fuji’ y, especialmente ‘La gran ola de Kanagawa’.

Fujisan no es la única montaña masificada. El Everest ha sufrido consecuencias semejantes de la turistificación y es otro gran ejemplo de lo que esto conlleva: un riesgo medioambiental y para las personas.

La última temporada estival iba camino de convertirse en la más mortífera del pico más alto de nuestro planeta. El camino hacia la cumbre del Everest está sembrado con decenas de cadáveres congelados en un lugar donde el rescate de los restos fúnebres resulta demasiado complicado.

Los desperdicios también se llegan a acumular en algunas zonas. Desperdicios que pueden abarcar desde material extraviado hasta las mismas deposiciones de los montañistas. A esto cabe añadir otra curiosa huella que dejan los visitantes: microorganismos.

La temporada del monte Fuji llega a su fin y por ahora las autoridades parecen haber esquivado lo peor. Sin embargo parece que la tendencia al alza hará que pronto el número de visitantes alcance (y superer) los números prepandémicos. Quizá el año que viene las restricciones dejen de ser una advertencia y pasen a materializarse.

En Magnet | El toque de las campanas españolas es un lenguaje en sí mismo. Y ahora también Patrimonio de la Humanidad

Imagen | Derek Mawhinney/Katsushika Hokusai


La noticia Los turistas están masificando el monte Fuji. Y las autoridades japonesas se han echado a temblar fue publicada originalmente en Xataka por Pablo Martínez-Juarez .