PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 857976 veces)

30/03/2015, 19:31 -

Re: FORO-CIENCIA

#3150
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nueva batería de flujo más barata, más pequeña y con mayor densidad de energía que las demás de su tipo

Ingeniería


La nueva batería de flujo del PNNL tiene una alta densidad de energía, lo que reduce su tamaño y coste, y la convierte en un medio idóneo para almacenar energía en ciudades densamente pobladas. Aquí se muestran los electrolitos de otra batería de flujo del PNNL. (Foto: PNNL)

Las baterías de flujo almacenan la energía en fluidos químicos contenidos en tanques externos en vez de hacerlo dentro de la propia caja de la batería. La cantidad de energía que se puede almacenar está limitada solo por el tamaño que se les dé a los tanques. El diseño permite que grandes cantidades de energía sean almacenadas a un costo menor que con las baterías tradicionales.
El viento y el sol pueden liberar grandes cantidades de energía, pero normalmente esta solo puede ser recolectada cuando el viento sopla y el sol brilla. La energía excedente se puede almacenar para un uso posterior, pero el coste de las instalaciones necesarias para ello siempre ha sido una limitación. Las baterías de flujo se perfilan desde hace tiempo como una forma idónea de almacenar esa energía sobrante. La nueva batería de flujo utiliza un electrolito que tiene más del doble de la densidad de energía que la segunda mejor batería de flujo utilizada para almacenar energía renovable destinada a la red eléctrica. Y su densidad de energía se está acercando a la de una clase de batería de ión-litio utilizada para alimentar aparatos electrónicos portátiles y algunos vehículos eléctricos pequeños.
Con una densidad de energía mejorada y su seguridad inherente frente al fuego, las baterías de flujo podrían proporcionar un almacenamiento energético de larga duración para las zonas urbanas más congestionadas, donde el espacio va muy buscado. Esto mejoraría la flexibilidad y robustez de la red eléctrica local.
Otro beneficio inesperado de la alta densidad energética de este electrolito es que podría potencialmente expandir el uso de las baterías de flujo a aplicaciones en vehículos, como energizar trenes y coches, tal como argumenta Wei Wang, del equipo de investigación y especialista en ciencia de los materiales en el Laboratorio Nacional del Pacífico Noroeste (PNNL), en Richland, Washington, Estados Unidos. Tanto las baterías de flujo como las de ión-litio fueron inventadas en los años 70, pero solo estas últimas despegaron en ese momento. Estas podían llevar mucha más energía en un espacio más pequeño que las baterías de flujo, lo que las hacía más versátiles. Como resultado de ello, las de ión-litio han sido utilizadas para alimentar aparatos electrónicos portátiles durante muchos años, y han empezado a ser usadas para almacenar las cada vez mayores cantidades de energía renovable generadas en los parques eólicos y en los de energía solar.
No obstante, la estructura de las baterías de ión-litio de alta energía puede hacerlas propensas a sobrecalentarse e incendiarse. Las baterías de flujo, en cambio, almacenan sus sustancias activas por separado hasta que se necesita la energía, lo que reduce grandemente el peligro. Esta diferencia crucial entre ambas clases de baterías ha propiciado que muchos investigadores estén volviendo a ocuparse seriamente de las baterías de flujo.
30/03/2015, 19:36 -

Re: FORO-CIENCIA

#3151
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La calefacción puede perjudicar el patrimonio artístico de las iglesias

Ingeniería


Imagen de termografía infrarroja mientras se pone la calefacción de la iglesia de Talamanca del Jarama. Las mayores temperaturas afectan a las maderas del artesonado y zonas dañadas en la piedra tallada, además de en las imágenes de los santos y la cruz. (Foto: Instituto de Geociencias (UCM-CSIC))

Durante la segunda mitad del siglo XX en muchas iglesias españolas se instalaron sistemas de calefacción por emisión de aire caliente que funcionan con gasóleo. Ahora, miembros del Instituto de Geociencias (UCM-CSIC) han comprobado que su uso habitual y continuado desestabiliza el clima interior de estos edificios, afectando negativamente a la conservación de su patrimonio.
“Cuando se enciende y se apaga la calefacción de forma frecuente se producen fuertes fluctuaciones ambientales, que se traducen en una subida importante de las temperaturas (hasta el doble de la inicial) y en una caída peligrosa de la humedad relativa (por debajo del 20%) en las zonas altas de la iglesia”, explica la investigadora Mª José Varas Muriel, coautora principal del trabajo.
“Esto influye en las propiedades físicas de maderas, piedras, revocos y pinturas murales, pudiendo provocar la aparición de fisuras, ampollas o sales que las pueden dañar peligrosamente”, advierte la científica. “Y bajo estas condiciones, el patrimonio artístico de las zonas altas –donde puede haber artesonados, bóvedas talladas o pintadas, e incluso esculturas– se puede ver comprometido”.
Para realizar el estudio, publicado en las revistas Energy and Buildings y Building and Environment, los investigadores se han centrado en una iglesia parroquial modelo: la de San Juan Bautista en Talamanca del Jarama (Madrid). Está declarada monumento histórico-artístico e integra diversos estilos arquitectónicos, como el románico.
Los registros microclimáticos se han realizado con varios sistemas de monitorización inalámbrica, que incluyen el uso de globos para elevar los sensores, junto a dispositivos de termografía infrarroja, higrometría y resistividad eléctrica para medir los dos parámetros críticos para la conservación, la temperatura y la humedad. Las mediciones también han confirmado que los aparatos calefactores no mejoran el confort térmico de las pocas personas que suelen acudir diariamente a estos edificios. Cuando están sentados durante el servicio religioso no notan una atmósfera agradable hasta pasado un periodo de tiempo largo tras el encendido. Las temperaturas elevadas comienzan concentrándose en las partes altas y de ahí van bajando progresivamente hacia las áreas bajas ocupadas. Estas temperaturas controlan la humedad relativa, por lo que en las zonas superiores la humedad baja peligrosamente para los elementos patrimoniales, mientras que en las inferiores, las elevadas humedades son responsables de la sensación térmica menor para la gente. Solo en celebraciones eclesiásticas especiales, como algunos actos de la Semana Santa, los templos se suelen llenar; y en estas ocasiones, el propio calor corporal de la multitud atempera el ambiente, aunque no suele ser lo habitual a lo largo del año. En la iglesia de Talamanca, con la calefacción encendida, se ha comprobado que, cuando está llena de gente, las temperaturas pueden alcanzar los 15-17 ºC a la altura de los asientos, mientras que no superan los 13 ºC si hay pocos feligreses.
En 2012 apareció una normativa europea con recomendaciones para la colocación de la calefacción en las iglesias, capillas y otros lugares de culto, “pero su adaptación a un entorno como el español todavía está pendiente”, reconoce Varas. Mientras tanto, los investigadores recomiendan sustituir los viejos sistemas de calefacción por otros nuevos más eficientes, aunque esta solución todavía se está estudiando y no está al alcance de muchas parroquias por razones económicas. “En ese caso y evaluando cada sistema, habría que introducir ciertas modificaciones que rebajaran sus efectos nocivos sobre el patrimonio interior, como recolocar las rejillas en lugares adecuados y cercanos al suelo, así como solucionar posibles problemas internos de humedades en los muros y, sobre todo, controlar el tiempo e intensidad de uso de la calefacción”, concluye la experta.

Fuente: SINC
30/03/2015, 19:39 -

Re: FORO-CIENCIA

#3152
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nuevo sistema para dirigir un robot con la voz y en español

Robotica


El investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto. (Foto: Fundación Descubre)

Miembros del grupo ISIS de la Universidad de Málaga, en España, han creado un método de control remoto de un robot por medio de la voz. Según reconocen los expertos, en la actualidad existen otros sistemas de este tipo, pero el suyo muestra diferencias en dos aspectos: el idioma, ya que es de los pocos para hispanohablantes, y la tasa de éxito en el reconocimiento.
Los expertos han desarrollado su modelo acústico en el sistema operativo Linux, ya que la arquitectura para controlar el robot trabaja con varios procesos simultáneos. Asimismo, en lo referente al idioma, han utilizado un software denominado Julius/Julian, un sistema de reconocimiento de voz de código abierto.
“Actualmente solo hay modelos acústicos para japonés e inglés. Al no existir modelo acústico específico para español, el desarrollo de este elemento ha supuesto la parte central de nuestro trabajo”, reconoce el investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto.
Otra ventaja son los resultados que obtiene ese modelo acústico en las pruebas a las que se somete. “Conseguimos una tasa de reconocimiento de palabras cercana al 99 % y una tasa de reconocimiento de comandos, es decir, de órdenes, del 95 % o superior. A esto se suma que el robot consigue ir al sitio que se le envía bajo el control de la voz de un usuario no experto”, subraya Poncela.
Los investigadores apuntan que estos resultados de su estudio publicado en la revista Robotica, abren la puerta a la posibilidad de adaptar el sistema a otras plataformas robóticas, como sillas de ruedas, lo que supondría su aplicación en entornos asistenciales. ¿Cómo reconoce el robot una orden emitida por una persona? Para ello se requieren varios elementos. Por un lado, el léxico, el conjunto de palabras que el sistema puede reconocer. A este se sumaría la gramática, las reglas y las restricciones de ese vocabulario. “Además hay que construir un modelo acústico, es decir, la representación estadística de los sonidos que forman cada una de las palabras habladas usadas en la gramática. El modelo acústico se obtiene tras una fase de entrenamiento. Nosotros hemos considerado 802 palabras, agrupadas en 72 frases”, precisa otra de las investigadoras participantes en el estudio, Leticia Gallardo Estrella. El sistema tiene que ser entrenado para cada usuario, ya que las características de la voz de cada persona son distintas, con lo que hay que afinar hasta hacerlo preciso y personalizado. “Para ello, se graban las frases de entrenamiento con un micrófono y se parametrizan con unos coeficientes numéricos con las características propias de la voz. A partir de estos coeficientes se construye el modelo acústico”, detalla la investigadora.
A continuación, el vocabulario, la gramática y el modelo acústico se introducen en el motor de voz, que tiene como salida la frase reconocida. “Definimos un juego de comandos técnicos de movimiento cortos, por ejemplo 'parar', y otros largos 'girar 20 grados' que se emiten de forma remota con un micrófono, se reconoce el comando y, mediante wifi, la orden llega al robot, que tiene un punto de acceso”, especifica. Los investigadores han acometido dos tipos de pruebas para testear el sistema. Las primeras, para comprobar si el sistema reconoce la voz y las órdenes emitidas. Un comando sólo es correcto si se reconocen todas las palabras. Por ejemplo, la acción 'girar' va asociada a un valor numérico (20) y una unidad (grados) en la frase “girar 20 grados”.
El sistema tiene en cuenta todas esas variables y consigue, en palabras de los investigadores, buenos resultados. “Alcanzamos una tasa de reconocimiento de palabras cercana al 99 % y una tasa de reconocimiento de comandos del 95 % o superior”, incide Alberto Poncela. El segundo tipo de pruebas guardan relación con la navegación. Para ello, simularon entornos complejos para que un robot modelo Pioneer P2AT los recorriera y llegara a un punto. Un usuario no experto en robótica emitió las órdenes con un micrófono. “El resultado fue que esta persona hizo llegar el robot a su destino”, subraya el científico. Este trabajo se enmarca en el proyecto Sistema Inteligente de Asistencia Domiciliaria destinado a crear una arquitectura genérica capaz de adaptarse por sí misma a distintos tipos de usuarios mediante aprendizaje y financiado por la Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía.

Fuente: Fundación Descubre
24/04/2015, 18:51 -

Re:FORO-CIENCIA

#3153
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Galaxias hasta ahora desconocidas en órbita a la nuestra

Astronomía


Las Nubes de Magallanes (dos galaxias satélite de la nuestra bien conocidas) y los Telescopios Auxiliares del Observatorio de Paranal, en el desierto de Atacama en Chile. Solo 6 de las 9 galaxias satélite recién descubiertas están presentes en esta imagen. Las otras tres se hallan justo fuera del campo de visión. Los recuadros muestran imágenes de los tres objetos más visibles (Eridanus 1, Horologium 1 y Pictoris 1). (Imagen: V. Belokurov, S. Koposov (IoA, Cambridge). Fotografía: Y. Beletsky (Carnegie Observatories))


Unos astrónomos han descubierto una serie de raras galaxias enanas que orbitan alrededor de la nuestra, la Vía Láctea. Su hallazgo podría aportar pistas para desentrañar el misterio de la naturaleza de la materia oscura, una forma exótica de materia que contribuye de manera fundamental a mantener la cohesión de la Vía Láctea y de aparentemente todas las demás, pero sobre cuya naturaleza no se sabe casi nada.
Nueve son las galaxias enanas satélite identificadas por el equipo de Sergey Koposov y Vasily Belokurov, del Instituto de Astronomía adscrito a la Universidad de Cambridge en el Reino Unido. Es además la cifra más alta de galaxias de este tipo descubiertas de una sola vez en torno a la Vía Láctea.
Estas nueve galaxias que hasta ahora eran desconocidas son mil millones de veces menos luminosas que la Vía Láctea, y un millón de veces menos masivas. La más cercana se encuentra a unos 97.000 años-luz de distancia, mientras que la más distante se halla a 1,2 millones de años-luz.Tres de los objetos descubiertos son definitivamente galaxias enanas, mientras que otros, según reconocen los autores del estudio, podrían ser galaxias enanas o cúmulos globulares, objetos con propiedades visibles similares a las de las primeras, pero no cohesionados con materia oscura.
El descubrimiento de tantos satélites en un área tan pequeña del cielo fue totalmente inesperado, tal como recalca Koposov. “No podía creer lo que veían mis ojos”.
Las galaxias enanas pueden llegar a albergar tan pocas estrellas como 5.000. La Vía Láctea, en cambio, contiene cientos de miles de millones de estrellas. Los modelos cosmológicos estándar del universo predicen la existencia de cientos de galaxias enanas en órbita alrededor de la Vía Láctea, pero su baja luminosidad y su pequeño tamaño las hacen tremendamente difíciles de encontrar, incluso en nuestro propio “patio trasero” galáctico.
Dado que contienen hasta un 99 por ciento de materia oscura y apenas un 1 por ciento de materia observable, las galaxias enanas son ideales para intentar comprobar si los actuales modelos sobre la materia oscura son correctos.
24/04/2015, 18:54 -

Re:FORO-CIENCIA

#3154
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nueva manera de detectar neutrones emitidos por materiales radiactivos

Ciencia de los materiales


Primer plano de la muestra de material utilizado en los experimentos. (Foto: JHU/APL)

Detectar neutrones es fundamental para las actividades antiterroristas, como la revisión de contenedores de carga, así como para otras aplicaciones vitales, entre las que figuran la instrumentación más importante empleada en el sector de la energía nuclear, la seguridad en ciertos puestos de trabajo y algunos otros usos en la industria. La demanda de detectores ha crecido de forma espectacular a lo largo de la pasada década, mientras que, al mismo tiempo, el material habitual de detección, el helio-3, es cada vez más difícil de obtener.
El equipo de Christopher Lavelle, del Laboratorio de Física Aplicada en la Universidad Johns Hopkins, en Laurel, Maryland, Estados Unidos, ha demostrado que una espuma de carbono vítreo recubierta con boro puede ser utilizada en la detección de neutrones emitidos por materiales radiactivos.
Una ventaja de la estrategia ideada por Lavelle y sus colegas es que el boro es abundante y su costo es relativamente bajo, en comparación con el helio-3. El uso de la espuma recubierta, en particular, dispersa el boro de manera uniforme a lo largo del volumen detector, incrementando la eficiencia al llenar un espacio que de otro modo estaría vacío.
En este trabajo de investigación y desarrollo también han intervenido especialistas de la Universidad de Maryland y el Instituto Nacional de Estándares y Tecnología (NIST), ambas entidades en Estados Unidos. Los próximos pasos del equipo de Lavelle incluirán investigar otras geometrías idóneas para la detección, como capas múltiples de películas delgadas recubiertas con boro, y el uso de sistemas ópticamente transparentes de absorción de neutrones, así como finalizar el diseño para un prototipo del detector.
24/04/2015, 18:57 -

Re:FORO-CIENCIA

#3155
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nueva vía metabólica para lograr una mejor producción de biocombustibles mediante levadura

Bioquímica


El hongo Neurospora crassa prospera de forma natural en los componentes de celulosa y hemicelulosa de las paredes celulares de las plantas. (Foto: Cortesía de Jamie Cate, Berkeley Lab)

Se necesitan combustibles para transporte que sean limpios y renovables, así como capaces de reemplazar a la gasolina, el gasóleo y al combustible para aviones a reacción. También se necesitan alternativas verdes y sostenibles a las sustancias petroquímicas.
La fermentación microbiana de los azúcares celulósicos almacenados en las paredes celulares de las plantas y otras formas de biomasa es una fuente muy prometedora de biocombustibles y sustancias químicas de utilidad industrial, suponiendo que el proceso pueda llevarse a cabo de un modo lo bastante barato. Esto precisa la conversión de los azúcares complejos en azúcares simples que puedan ser fermentados. Se ha descubierto una forma de incrementar la producción de biocombustibles y otras sustancias químicas de utilidad industrial, a partir de biomasa fermentada por levadura. El hallazgo es obra de científicos del Instituto de Biociencias de la Energía (EBI), un centro impulsado, entre otros, por el Laboratorio Nacional Lawrence Berkeley (Berkeley Lab) en California, y la Universidad de California en Berkeley, ambas instituciones en Estados Unidos.
Introduciendo nuevas vías metabólicas en la levadura, el equipo de Jamie Cate ha capacitado a esos microorganismos para fermentar de forma eficiente la celulosa y la hemicelulosa, las dos familias principales de azúcares encontradas en la pared celular de las plantas, sin necesidad de aplicar pretratamientos ambientalmente dañinos o caros cócteles de enzimas.
Cate y sus colaboradores identificaron vías metabólicas en el hongo Neurospora crassa que se emplean para digerir la xilosa, uno de los azúcares más abundantes en la hemicelulosa. La levadura Saccharomyces cerevisiae, el microbio usado más habitualmente para la producción de biocombustibles, no puede fermentar la xilosa.
Para conseguir que las vías metabólicas del N. crassa funcionen en la levadura, Cate y sus colaboradores introdujeron cinco nuevos genes en esta última. Si bien las nuevas vías y genes permiten a la levadura fermentar directamente los azúcares de xilosa convirtiéndolos en el biocombustible o producto químico deseados, esos azúcares aún tienen que ser liberados de las paredes celulares vegetales. Esto puede hacerse, sin embargo, con un simple pretratamiento con agua caliente, en vez de con los ácidos y líquidos iónicos que utilizan los actuales métodos de pretratamiento.
24/04/2015, 19:00 -

Re:FORO-CIENCIA

#3156
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El misterio del hongo culpable de la extinción de más de 200 especies de anfibios

Biología


La rana Anaxyrus americanus fue una de varias especies de Illinois cuyos especímenes fueron sometidos a una prueba para detectar al hongo Batrachochytrium dendrobatidis. (Foto: Brooke Talley)

Un hongo mortal responsable de la extinción de más de 200 especies de anfibios en todo el mundo ha coexistido inocuamente con animales en Illinois (Estados Unidos) y Corea durante más de un siglo, según los resultados de dos investigaciones recientes.
Los anfibios de ciertos lugares, como es el caso de Illinois, han estado coexistiendo con el hongo Batrachochytrium dendrobatidis durante al menos 126 años sin sufrir la mortandad masiva ni otros efectos adversos vistos en poblaciones de otras partes del mundo, según uno de los estudios. En el otro, se ha logrado fechar la presencia del hongo en Corea desde 1911. Los resultados ayudarán a los científicos a entender mejor la enfermedad causada por el Batrachochytrium dendrobatidis, y las condiciones bajo las cuales es posible sobrevivir a él.
La enfermedad provocada por el hongo ha llevado a más de 200 especies de anfibios a la extinción en todo el mundo, y supone una amenaza mayor para la biodiversidad de los vertebrados que cualquier otra enfermedad conocida.
Así lo ha comprobado Vance Vredenburg, de la Universidad Estatal de San Francisco en Estados Unidos y coautor de los estudios, quien ha estado investigando al Batrachochytrium dendrobatidis durante más de una década. Una diferencia clave entre los dos estudios es que, si bien las pruebas mostraron que el Batrachochytrium dendrobatidis estaba muy extendido en Illinois desde la década de 1880, la enfermedad por él provocada fue mucho menos habitual en Corea durante la década de 1900 que lo que lo es hoy en día. Eso, tal como razona Vredenburg, indica que el comportamiento del hongo difiere dependiendo del lugar.
El estudio también valida la eficacia de las pruebas para detectar Batrachochytrium dendrobatidis en especímenes de museo, tal como se ha demostrado al usar una técnica perfeccionada por Tina Cheng, de la citada universidad. Algunos de los especímenes de museo tienen más de 100 años, lo que despertó el temor de que el ADN más antiguo se pudiera haber degradado, propiciando “falsos negativos”. Sin embargo, tal como Vredenburg y sus colegas comprobaron, es factible detectar el hongo en muestras tan antiguas. Durante los dos estudios, los investigadores comprobaron más de 1.200 muestras de anfibios recogidas entre 1888 y 2004.
24/04/2015, 19:03 -

Re:FORO-CIENCIA

#3157
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Aclarando un enigma del carbono en las profundidades marinas

Oceanografía


Christopher Follett, al fondo, y Chiara Sanitelli procesando muestras de las profundidades marinas para realizar mediciones por radiocarbono. (Foto: Dan Repeta / WHOI)

Conocer en detalle cómo los océanos absorben y reciclan el carbono es crucial para averiguar cuál es su papel exacto en el cambio climático. Durante aproximadamente 50 años, los científicos han sabido que existe una gran acumulación de carbono disuelto en las profundidades marinas, pero ignoraban muchas cosas sobre ella, como su edad (cuánto tiempo ha estado en forma orgánica), de dónde procede, cómo llegó allí, cuánto tiempo ha estado en ese medio, o cómo influyen estos factores sobre su papel en el ciclo del carbono.
Ahora, una nueva investigación proporciona información más concreta sobre esta acumulación de carbono disuelto en las profundidades marinas, y pone de manifiesto un ciclo más dinámico del carbono en las profundidades oceánicas, mediado por los microbios que residen allí.
El hallazgo es obra del equipo de Chiara Sanitelli, científica del Instituto de Biofísica en la ciudad italiana de Pisa, Christopher Follett, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, y Daniel Repeta, del Instituto Oceanográfico de Woods Hole (WHOI) en Massachusetts, estas dos últimas instituciones en Estados Unidos.
Lo revelado por la investigación sugiere que el océano profundo ejerce un papel de notable importancia en el ciclo global del carbono, un papel que hasta ahora era poco conocido y que puede tener repercusiones sobre el conocimiento científico del cambio climático.
La fuente más joven de carbono orgánico disuelto en las profundidades marinas se origina a partir de la superficie, donde el fitoplancton y otras formas de vida marina fijan el carbono de la atmósfera. Estos organismos acaban muriendo y se hunden en la columna de agua, donde se disuelven y son consumidos por microbios. Dado que se necesitan unos mil años para que las aguas de la superficie marítima reemplacen a las del fondo del océano, se creía que el carbono de unos pocos siglos de antigüedad, parte del cual es antropogénico, no podía contribuir a la acumulación detectada en las profundidades marinas. Esta suposición se ha revelado ahora como incorrecta.
En la nueva investigación se ha descubierto que a medida que el carbono orgánico particulado se hunde a través de la columna de agua y se disuelve, parte de él es usado por microbios. En ese aspecto, el ciclo del carbono en el océano profundo es más activo de lo que se ha venido creyendo hasta ahora.
Sin embargo, si bien parte del carbono se recicla más rápido, el más antiguo lo hace mucho más despacio. Esto se debe a que las fuentes más antiguas, como las fumarolas hidrotermales, los surtidores de metano y el sedimento oceánico producen carbono que no se consume fácilmente. A estas fuentes no se las tiene en cuenta en los análisis del ciclo de carbono oceánico porque se piensa que tienen una magnitud demasiado pequeña como para ser significativas. Pero cuando el equipo de Follett las tuvo en cuenta a la hora de calcular la renovación de las reservas, o el tiempo que se necesita para que el carbono se recicle por completo, lo que se descubrió fue asombroso. El tiempo de renovación de la porción más antigua de las reservas es de 30.000 años, 30 veces más largo que lo que necesita el propio océano para reciclarse.
27/04/2015, 18:55 -

Re:FORO-CIENCIA

#3158
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La misión que salvó al Telescopio Espacial Hubble

Astronautica


Jeffrey Hoffman durante su misión de reparación del Hubble. (Foto: NASA)

La historia del éxito científico cosechado por el Telescopio Espacial Hubble en sus 25 años de permanencia en el espacio que se cumplen estos días no habría sido la misma sin una ambiciosa y difícil misión en la que, no mucho después del lanzamiento de este satélite de la NASA y la ESA, se le reparó en órbita, solucionando un grave defecto que limitaba de modo notable su poder escrutador. En su día tuvimos el placer de conocer en persona a uno de los astronautas que lograron esta hazaña técnica y de entrevistarle.
El 24 de abril de 1990, el transbordador espacial Discovery despegó de la Tierra llevando en su bodega de carga al Hubble, el primer telescopio espacial óptico de su tipo, y llamado así en honor del astrónomo estadounidense Edwin P. Hubble (1889-1953) quien confirmó que el universo está expandiéndose, sentando con ello las bases para la teoría del Big Bang. Al día siguiente, el Hubble fue soltado en el espacio, iniciando así su vuelo orbital independiente. Era una oportunidad magnífica para lograr que la astronomía diera un salto impresionante. Al estar situado en el espacio, el Hubble tendría una potencia de resolución diez veces mayor que la del mejor de los telescopios situados en la Tierra.
Sin embargo, poco después de realizar sus primeras series de observaciones, se descubrió que el espejo principal del telescopio tenía un defecto que reducía significativamente su capacidad para enfocar. El defecto de enfoque se debía a la aberración esférica, una distorsión óptica causada por una pequeña alteración en la forma del espejo. Este era demasiado plano cerca del borde. El exceso era de tan solo el 2 por ciento del grosor de un cabello humano. Pero ello bastaba para que la luz recogida por el espejo, en vez de concentrarse debidamente en un punto exacto, se esparciera sobre un área mayor en un halo difuso. Bastantes imágenes de objetos tales como estrellas, planetas y galaxias se veían borrosas.
El espejo no se podía arreglar ni cambiar. Pero existía la posibilidad de desarrollar un sistema de óptica correctiva para los instrumentos del Hubble, de un modo muy parecido a como unas gafas o lentes de contacto con las características apropiadas pueden corregir la vista de una persona permitiéndola ver perfectamente bien.
La NASA desarrolló esa óptica correctiva, y la operación de implantación se llevó a cabo en diciembre de 1993, durante la misión del transbordador espacial Endeavour, cuya tripulación la integraron Jeffrey A. Hoffman, Richard O. Covey, Kenneth D. Bowersox, F. Story Musgrave, Kathryn C. Thornton, Claude Nicollier y Tom Akers. Nunca se había hecho nada parecido y tan complejo en el espacio. La lanzadera espacial se aproximó poco a poco al Hubble hasta que la distancia fue tan escasa que el brazo robótico del Endeavour logró sujetarlo.
Durante una serie récord de paseos espaciales con una duración total de 35 horas y 28 minutos, dos equipos de astronautas, incluyendo a Hoffman, completaron la operación de reparación.
Tal como nos explicó Hoffman tiempo después, para el éxito de la misión fue vital mantener la sangre fría cuando surgían problemas durante la operación. Uno de estos momentos que nos destacó fue cuando, en el primer paseo espacial de la misión, realizado por él y Musgrave, se encontraron con que, después de reemplazar una serie de componentes, no podían cerrar las puertas del compartimiento del Hubble en el que habían estado trabajando. No se dejaron llevar por los nervios, reflexionaron sobre las posibles causas, dedujeron acertadamente cuál era el problema, y lograron solucionarlo. Otro problema serio que amenazó al éxito de la operación se presentó en el quinto y último paseo espacial, realizado también por Hoffman y Musgrave, con una duración de más de 7 horas, y durante el cual debían instalar varios componentes. Una de sus labores era reemplazar una unidad que no se había diseñado para ser manejada por astronautas con sus manos enfundadas en los guantes de un traje espacial. Sus tornillos, como nos relató Hoffman, eran de tres milímetros, del tipo que se suele usar para fijar algunos componentes dentro de ordenadores. No se dejaron vencer por el desaliento ni llevar por los nervios. Gracias a eso lograron completar con éxito esta tarea, aunque tardaron tres horas.
El balance final de la operación de reparación fue muy bueno. Se logró instalar con éxito la óptica correctiva y todos los demás sistemas previstos, y a partir de entonces el Hubble fue capaz de desplegar toda su potencia de observación, lo que permitió hacer muchos e importantes descubrimientos astronómicos. Por otra parte, la experiencia ganada con esta misión ayudó en años posteriores a realizar varias misiones de mantenimiento y actualización del telescopio.
En total, el Hubble ha realizado más de 1,2 millones de observaciones. Transmite alrededor de 140 gigabits de datos científicos cada semana. Usando datos aportados por el Hubble, infinidad de astrónomos han hecho investigaciones, plasmadas en más de 12.800 artículos en revistas académicas, por lo que es uno de los instrumentos científicos más productivos de entre todos los construidos en la historia de la ciencia. El Hubble tiene una forma mayormente cilíndrica, mide 13,3 metros de largo y 4,2 de diámetro máximo, pesa unas 12 toneladas, sigue una órbita con una altitud de unos 550 kilómetros, tarda 95 minutos en dar una vuelta a la Tierra, y vuela a unos 27.000 kilómetros por hora. Obtiene su energía de 2 paneles solares, pudiendo almacenarla en baterías de níquel-hidrógeno. Para apuntar a un objetivo determinado del firmamento, el Hubble no necesita cohetes con los que girar hasta la posición deseada. Lo logra mediante un método más simple y duradero, basado en la acción de ruedas de reacción que explotan la tercera ley de Newton, aunque ello lo limita a girar tan despacio como la manecilla de los minutos en un reloj clásico, tardando 15 minutos para girar 90 grados. La precisión necesaria para apuntar a un objeto cósmico muy lejano es colosal, así como la estabilidad requerida para mantener al telescopio bien apuntado a pesar de los inevitables movimientos. El Hubble cumple con estos requisitos; es capaz de apuntar a un objetivo y no desviarse de él más que en un valor equivalente al grosor de un cabello humano visto a kilómetro y medio de distancia.
27/04/2015, 18:58 -

Re:FORO-CIENCIA

#3159
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Capturar carbono gastando la mitad de la energía consumida por los métodos convencionales

Ciencia de los materiales


El MOF con diaminas antes y después de enlazarse al dióxido de carbono. La ilustración es un corte en sección a través de uno de los poros del MOF, mostrando las moléculas de diamina (que contienen átomos de nitrógeno azules) unidas a átomos (verdes) de metal (manganeso). Las moléculas de dióxido de carbono son los átomos de carbono grises con dos átomos rojos de oxígeno. Se omiten otros átomos para mayor claridad. (Gráfico: Thomas McDonald, Jarad Mason, Jeffrey Long / UC Berkeley)

Unos químicos han dado un gran salto adelante en la tecnología de captura del carbono mediante un material que puede retirarlo de forma eficiente de las emisiones contaminadas de una central eléctrica alimentada con carbón, así como del aire que respira la tripulación de un submarino, por citar dos ejemplos de uso.
Tras el ciclo de absorción, el material libera el dióxido de carbono (CO2) a temperaturas más bajas que los actuales materiales de captura de carbono, reduciendo así a la mitad o más la energía consumida en el proceso por los métodos convencionales. El CO2 liberado puede ser después inyectado bajo tierra, para su almacenamiento por tiempo indefinido, o, en el caso de un submarino, expulsado al mar. También se podría adaptar a naves espaciales.
El dióxido de carbono suele ser el 15 por ciento del gas que procede de una central eléctrica, de manera que las unidades de captura de carbono para esa clase de instalaciones tienden a ser de gran envergadura. Con estos nuevos materiales, la unidad podría ser mucho más pequeña, haciendo que se reduzcan tremendamente los costes de capital invertido, así como los costes de operación.
El material desarrollado por el equipo de Jeffrey Long, de la Universidad de California en Berkeley, Estados Unidos, es un armazón organometálico (MOF, por sus siglas en inglés) modificado con compuestos de nitrógeno llamados diaminas. El nuevo material puede ser ajustado para eliminar el dióxido de carbono del aire a temperatura ambiente de un submarino, por ejemplo, o de los gases más calientes de las chimeneas de una central eléctrica.
27/04/2015, 19:00 -

Re:FORO-CIENCIA

#3160
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los anillos en torno a astros pequeños, ¿rasgo insólito o característica común?

Astronomía


Recreación artística de Cariclo con su sistema de anillos. (Imagen: ESO/L. Calçada/Nick Risinger (Skysurvey.org))

Habiéndose siempre creído que los anillos eran un rasgo exclusivo de planetas gigantes, causó mucha sorpresa el hallazgo, hecho público en 2014, de un cuerpo menor poseyendo anillos. Se trataba de Cariclo (Chariklo), ubicado entre Saturno y Urano. El hallazgo reciente de que Quirón, otro astro del mismo tipo, también posee anillos a juzgar por las conclusiones de análisis de observaciones, está despertando apoyos a la idea de que los anillos son un rasgo relativamente ordinario en astros, o bien que Cariclo, Quirón y quizá los demás de su tipo son astros aún más especiales de lo que ya se sabe que son.
Cariclo y Quirón son centauros. Así se denomina a ciertos cuerpos menores de nuestro sistema solar que han desconcertado a los astrónomos durante mucho tiempo porque parecen tanto asteroides como cometas. Los centauros, que orbitan entre Júpiter y Neptuno, fueron nombrados así en referencia a la mítica criatura, mitad humano y mitad caballo, llamada centauro, debido a la naturaleza dual de estos astros. El equipo de Amanda Bosh, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, ha llevado a cabo un extenso análisis de los datos reunidos durante una ocultación estelar en la que Quirón pasó por delante de una estrella brillante, bloqueando brevemente su luz. Los investigadores analizaron las emisiones luminosas de la estrella, y la sombra momentánea creada por Quirón, e identificaron las características ópticas que sugieren que este centauro posee un disco de escombros a su alrededor. El equipo de investigación cree que dichas características pueden significar la presencia de un sistema de anillos, un envoltorio circular de gas y polvo, o chorros simétricos de material siendo disparados desde la superficie del centauro. A las mismas conclusiones se ha llegado en otro estudio reciente, llevado a cabo de modo independiente a partir de los datos reunidos en aquella observación, y que es obra del equipo de J. L. Ortiz, R. Duffard, P. Santos-Sanz, N. Morales y E. Fernández-Valenzuela, del Instituto de Astrofísica de Andalucía adscrito al CSIC (Consejo Superior de Investigaciones Científicas, en España), así como J. Licandro, del Instituto de Astrofísica de Canarias en España.
27/04/2015, 19:04 -

Re:FORO-CIENCIA

#3161
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Lanzados los satélites de comunicaciones Thor-7 y Sicral-2

Astronautica


(Foto: Arianespace)

El 26 de abril despegó desde la base de Kourou, en la Guayana Francesa, un cohete Ariane-5 (V222) con dos satélites de comunicaciones a bordo. El lanzamiento ocurrió a las 20:00 UTC, unos minutos después de lo previsto (ya se había retrasado desde el viernes), y supuso la colocación del Thor-7 y del Sicral-2 en órbitas de transferencia geoestacionaria.
El Thor-7 es propiedad de la empresa noruega Telenor. Ha sido construido por la estadounidense Space Systems/Loral sobre una plataforma LS-1300, que transporta a bordo 11 repetidores en banda Ku, y un sistema de comunicaciones en banda Ka. Este último cubrirá 25 zonas alrededor de Europa, permitiendo en especial la transmisión de datos de alta velocidad para buques, plataformas petrolíferas y aviones. La carga Ku transmitirá programas de televisión y radio. El Thor-7 pesó unos 4.800 Kg al despegue, y operará durante unos 15 años desde la posición geoestacionaria 1 grado Oeste.
Por su parte, el Sicral-2, llamado también Syracuse-3C, será utilizado por los ministerios de defensa italiano y francés, de forma conjunta (62 y 38 por ciento, respectivamente). Ha sido construido por las empresas italianas Thales Alenia Space Italia y Telespazio sobre una plataforma Spacebus-4000B2. Gracias a su carga de comunicaciones en las bandas UHF y SHF, podrá ser utilizado para contactos entre tropas y mandos (en tierra, mar y aire), y también en operaciones de la OTAN. El satélite, de unas 3 toneladas de peso, quedará anclado en la posición geoestacionaria 37 grados Este para una operación de 15 años.


Video
27/04/2015, 19:08 -

Re:FORO-CIENCIA

#3162
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La nave Progress M-25M abandona la estación espacial

Astronautica


Al fondo, la Progress M-25M. (Foto: NASA)

La nave de carga rusa Progress M-25M se separó el 25 de abril de la estación espacial internacional. La separación desde el módulo Pirs se efectuó a las 06:41 UTC. Cargado de basura y otros elementos inservibles, el vehículo sería enviado a una reentrada destructiva sobre la atmósfera al día siguiente, para caer sobre el océano Pacífico. Con la partida de esta Progress, el complejo orbital está listo para recibir a su sucesora, cuyo lanzamiento es inminente.

Video
27/04/2015, 19:12 -

Re:FORO-CIENCIA

#3163
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Las cuevas actúan como sumideros del metano atmosférico

Geología


Muestreo en la cueva de Castañar de Ibor (Cáceres). (Foto: MNCN-CSIC)

Investigadores del Museo Nacional de Ciencias Naturales (MNCN-CSIC), en España, han comprobado que el metano (CH4) desaparece en los entornos subterráneos con un elevado grado de humedad ambiental como las cuevas, es decir, actúan como sumideros contribuyendo al descenso de la concentración de metano en la atmósfera.
Los resultados, que aparecen publicados en la revista Nature Communications, podrían conducir al desarrollo de vías rentables para mitigar las emisiones de este gas de efecto invernadero y, por lo tanto, el calentamiento global.Tras el CO2, el metano es el gas de efecto invernadero más abundante de la Tierra. 
“Aún hay gran incertidumbre respecto a la diversidad de las fuentes y sumideros de metano existentes, así como sobre su evolución a lo largo del tiempo”, comenta Ángel Fernández-Cortés, investigador del MNCN y Marie Curie Fellow en Royal Holloway (Universidad de Londres). “Hemos detectado que tanto las cuevas como otros ambientes subterráneos como los túneles, actúan como sumideros y que los resultados son extrapolables a otros enclaves de la zona vadosa (la que está por encima del nivel freático) con rocas porosas o fisuradas conectadas con la atmósfera exterior”, continúa. Según Sergio Sánchez-Moral, investigador del MNCN, “descubrimos este fenómeno cuando estábamos estudiando el comportamiento del dióxido de carbono en relación a otros gases como el radón o el metano en la Cueva de Altamira. Al analizar las mediciones detectamos que el metano atmosférico desaparecía al entrar en la cueva el aire exterior”.
Para desarrollar este trabajo, tomaron muestras en diferentes cavidades de la zona vadosa. En concreto, han monitorizado 7 cuevas y otros entornos subterráneos como los túneles de Oporto (Portugal). Asimismo, tomaron muestras en diferentes épocas del año y en ambientes y ecosistemas diversos.
“Hemos analizado más de 1.000 muestras de aire externo, del suelo y del subsuelo que prueban que la concentración de este gas disminuye llegando a incluso a desaparecer por completo. Se trata de un proceso general de oxidación que, aparentemente, es muy rápido y actúa a escala horaria”, continúa Sanchez-Moral.
Hasta ahora se sabía que el metano desaparece de la atmósfera principalmente por la fotooxidación que, en presencia de vapor de agua, produce la luz ultravioleta en la troposfera, a través de la oxidación de las bacterias metanotrofas del suelo y por su salida a la estratosfera.
“Ahora sabemos que también los ambientes subterráneos actúan como sumideros naturales de este gas. Además, hemos comprobado que la oxidación por bacterias metanotrofas, las que lo eliminan en el suelo, no es el principal mecanismo de eliminación en los ambientes subterráneos, ya que los análisis de las muestras, que han realizado en el Instituto de Recursos Naturales y Agrobiología de Sevilla, también del CSIC, evidencian que no están presentes en cavidades como la de Castañar de Ibor (Cáceres), donde la concentración de metano es nula durante todo el año”, explica Soledad Cuezva investigadora vinculada al MNCN y actualmente contratada Torres Quevedo en Geomnia SLNE.
“Creemos que la desaparición del gas está relacionada con un fuerte  grado de ionización del aire en las cavidades pero todavía tenemos que investigar qué reacción química se produce para que sea eliminado. Asimismo debemos cuantificar el efecto para incluirlo en los balances globales de metano”, concluye Fernández Cortés.

Fuente: MNCN-CSIC
27/04/2015, 19:15 -

Re:FORO-CIENCIA

#3164
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La UPSA estudia la evolución de los podcast en España y Latinoamérica

Internet


María Blanco, técnico de la UPSA. (Foto: DICYT)

Un proyecto de la Universidad Pontificia de Salamanca (UPSA), en España, está analizando la evolución de los podcasts, archivos de audio digitales de temas muy diversos que los usuarios pueden encontrar y compartir en internet. Un estudio realizado en la UPSA observó los cambios que se produjeron entre 2008 y 2011 en España y Latinoamérica, y la continuidad de la investigación plantea como objetivo seguir investigando las características de este formato de comunicación y su consumo.
“Queremos saber cuál es la evolución del conocimiento del podcast, cómo son los usuarios y su comportamiento actual”, señala a DiCYT María Blanco, técnico de la UPSA y responsable del proyecto, que realizó su tesis doctoral con los resultados de la anterior investigación y bajo la dirección de Alfonso José López Rivero y Emma Rodero.
“Cuando aparecieron los podcast parecía que podían convertirse en el nuevo gran formato de comunicación junto a los blogs, pero estos han crecido mucho y los podcasts no”, apunta. “Creemos que entre el 2011 y el 2015 el consumo general no ha ascendido, pero también tenemos la hipótesis de que el usuario es más fiel y le dedica más tiempo y creemos que quienes elaboran los archivos lo hacen de manera más profesional”, añade. A través de 14.000 encuestas en 2008 y 24.000 en 2011, respondidas por correo electrónico en España y América Latina, la investigación anterior reveló datos curiosos. Por ejemplo, la primera muestra indica que los podcasts más escuchados fueron los de tecnología, noticias y juegos, mientras que solo tres años después las preferencias habían cambiado y los temas favoritos eran los de ocio, ciencias, deportes y juegos.
El perfil del consumidor de podcast es de un hombre, de entre 19 y 20 años, con estudios primarios y medios y que suele realizar compras on line. Los usuarios escuchan los archivos principalmente en el ordenador, tanto a través de la descarga como en streaming, aunque se observó un aumento del consumo a través de dispositivos móviles, con un tiempo medio algo inferior a dos horas diarias. “La mayoría manifiesta que los escucha principalmente como entretenimiento y considera que le proporcionan un acceso a la información de forma más rápida y más fácil que el resto de medios”, apunta María Blanco. Entre las dos fases de la encuesta ya se observaba una tendencia: descendió el conocimiento, la escucha general y las suscripciones a archivos podcasts, pero el consumo diario de las personas interesadas aumentó. “Nos preguntamos por qué existe tanto desconocimiento de este formato, casi nadie sabe lo que es un podcast, pero cuando te encuentras con alguien que lo conoce, sabe mucho y consume varios”, indica la técnico. Casi todos los usuarios de podcast están suscritos a varios y como producto parece tener un gran poder de fidelización.
Entre España y Latinoamérica no existen grandes diferencias, aunque al otro lado del Atlántico se consumen un poco más y buena parte de los que existen están relacionados con la educación. Precisamente, en el continente americano existen también algunas investigaciones en torno al podcast dentro de un contexto educativo.
Sin embargo, en línea con el gran desconocimiento general sobre los podcasts, no hay estudios como este en el ámbito hispanohablante. Por el contrario, en Estados Unidos el fenómeno está mucho más investigado y el perfil de consumo es similar al iberoamericano, aunque los oyentes son de mayor edad.
En la nueva fase de la investigación, que comenzó hace medio año y podría ofrecer resultados para el próximo mes de junio, se pretende que la muestra también sea muy amplia para continuar analizando la evolución del formato. Sin embargo, este proyecto quiere recabar a la vez otro tipo de información. “Queremos analizar el contenido y la estructura de los podcasts más escuchados, ahondar en la duración, los temas y las personas que participan”, adelanta María Blanco.

Fuente: José Pichel Andrés/DICYT

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO