PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 857956 veces)

16/11/2011, 17:23 -

Re: FORO-CIENCIA

#615
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Comienzan los preparativos para el primer vuelo del cohete Vega


La etapa P80 en tránsito. (Foto: ESA - S. Corvaja, 2011)


Comenzó ya la primera campaña de lanzamiento del cohete Vega en el Puerto Espacial Europeo, con la instalación de la primera etapa del vehículo sobre la plataforma de lanzamiento. El vuelo inaugural del nuevo lanzador europeo tendrá lugar a finales de enero de 2012.
La primera etapa del lanzador, denominada P80, fue trasladada desde el Edificio de Integración de Motores de Combustible Sólido a la plataforma de lanzamiento de Vega el pasado día 7 de noviembre, a lomos del sistema de transporte pesado ‘Fardier’.
Al igual que cuando se trasladan los motores de combustible sólido de Ariane 5, las medidas de seguridad del Puerto Espacial Europeo obligaron a evacuar durante el traslado a todo el personal no imprescindible de los edificios cercanos. 
Con el P80 en el interior de la torre de servicio móvil, el equipo de lanzamiento está configurando los sistemas de tierra, en preparación para la Revisión de Aceptación Final del motor y de su sistema de control vectorial, que orienta el flujo de la tobera para dirigir el vuelo del lanzador.
En las próximas semanas, la segunda y la tercera etapa del lanzador (Zefiro-23 y Zefiro-9, respectivamente) serán trasladadas a la plataforma de lanzamiento, donde se integrarán con el resto del vehículo.
Antes de finales de año, en cuanto concluya la Revisión de la Preparación para el Vuelo, se añadirá la cuarta etapa, conocida como AVUM – Módulo Superior Vernier y de Actitud – al conjunto del lanzador.
En paralelo a la integración del lanzador, se están preparando los satélites que viajarán a bordo de Vega en su vuelo inaugural.
A finales de este año terminarán los preparativos del satélite reflector LARES de la agencia espacial italiana (ASI), de ALMASat-1 y de los seis picosatélites desarrollados por otras tantas universidades europeas, incluyendo una española.
La campaña de lanzamiento continuará en enero, con la integración del ‘conjunto superior’ – formado por la carga útil encapsulada bajo la carena protectora – con el resto del lanzador. Tras las últimas comprobaciones, se realizará un ensayo general de la cuenta atrás para comprobar que tanto el vehículo como la infraestructura de tierra están preparados para el vuelo inaugural del nuevo lanzador europeo.
Este vuelo de certificación de Vega preparará el camino para las siguientes cinco misiones, que tendrán como objetivo demostrar la flexibilidad de este nuevo sistema de lanzamiento dentro del programa VERTA – Acompañamiento de Investigación y Tecnología para Vega.
Vega está diseñado para llevar a cabo una gran variedad de misiones y para acomodar distintas configuraciones de carga útil, lo que le convierte en un lanzador capaz de responder con gran flexibilidad a las distintas oportunidades de mercado.
En concreto, Vega puede lanzar tanto un único satélite como complejas configuraciones formadas por un satélite principal acompañado por seis microsatélites, como demostrará en este primer vuelo.
Vega ha sido diseñado para poner en órbita satélites de entre 300 y 2.500 kg de masa, en función del tipo de órbita y de la altitud requerida para cada misión. Como punto de referencia se toma el lanzamiento de un satélite de 1.500 kg a una órbita polar de 700 km de altitud.
En total, siete Estados miembros de la ESA (Italia, Francia, España, Bélgica, Países Bajos, Suiza y Suecia) participan en este programa.
El contratista principal para el desarrollo del lanzador es ELV SpA, una compañía filial de AvioSpa (70%) y de la agencia espacial italiana ASI (30%). Vitrociset es el contratista principal para la infraestructura de tierra. (Fuente: ESA)

[youtube]http://www.youtube.com/watch?v=Nw8_eoRJYVs&feature=player_embedded[/youtube]
16/11/2011, 17:26 -

Re: FORO-CIENCIA

#616
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los gusanos, entre los primeros animales en recuperarse tras la extinción masiva que acabó con los dinosaurios


Karen Chin. (Foto: UCB)


Un nuevo estudio de los sedimentos depositados poco después de que un asteroide cayera en el Golfo de México hace 65,5 millones de años (una catástrofe asociada a una gran extinción global en la que también perecieron los dinosaurios), sugiere que simples y humildes gusanos pudieron ser parte destacada de la primera fauna que resurgió después del cataclismo planetario.
Nuevas evidencias obtenidas en Dakota del Norte por el equipo de la geóloga Karen Chin de la Universidad de Colorado en Boulder muestran redes de pequeñas madrigueras presumiblemente excavadas por gusanos, a menos de 8 centímetros por encima de la capa de sedimentos que marca el Límite Cretáceo-Terciario.
Aunque Chin y sus colegas aún están trabajando para fechar con la debida precisión y fiabilidad las madrigueras fósiles, ella cree que probablemente fueron hechas pocos miles de años después de la extinción. Las investigaciones futuras deberían ayudar a definir mejor la antigüedad de esas madrigueras.
Las madrigueras, que han dejado huellas tridimensionales, fueron encontradas justo entre una capa de carbón y una capa de limolita, en un sitio ubicado en el sudoeste de Dakota del Norte. El hallazgo lo hizo Dean Pearson, del PTRM (Pioneer Trails Regional Museum), un museo instalado en Bowman, Dakota del Norte.
Pearson ha pasado muchos años en la zona estudiando yacimientos del Límite Cretáceo-Terciario. La descomposición de la materia orgánica acaecida en el entorno durante aquella época remota debió servirles como fuente de alimento a los gusanos.
La arcilla de la capa límite formada a finales del periodo Cretácico está asociada con altos niveles de iridio, un elemento poco común en la corteza terrestre, pero abundante en los asteroides.
El asteroide del tamaño de Manhattan cayó en la Tierra a una velocidad 150 veces mayor que la de un avión de pasajeros a reacción, y se cree que liberó alrededor de mil millones de veces la energía de la bomba atómica de Hiroshima, provocando durante un tiempo tormentas colosales de polvo y ceniza, incendios aterradores, tsunamis ciclópeos, megaterremotos, y la oscuridad y el frío propios de un Invierno Nuclear.
En la investigación también ha trabajado A.A. Ekdale de la Universidad de Utah.
16/11/2011, 17:28 -

Re: FORO-CIENCIA

#617
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Exitoso segundo acoplamiento de la Shenzhou-8


(Foto: CAS)


El siguiente paso de la misión de acoplamiento entre las naves chinas Shenzhou-8 y Tiangong-1 se saldó con otro éxito. Los dos vehículos, sin tripulación a bordo, se comportaron como estaba previsto, y proporcionan la confianza necesaria para el próximo envío de astronautas a la pequeña estación orbital.
Después de varios días de unión con el complejo, la SZ-8 se separó de este último a las 11:27 UTC del 14 de noviembre. Lo hizo durante la fase diurna de la órbita, poco antes de la “puesta”, para demostrar que los sensores ópticos podían trabajar correctamente en este tipo de maniobras incluso en presencia de los rayos del sol. Por precaución, el primer acoplamiento se efectuó en la fase nocturna de la órbita.
Después de alejarse unos 120 metros, la SZ-8 volvió a activar su sistema de acercamiento automático y se aproximó al puerto de atraque (tras una pausa a unos 30 metros), con el que entró en contacto por segunda vez a las 11:53 UTC. Una vez asegurada la unión, los controladores chinos reanudaron la operación normal del conjunto.
Los ingenieros han demostrado que su nave puede unirse y separarse de la estación espacial de forma automática, y hacerlo en diversas circunstancias de iluminación. Eso permitirá llegadas y partidas en una mayor variedad de momentos y otorgará flexibilidad al sistema.
La SZ-8 volverá a separarse en breve, y retornará a la Tierra el 17 de noviembre. La Tiangong-1 seguirá funcionando en solitario en órbita, a la espera de sus primeros ocupantes humanos, que volarán el año próximo.
16/11/2011, 17:32 -

Re: FORO-CIENCIA

#618
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los microbios que consumieron el gas natural en el vertido de la plataforma petrolera Deepwater Horizon


Molly Redmond toma muestras. (Foto    :D    avid Valentine)


El vertido de petróleo en 2010 de la plataforma petrolera Deepwater Horizon tuvo características únicas por la gran profundidad a la que ocurrió y por contener tanto gas natural, principalmente metano, etano y propano.
Esos dos factores influyeron en el modo en que las bacterias oceánicas reaccionaron al vertido.
El equipo de David Valentine y Molly Redmond, geoquímicos de la Universidad de California en Santa Bárbara, usó ADN para identificar los microbios presentes en el Golfo de México tras el vertido de petróleo de la Deepwater Horizon, y en particular los microbios responsables de consumir el gas natural inmediatamente después del vertido.
En estudios anteriores, Valentine, Redmond y otros especialistas mostraron que el etano y el propano fueron los principales compuestos de hidrocarburos consumidos en Junio de 2010, dos meses después del vertido de Abril.
En Septiembre de 2010, los investigadores descubrieron que estos gases y todo el metano ya habían sido consumidos.
En Mayo y Junio de 2010, los científicos encontraron que en las comunidades bacterianas del penacho submarino predominaban sólo algunos tipos de bacterias (Oceanospirillales, Colwellia y Cycloclasticus), y que esas comunidades eran muy diferentes a las de las muestras de control que no tenían grandes concentraciones de gas o petróleo.
Las comunidades microbianas también eran muy diferentes a las presentes en la marea negra de la superficie, de las que se tomaron muestras al mismo tiempo.
En la superficie, el agua es mucho más cálida que en la profundidad, cerca de 27 grados centígrados frente a cerca de 4 grados, siendo ésta última bastante cercana a la temperatura en el interior de un refrigerador doméstico.
En las muestras de la superficie había muy poco gas natural, sugiriendo ello que la temperatura y el gas natural pudieron tener una importante influencia sobre qué bacterias proliferaron tras el vertido.
Las bacterias que observaron Valentine y Redmond en las muestras de aguas profundas de Mayo y Junio estaban relacionadas con tipos de bacterias que proliferan preferentemente a temperaturas bajas. La mayoría de las bacterias crece más despacio a temperaturas más bajas; es por eso que nuestra comida se conserva mejor dentro del refrigerador que fuera. Sin embargo, esas bacterias amantes del frío crecen más rápidamente a temperaturas frías de lo que lo harían a temperatura templada.
A fin de obtener pruebas adicionales de la importancia de la temperatura, los científicos agregaron petróleo a agua tomada del Golfo, y la incubaron a 4 grados centígrados, y a temperatura templada (unos 21 grados). Después analizaron qué bacterias se desarrollaban a esas dos temperaturas.
En las muestras a 4 grados, las Colwellia fueron las más abundantes, pero sólo se detectaron unas pocas en las muestras a temperatura templada, lo cual sugiere que a estas bacterias les va mucho mejor en aguas frías.
16/11/2011, 17:34 -

Re: FORO-CIENCIA

#619
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Más pruebas de que Marte fue cálido y húmedo en un pasado lejano


ALH84001. (Imagen: NASA)


Por primera vez, se ha conseguido determinar a ciencia cierta la temperatura de la superficie del Marte primigenio. Y los resultados concuerdan con la idea de que en el pasado lejano Marte fue más cálido y húmedo que en la actualidad.
Mediante el análisis de minerales de carbonato en un meteorito de cuatro mil millones de años que se originó cerca de la superficie de Marte, el equipo de Woody Fischer y John Eiler, del Instituto Tecnológico de California (Caltech), e Itay Halevy, ahora en el Instituto Weizmann de Ciencia en Israel, ha determinado que los minerales se formaron a una temperatura de alrededor de 18 grados centígrados.
Averiguar la temperatura de Marte en distintas épocas de su pasado es crucial para conocer la historia del planeta, su pasado climático y cuán abundante fue el agua líquida en él.
Los robots todoterreno enviados a la superficie de Marte, y las naves que lo orbitan, han encontrado ya los vestigios de antiguos deltas, ríos, y lagos, así como depósitos minerales delatadores, todo lo cual apunta a la existencia de flujos de agua líquida en el pasado.
Debido a que Marte tiene ahora una temperatura promedio de 63 grados centígrados bajo cero, la existencia de agua líquida en el pasado significa, entre otras cosas, que el clima era mucho más caluroso entonces. Pero, hasta recientemente, faltaban datos adicionales que apoyasen debidamente esta historia.
El hallazgo es sólo un dato puntual, pero es el primero y único de su clase hasta la fecha. Es una prueba de que en una época temprana en la historia de Marte, hubo en él al menos un lugar capaz de mantener un clima terrestre durante como mínimo un periodo de entre varias horas y varios días.
Para hacer la medición, los investigadores analizaron una de las piedras más antiguas conocidas en el mundo: la ALH84001, un meteorito marciano descubierto en 1984 en la Antártida. El meteorito muy probablemente se originó a decenas de metros por debajo de la superficie marciana. Fue arrojado al espacio en un potente impacto meteorítico. La piedra finalmente acabó cayendo a la Tierra. Esta singular piedra saltó a la fama en 1996 cuando unos científicos descubrieron pequeños glóbulos que parecen ser bacterias fosilizadas de origen extraterrestre, una interpretación que ha sido objeto de fuertes debates desde entonces.
La temperatura que los investigadores midieron, 18 grados centígrados, con un margen de error máximo de 4 grados de más o de menos, descarta muchas hipótesis sobre la formación de carbonato en Marte. La temperatura templada significa que el carbonato tuvo que formarse en agua líquida. A esa temperatura suave, los minerales de carbonato sólo se pueden forjar si están en una solución acuosa.
16/11/2011, 17:37 -

Re: FORO-CIENCIA

#620
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La capacidad de decisión de una célula es de 0,92 bits


Conexión sináptica neuronal. (Ilustración: NIMH)


Se ha conseguido determinar el número de posibles decisiones que una célula individual puede tomar después de recibir información de su entorno, y, en esencia, son sólo dos. Sin embargo, conforme aumenta el número de células que trabajan juntas, también lo hace la capacidad de decisión del grupo.
El estudio pionero en el que se ha hecho este hallazgo combina las matemáticas con experimentos en células vivas, para traducir el funcionamiento interno de la toma de decisiones de la célula en un lenguaje matemático universal, permitiendo que el procesamiento de información en las células sea comparado con el procesamiento de datos que tiene lugar en los ordenadores.
Esta nueva y llamativa investigación también demuestra por qué es ventajosa para las células la estrategia de cooperar entre ellas: Al formar parte de organismos multicelulares, logran superar su limitada capacidad de toma de decisiones.
Cada célula interpreta una señal proveniente del entorno de una manera diferente. Pero si muchas células actúan juntas, generando así una respuesta colectiva, el resultado puede eliminar las diferencias en la interpretación de la señal, en tanto que refuerza los rasgos comunes de las respuestas.
Un bit de información representa dos opciones: sí o no, encendido o apagado, o uno o cero en código binario, utilizado por los programas informáticos. Dos bits duplica la cantidad de opciones a cuatro, y así sucesivamente para cada bit agregado.
A fin de determinar cuántos bits de información tiene una célula para cada decisión, el equipo de Andre Levchenko, del Instituto Johns Hopkins para Ingeniería Celular, tuvo que medir una decisión biológica real en progreso. Los investigadores decidieron examinar los efectos de un conocido estimulante celular, una proteína llamada TNF, responsable de la activación de la respuesta inflamatoria en el cuerpo. Cuando las células detectan TNF en su superficie, transmiten un mensaje que envía una proteína mensajera al núcleo para activar los genes de la inflamación.
Los investigadores administraron distintas cantidades de TNF a células de ratón en placas de Petri, y luego determinaron si el mensajero llegó al núcleo. Acoplaron al mensajero un marcador luminoso, de modo que cuanto más grande fuese la cantidad de mensajero presente en el núcleo, más brillante se viera éste bajo el microscopio. Los investigadores utilizaron un programa informático para cuantificar el brillo del núcleo después de la adición de TNF, con lo que pudieron calcular que la respuesta de una sola célula era de 0,92 bits de información, lo que, esencialmente, permite dos decisiones posibles.
Los investigadores también examinaron la idea de que las células podrían responder colectivamente a estímulos para tomar decisiones en conjunto. Volvieron a cuantificar el brillo del núcleo en respuesta a la TNF, pero esta vez examinaron grupos de células. Encontraron que grupos de tan pocas células como 14 podían producir 1,8 bits de información, correspondientes a entre 3 y 4 diferentes decisiones posibles para el grupo.
El hecho de que grupos de células puedan tomar más decisiones que células aisladas explicaría por qué ser multicelular es una opción provechosa en el mundo animal, y por qué las células a veces pueden lograr mucho más si trabajan juntas que si lo hacen por separado.
16/11/2011, 17:40 -

Re: FORO-CIENCIA

#621
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La Soyuz TMA-22 llega a la estación espacial

[youtube]http://www.youtube.com/watch?v=9y8-ajXQ0nc&feature=player_embedded[/youtube]

La cápsula Soyuz TMA-22 y sus tres pasajeros llegaron a la estación espacial internacional el 16 de noviembre. Su acoplamiento junto al módulo Poisk se llevó a cabo de forma normal, después de un viaje de dos días desde la Tierra.
La nave, con los astronautas Anton Shkaplerov, Anatoly Ivanishin y Dan Burbank a bordo, alcanzó la posición esperada, y tras una aproximación sin incidentes, se unió a la ISS a las 05:24 UTC, cuando el complejo orbital sobrevolaba el Pacífico Sur.
Después de confirmar la perfecta conexión entre los dos vehículos, se abrieron las escotillas y los tres recién llegados pudieron acceder al interior de la estación, donde fueron recibidos por sus inquilinos, el comandante Mike Fossum y los ingenieros de vuelo Satoshi Furukawa y Sergei Volkov.
La tripulación de Burbank permanecerá a bordo durante cuatro meses y deberá ponerse al día lo antes posible, ya que sus compañeros deben regresar a la Tierra muy pronto. Los habitantes de la estación no volverán a su número habitual de seis personas hasta la llegada de otros tres astronautas, que deben despegar el 21 de diciembre.
Para acelerar la transferencia de responsabilidades, Fossum y sus compañeros han registrado varias guías sobre aspectos diversos, a las cuales podrán acceder los recién llegados. El propio Fossum entregará el mando de la estación a Burbank el 20 de noviembre, que a partir de ese momento dirigirá la nueva expedición número 30.
Burbank es ya un veterano, puesto que es la tercera vez que visita la ISS, pero es la primera que permanecerá en ella durante un período de tiempo largo.
Federico García del Real Viudes nos ofrece una breve reseña biográfica de los tres astronautas de la Soyuz TMA-22:
-Anton Nikolayevich Shkaplerov: Nacido en Sevastopol, Ucrania, el 20 de Febrero de 1972, tiene 39 años y está casado con Tatyana Petrovna, con la que tiene dos hijas, Kristina y Kira. Es Coronel de la Fuerza Aérea rusa, piloto instructor e instructor paracaidista con 300 saltos. Es cosmonauta de prueba de la Federación Rusa desde 2003. No había volado al espacio y se ha convertido en la persona número 521 en hacerlo.
-Anatoly Alekseyevich Ivanishin: Tiene 42 años, pues nació el 15 de Enero de 1969 en Irkutsk, Rusia. Está casado con Svetlana Ivanishin y tiene un hijo, Vladislav. Es piloto y Teniente Coronel de la Fuerza Aérea Rusa, cosmonauta de prueba desde 2003 y graduado en Economía por la Universidad de Moscú. Tiene en su haber más de 500 horas de vuelo y 180 saltos en paracaídas. Novato en vuelos espaciales, es el 522º humano en dirigirse al espacio.
-Daniel Christopher Burbank: Tiene 50 años, ya que nació el 27 de Julio de 1961 en Connecticut, Estados Unidos. Está casado y tiene 2 hijos. Es astronauta desde 1996, del grupo 16, y Teniente Comandante del Cuerpo de Guardacostas. Acumula más de 4.000 horas de vuelo en aviones y helicópteros en 1.800 misiones, de las cuales 300 son de búsqueda y salvamento. Es el astronauta número 396 y este es su tercer vuelo, ya que viajó a la ISS en dos ocasiones, la primera el 8 de Septiembre de 2000 a bordo del Atlantis STS-106, y posteriormente el 9 de Septiembre de 2006 de nuevo en el Atlantis, en el vuelo STS-115. Acumula 23,6 días en el espacio y ha realizado un paseo espacial o EVA.

[youtube]http://www.youtube.com/watch?v=qYk--O8KEmw&feature=player_embedded[/youtube]
16/11/2011, 17:42 -

Re: FORO-CIENCIA

#622
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Carcasa más segura para baterías de automóviles eléctricos


La carcasa de la batería. (Foto: Fraunhofer ICT)


Si se pretende que un automóvil eléctrico sea del todo respetuoso con el medio ambiente, debe pesar tan poco como sea posible, porque cuando la luz del semáforo se pone verde, hay que volver a acelerar cada uno de los kilogramos que pese el vehículo, y eso acarrea un gasto de energía que puede ser notable. Además, cuanto más ligero sea el vehículo eléctrico, más largo puede ser su recorrido sin tener que ser conectado a un enchufe eléctrico.
Para avanzar en ese aligeramiento de peso de los vehículos eléctricos, un equipo de ingenieros del Instituto Fraunhofer para la Tecnología Química (ICT) en Pfinztal, Alemania, está desarrollando nuevos conceptos industriales que tienen una meta clara: reemplazar gradualmente los componentes en los vehículos con otros más ligeros. Sin embargo, no se puede permitir en ningún caso que esto disminuya la estabilidad del vehículo o la seguridad de los pasajeros, tal como advierte Manfred Reif, directivo del proyecto.
La viabilidad de esta filosofía de diseño ya ha sido demostrada por los investigadores con un Artega GT, un automóvil deportivo que ha sido modificado para funcionar con un motor eléctrico. Éste está instalado en la parte trasera del vehículo.
Los expertos, junto con sus colegas del Instituto Ernst Mach y otras instituciones, han desarrollado para la batería una carcasa a prueba de choques. Ya está lista para su producción masiva, y cumple con estrictos requisitos.
La carcasa, que protege a la batería de 340 kilogramos de peso, sólo pesa 35 kilos. Las carcasas tradicionales hechas de acero pesan hasta un 25 por ciento más.
La nueva carcasa de protección resiste un choque de hasta diez veces la aceleración de la gravedad. E incluso cuando un objeto afilado colisiona contra ella a 60 kilómetros por hora, la batería, altamente sensible, que reposa en su interior, logra permanecer intacta. Además, los 16 módulos de ión litio están protegidos de la humedad, y una membrana semipermeable para igualar las presiones garantiza que las baterías sean capaces de "respirar".
16/11/2011, 17:46 -

Re: FORO-CIENCIA

#623
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Hallan la clave que completa los modelos de los relámpagos en la alta atmósfera


Tormenta eléctrica.


Toda una familia de fenómenos luminosos emparentados con los rayos de tormenta se producen en la mesosfera, una región situada cuarenta kilómetros por encima de las nubes. Ahora, científicos del Instituto de Astrofísica de Andalucía (IAA-CSIC) han hallado el motivo de que, en ocasiones, estos destellos se produzcan con cierto retardo con respecto al rayo que los desencada.
Hace dos décadas se descubrió un asombroso fenómeno: se observaron intensos destellos en la mesosfera, una región de la atmósfera situada a partir de los cincuenta kilómetros por encima del suelo y que se creía carente de actividad. Relacionados con los rayos de tormenta pero situados decenas de kilómetros sobre las nubes, resultaba inexplicable que algunos de estos destellos, los conocidos como sprites retardados, se produjeran con retraso con respecto al rayo que los desencadenaba. Un trabajo, desarrollado por los investigadores del Instituto de Astrofísica de Andalucía (IAA-CSIC) Alejandro Luque y Francisco J. Gordillo y publicado en Nature Geoscience, aporta la clave que faltaba en los modelos de iniciación de los sprites.
Los sprites son eventos luminosos que duran centésimas de segundo y que muestran una parte superior difusa y una región inferior poblada de "tentáculos" (filamentos de aire ionizado de entre diez y cien metros de grosor). Pueden extenderse desde los cuarenta hasta los casi cien kilómetros sobre el suelo y se producen simultáneamente al rayo que los desencadena o con cierto retraso. "Los sprites retardados eran la prueba de que nuestro conocimiento era incompleto: no podíamos explicar que, en lugar de producirse entre dos y tres milisegundos después del rayo, se demoraran hasta 150 milisegundos", apunta Francisco J. Gordillo (IAA-CSIC).
Para que se produzca una descarga en la mesosfera es necesaria la existencia de electrones libres, partículas que surgen y se eliminan a través de dos reacciones conocidas como ionización por impacto y fijación asociativa. "Los modelos empleados hasta ahora aseguraban que era necesario cierto campo eléctrico para que se produjeran más electrones de los que se destruían", señala Alejandro Luque (IAA-CSIC).
"Esto funciona a presión atmosférica, es decir, en las capas bajas de la atmósfera, pero no era suficiente para estudiar las descargas en la mesosfera, mucho más alta y con una presión considerablemente menor", observa Luque. Los científicos del IAA hallaron que, para alturas de más de quince kilómetros, entraba en juego una tercera reacción, la de desprendimiento asociativo, que ponía electrones en circulación y completaba las teorías existentes. "Esta reacción nos permite explicar el retraso de algunos sprites, porque su tiempo característico concuerda con los retrasos observados", concluye Francisco J. Gordillo.
Un sprite se produce del siguiente modo: una nube de tormenta presenta carga eléctrica negativa en la parte inferior y positiva en la superior. Generalmente, los rayos emergen de la región inferior y muestran polaridad negativa, pero en ocasiones surgen rayos con polaridad positiva, mucho más potentes y peligrosos. Estos últimos producen un campo eléctrico que asciende hacia las capas altas atmosféricas y que desencadena el sprite.
Los sprites constituyen un tipo dentro una amplia familia de fenómenos eléctricos que tienen lugar en la mesosfera, que se conocen como Eventos Luminosos Transitorios (TLEs, de sus siglas en inglés) y entre los que se encuentran también los elves, los halos, los blue jets o los gigantic blue jets. El descubrimiento de estos eventos cambió radicalmente la imagen de la mesosfera, que se consideraba carente de fenómenos físicos relevantes.
La influencia de los TLEs en las propiedades químicas y eléctricas de la alta atmósfera es actualmente objeto de investigaciones realizadas por grupos de todo el mundo. Uno de ellos es el Group of Transient Plasmas in Planetary Atmospheres, liderado por Francisco J. Gordillo en el IAA.
"La mesosfera, demasiado tenue para sostener un globo sonda y demasiado espesa para orbitar un satélite, ha recibido muy escasa atención científica -de hecho, algunos científicos la conocen como ignorosfera-", comenta Alejandro Luque (IAA-CSIC). Cada uno de estos fenómenos luminosos revela información que ayuda a entender la actividad eléctrica y química de la región y permite completar nuestro conocimiento del circuito eléctrico global del planeta. (Fuente: IAA)
16/11/2011, 17:48 -

Re: FORO-CIENCIA

#624
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El hielo estival ártico no ha recuperado el grosor que perdió en 2007


Los oceanógrafos trabajan en el Ártico. (Foto: Stefan Hendricks, Alfred Wegener Institute)


En el Ártico central el porcentaje de hielo viejo y grueso se ha reducido significativamente. La cubierta helada ahora consiste mayormente de témpanos de hielo de a lo sumo un año de edad.
Éste es uno de los resultados que los científicos del Instituto Alfred Wegener para la Investigación Polar y Marina de la Asociación Helmholtz han traído consigo al término de la expedición número 26 al Ártico, del buque científico Polarstern.
En su travesía, el barco ha cubierto más de 11.800 millas náuticas a lo largo de 16 semanas.
Una de las preguntas más importantes para la investigación era: ¿El hielo marino se derritió en una extensión mucho mayor este verano, haciendo que la masa total restante fuera más delgada que en los años precedentes?
Para contestarla, los físicos especializados en el hielo marino, encabezados por Marcel Nicolaus y Stefan Hendricks, emplearon un instrumento de medición referido como "Pájaro Electromagnético". Esta sonda, en forma de torpedo de casi cuatro metros de longitud, sobrevuela el hielo portada por un helicóptero, y mide su espesor por medio de un método de inducción electromagnética. De esta forma, los físicos crearon un perfil del grosor del hielo ártico en una distancia total recorrida de 2.500 kilómetros.
Su conclusión es que en los lugares donde en las últimas décadas el hielo marino solía estar compuesto principalmente de témpanos viejos y gruesos, ahora lo que más abunda es hielo de un año de antigüedad con un espesor medio de 90 centímetros.
Los físicos sólo encontraron cantidades importantes de hielo de varios años en la Cuenca Canadiense y cerca del Archipiélago ruso de Severnaya Zemlya, en el norte de Siberia. Por regla general, este hielo viejo tiene entre 2 y 5 metros de espesor.
Los investigadores no han encontrado diferencias entre las mediciones actuales y las realizadas en 2007, cuando la extensión del hielo marino había disminuido hasta una cantidad mínima récord de 4,3 millones de kilómetros cuadrados.
El hielo no se ha recuperado. Este verano parece haberse fundido exactamente en la misma magnitud que en el de 2007. En el verano de 2011 ese hielo ha alcanzado el mismo valor mínimo de grosor de hielo estival que el año récord, 2007.
16/11/2011, 17:51 -

Re: FORO-CIENCIA

#625
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Más misterio sobre la ubicación del CO2 en épocas de glaciación


Un lugar obvio donde buscar el carbono perdido es el mar. (Foto: NCYT/MAM)


Durante las eras glaciales, no sólo el clima global era más frío sino que también había menos dióxido de carbono atmosférico. Dado que los humanos no causamos ese cambio en las concentraciones del dióxido de carbono (CO2), eso implica que el carbono fue absorbido por algún otro depósito.
Un lugar obvio donde buscar el carbono perdido es el mar, donde se almacena más del 90 por ciento del carbono con movilidad potencial.
El Océano Pacífico es el más grande en cuanto a volumen. La masa de agua profunda que más tiempo ha estado aislada de la atmósfera y la más rica en carbono se encuentra hoy en el Pacífico Nordeste, así que los investigadores dirigieron sus esfuerzos hacia allí.
Ellos supusieron que la cantidad de tiempo transcurrida desde que el agua de las profundidades estuvo en contacto con la atmósfera por última vez (un parámetro que se conoce como "edad de ventilación") sería mayor en las épocas glaciales, permitiendo que el CO2 se acumulara en esas zonas profundas.
El equipo de Alan Mix, profesor de oceanografía en la Universidad Estatal de Oregón, y David Lund, paleoceanógrafo de la Universidad de Michigan, se ha llevado una gran sorpresa al descubrir, mediante dataciones detalladas por radiocarbono de foraminíferos encontrados en un núcleo de sedimentos submarinos a 120 kilómetros de la costa de Oregón, que, durante la última edad de hielo, el Pacífico Nordeste profundo tenía una edad de ventilación similar a la de hoy. Esto indica que sus profundidades no fueron un sumidero importante de carbono durante esos períodos glaciales.
Aún más intrigante es el hallazgo de que la edad de ventilación aumentó durante el período correspondiente a la desglaciación, justo cuando los niveles de CO2 atmosféricos estaban elevándose.
Lund y sus colegas no descartan que algunas de las mediciones y resultados de análisis se estén malinterpretando. Pero, por lo pronto, el misterio prosigue.
16/11/2011, 17:53 -

Re: FORO-CIENCIA

#626
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La contaminación por metales en el Mediterráneo comenzó hace 2.800 años


Ejemplar de 'Posidonia oceánica'. (Imagen: M.A. Mateo (CSIC))


Los sedimentos de ‘Posidonia oceanica’ albergan un archivo prehistórico de la concentración de metales en dicho mar. El inicio de la polución coincide con el desarrollo de los periodos griego y romano, y aumenta hasta la actualidad y de forma acelerada, a partir de la revolución industrial.
Los primeros vestigios de contaminación antropogénica sobre el Mediterráneo a causa de los metales datan de unos 2.800 años, según revela una investigación dirigida por el Consejo Superior de Investigaciones Científicas (CSIC). La fecha coincide con el desarrollo minero, metalúrgico, cultural y tecnológico de las civilizaciones humanas de los periodos griego y romano.
El trabajo analiza la concentración de residuos metálicos en los sedimentos de las praderas de Posidonia oceanica de la bahía de Port Lligat (Girona). Dichas praderas se extienden 94.315 metros cuadrados y cubren el 69% de los fondos de la bahía. Los sedimentos estudiados alcanzan los 5 metros de espesor y reflejan 4.500 años de antigüedad.
El investigador del CSIC en el Centro de Estudios Avanzados de Blanes Óscar Serrano, explica: “Estos depósitos son un registro privilegiado para la reconstrucción del pasado en la costa mediterránea, un área especialmente expuesta a las perturbaciones naturales y antropogénicas”. El trabajo ha sido liderado por Miguel Ángel Mateo, perteneciente al mismo centro del CSIC.
Los resultados, que han sido publicados en la revista Science of the Total Environment, describen un aumento inicial en la concentración de metales hace unos 2.800 años. Posteriormente, se produce un incremento en las cantidades de zinc, plomo, cadmio, cobre, arsénico y hierro hace unos 2.500 años, especialmente durante el periodo romano.
A lo largo de los últimos 1.200 años, el Mediterráneo ha experimentado un aumento gradual en la presencia de metales que se aceleró notablemente en los últimos 350 años a partir de la revolución industrial. En esta época se aprecia especialmente el aumento del plomo, el zinc y el arsénico.
Para Serrano, “las praderas de posidonia no sólo generan registros milenarios, si no que almacenan grandes cantidades de metales pesados que refuerzan las funciones de esta planta en la biogeoquímica costera”. Frente a la “clara regresión” que están sufriendo estos ecosistemas, el investigador del CSIC considera que “posidonia demuestra ser un gran filtro y sumidero de polución en primera línea de costa”. (Fuente: CSIC)
16/11/2011, 17:55 -

Re: FORO-CIENCIA

#627
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Estrategias para alimentar a una población humana cada vez más numerosa



Habría que incrementar la productividad agrícola en zonas poco aprovechadas. (Imagen: U. Minnesota)


La agricultura ya ocupa cerca del 40 por ciento de las tierras en el mundo (sin contar a Groenlandia ni a la Antártida), y todavía la séptima parte de la población mundial pasa hambre de manera severa.
Ante la perspectiva de un incremento poblacional adicional de dos mil millones de personas hacia el 2050, con la tendencia al alza en la demanda de productos cárnicos y de biocombustibles, y teniendo en cuenta que para ese año ya no quedará casi nada de tierra arable que no esté ya siendo utilizada, nuestro planeta se enfrenta a un reto sin precedentes.
Utilizando todos los datos disponibles, un equipo de investigadores dirigido desde la Universidad de Minnesota, Estados Unidos, ha recomendado cuatro estrategias básicas que, en su conjunto, podrían hacer posible alimentar a la población actual y a la de las próximas décadas, y sin aumentar la degradación ambiental:
(1) Detener la expansión de la agricultura, especialmente en los trópicos. Deforestar tierras a fin de usarlas para la agricultura daña su capacidad de almacenar carbono, reciclar nutrientes, retener agua, y sostener la adecuada biodiversidad de vegetales y animales. Algunos análisis sugieren que los beneficios en cuanto a producción de comida, aportados por la deforestación tropical, son a menudo limitados, especialmente en comparación con los daños ecológicos que provoca.
(2) Incrementar la productividad agrícola en zonas poco aprovechadas. Muchos lugares de África, Latinoamérica, y Europa del Este sufren de limitaciones de agua y nutrientes, y podrían obtener mayores rendimientos si se hiciera en esas zonas un mejor uso de las variedades de cultivos disponibles, se perfeccionase la gestión de la tierra, y se introdujesen nuevas mejoras en la genética de los cultivos.
(3) Incrementar la eficiencia de los usos del agua, nutrientes, y sustancias químicas para la agricultura. Por ejemplo, en muchas partes de China, el norte de la India, Europa occidental y Estados Unidos, se usan cantidades demasiado elevadas de estos recursos. La práctica de la agricultura de precisión, en la cual los recursos son utilizados sólo en los sitios y cantidades necesarios, junto con la aplicación de políticas de gestión orientadas de manera específica a cada zona, sería de gran provecho. Entre las medidas concretas que cabría tomar destacan evitar el uso excesivo de fertilizantes, y recapturar los nutrientes sobrantes.
(4) Modificar las dietas. La preferencia de un amplio sector de la población por comer poca o ninguna verdura pero sí muchísima carne y productos lácteos no sólo no mejora su salud sino que además malgasta la productividad de las tierras agrícolas. El estudio muestra que, como promedio, el 35 por ciento del total de la producción agrícola se usa para alimentar animales que luego serán destinados a su consumo como carne. Se necesitan 30 kilogramos de grano para producir un kilo de carne de vaca deshuesada.
"Nuestras recomendaciones son a gran escala, y pueden parecer desalentadoras, pero son las únicas vías posibles para alimentar al mundo y combatir los problemas medioambientales de la agricultura", argumenta Jonathan Foley, director del Instituto para el Medio Ambiente, dependiente de la Universidad de Minnesota. "No podemos ignorarlas y decir que no son factibles. Tienen que serlo".
Por otra parte, se calcula que en naciones industrializadas como Estados Unidos, se desperdicia entre el 30 y el 40 por ciento de la comida durante su transporte, en los restaurantes, por caducar en el domicilio del consumidor, y por otras circunstancias que en muchos casos podrían evitarse con una planificación y una concienciación mejores.
« Última modificación: 18/11/2011, 19:41 por otroatletico »
16/11/2011, 17:57 -

Re: FORO-CIENCIA

#628
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La estrategia de limpiar el aire urbano mediante árboles funciona


Árboles en Londres. (Imagen: U. Southampton)


Los árboles son capaces de mejorar la calidad del aire, al filtrarlo y liberarlo de partículas contaminantes dañinas para la salud humana. La estrategia por lo menos ha funcionado en Londres, una urbe bastante castigada por la polución.
Un estudio llevado a cabo por especialistas de la Universidad de Southampton ha demostrado cómo los árboles callejeros de Londres y sus alrededores retiran del aire cada año entre 850 y 2.000 toneladas de partículas contaminantes del tipo PM10. Las partículas de esta clase son las que tienen 10 micrómetros de diámetro o un poco menos.
Un logro importante en esta investigación, realizada por el equipo de Matthew Tallis, Gail Taylor y Peter Freer-Smith, es que la metodología permite predecir cuánta contaminación se eliminará en el futuro a medida que el clima y las emisiones contaminantes cambien. También ha permitido pronosticar los beneficios reales del aumento planeado en el número de árboles en las calles de Londres y otras ciudades de todas partes de Inglaterra.
La investigación indica que plantar un número lo bastante alto de árboles en las áreas más contaminadas de Londres y de sus alrededores, sobre todo si se recurre a una combinación idónea de especies de árboles que incluya a los de hoja perenne como el pino, permitiría obtener el mayor beneficio para la futura calidad del aire, en lo que se refiere a la extracción de las partículas del tipo PM10.
Se sabe que las partículas liberadas por la polución urbana pueden dañar la salud humana, por ejemplo exacerbando el asma, y que la reducción en la exposición a esas partículas podría traer beneficios claros en algunos lugares, como por ejemplo patios de recreo de escuelas ubicadas en zonas urbanas muy congestionadas.
Los espacios urbanos verdes, y los árboles plantados en aceras, dan una amplia gama de beneficios para la población de zonas castigadas por la polución. El nuevo estudio confirma que mejorar la calidad del aire es uno de los beneficios principales.
18/11/2011, 19:47 -

Re: FORO-CIENCIA

#629
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El estudio del genoma permite predecir variaciones en el fenotipo


Diferentes variedades de levadura sometida a diversas condiciones. En este caso su susceptibilidad a una droga. Se puede ver diferentes susceptibilidades al comparar con la muestra control (fila de la izquierda). (Imagen: Wikimedia)


Investigadores del Centro de Regulación Genómica (CRG) han estudiado la manera de predecir los efectos del genoma en el fenotipo de un organismo, utilizando como modelo la levadura. El estudio tiene importantes implicaciones en la medicina personalizada. Los autores afirman que, conociendo los genes relacionados con un determinado fenotipo, es posible evaluar los miles de variaciones genéticas y predecir así qué fenotipos pueden obtenerse.
Para poder predecir los efectos de una manipulación genética tienen que darse, como mínimo, dos condiciones: conocer muy bien el papel de los genes y otras regiones genómicas en relación con el fenotipo, y realizar experimentos en individuos en condiciones controladas.
En el caso del ser humano, esto es muy difícil de conseguir, ya que intervienen miles de variables (desde las moleculares hasta las medioambientales) que hacen imposible realizar una predicción acertada. Este es el gran inconveniente de la medicina personalizada: no se dispone del conocimiento ni de las herramientas necesarias para poder probar todas las variables en juego.
La medicina personalizada intenta predecir el comportamiento del fenotipo (conjunto de características externas de un organismo) mediante la manipulación del genotipo (conjunto de genes de un organismo). La idea principal se basa en conocer las causas moleculares de una enfermedad y las características de cada individuo, de tal manera que, para cada paciente y para cada tipo de enfermedad, se pueda administrar un medicamento específico.
Hasta el momento, las características del individuo se han conseguido mayoritariamente a través de estudios poblacionales y no de estudios en pacientes individuales.
“Como las diferencias se extienden también entre individuos, pensamos en realizar el experimento con un organismo en el que se dieran las dos condiciones mencionadas. Un organismo con mucha información disponible sobre su genoma y, a la vez, un organismo que nos permitiera realizar pruebas individuales bajo muchas condiciones. La levadura nos permite precisamente esto: la conocemos al detalle (como organismo eucariota, su genoma fue el primero en ser secuenciado, en 1996), y podemos medir los resultados mediante una variable visible de manera sencilla: su tasa de crecimiento”, afirma el investigador Ben Lehner, coordinador de la investigación, jefe del grupo y profesor investigador ICREA en el CRG.
Los investigadores evaluaron predicciones sobre el fenotipo de 19 variedades de levadura (Saccaromyces cerevisiae). En la parte final se realizaron más de 1.600 pruebas, cada una bajo condiciones diferentes. Los resultados demostraron que es posible realizar predicciones certeras acerca del fenotipo de una cepa de S. Cerevisiae.
El resultado permite conocer qué modelos y que metodologías darán un mejor nivel de certeza en sus predicciones. Y, si esto es posible en la levadura, con técnicas de secuenciación y experimentación mejores y más rápidas se podrían realizar predicciones más certeras en organismos más complejos.
“Lo mas importante es partir de un conocimiento muy completo del genoma y realizar experimentos individuales. No es posible predecir acertadamente si solo conocemos a fondo un porcentaje muy bajo del genoma humano”, dice el coautor del estudio, el holandés Rob Jelier, investigador postdoctoral del Programa Juan de la Cierva en el CRG.
El estudio se publica en la revista Nature Genetics y ha sido financiado por el Ministerio de Ciencia e Innovación (MMCINN) y el European Research Council (ERC). (Fuente: CRG/SINC)

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO