PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 850093 veces)

22/11/2011, 17:39 -

Re: FORO-CIENCIA

#660
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Aterriza la cápsula Soyuz TMA-02M

Se inició en la estación espacial internacional la Expedición número 30. Los tres astronautas de la número 29 regresaron con éxito a casa el 21 de noviembre, concluyendo su viaje de casi cinco meses y medio.
Dan Burbank se hizo cargo del mando del complejo orbital durante una breve ceremonia. Poco después, Fossum, Volkov y Furukawa completaban la carga de su cápsula espacial, almacenando algunos resultados de experimentos de última hora, que era necesario llevar a la Tierra, así como artículos personales.
Por fin, los tres astronautas se introdujeron en la Soyuz TMA-02M, se despidieron de sus compañeros, y cerraron las escotillas (19:41 UTC). El comandante Volkov se encargó de separar la nave desde su puerto de atraque, en el módulo Rassvet, a las 23:00 UTC. Antes de alejarse de forma definitiva, se probó el funcionamiento correcto del sistema de control automático, que se encargaría de las maniobras de regreso.
Por fin, ya en su órbita independiente, la Soyuz activó sus motores para frenar su velocidad, lo que propició su inmediato descenso a través de la atmósfera. Justo antes de tocar esta última, la nave se desmembró en sus componentes principales, y la cápsula de aterrizaje, equipada con su escudo térmico, pudo iniciar el reingreso atmosférico. La maniobra pudo ser observada desde la estación espacial.
Después de unos minutos de intenso frenado aerodinámico, se abrió el paracaídas y finalmente la TMA-02M se posaba en las estepas de Kazajstán, en un paraje aún nocturno, concluyendo su misión de 167 días.
Las fuerzas de rescate acudieron rápidamente al lugar, en medio de unas condiciones meteorológicas adversas, y sacaron a los cosmonautas de su vehículo. Tras una rápida revisión médica en una tienda de campaña cercana, fueron enviados por vía aérea a Kustanai, desde donde Fossum y Furukawa volarían a Houston y Volkov a Moscú.
En órbita quedan tres astronautas, que pronto recibirán la llegada de otros tres compañeros, cuyo lanzamiento está previsto para el 23 de diciembre.
[youtube]http://www.youtube.com/watch?feature=player_embedded&v=syunkxkacLA[/youtube]
[youtube]http://www.youtube.com/watch?feature=player_embedded&v=UKwa1jbMS40[/youtube]
[youtube]http://www.youtube.com/watch?v=fORo5XeK4DU&feature=player_embedded[/youtube]
22/11/2011, 18:51 -

Re: FORO-CIENCIA

#661
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Desarrollan tecnología láser inspirada en plumas de pájaros


Uno de los pájaros estudiados. (Foto: Ken Thomas)


Una nueva y asombrosa línea de investigación se dirige a discernir cómo dos tipos de estructuras nanométricas en las plumas de los pájaros producen colores brillantes y distintivos. El equipo que trabaja en ello espera que la estrategia de copiar estos trucos nanométricos de la naturaleza les permita producir nuevos tipos de dispositivos láser, que podrán autoensamblarse mediante procesos naturales.
Muchos de los colores que se aprecian en la naturaleza son creados por estructuras nanométricas que dispersan intensamente la luz a frecuencias específicas. En algunos casos, estas estructuras crean iridiscencia, un fenómeno en el cual los colores cambian con el ángulo de observación, como el miniarco iris que cambia de tonalidades en una burbuja de jabón. En otros casos, los colores producidos por las estructuras son estables e invariables.
El mecanismo por el cual se producen estos colores independientes del ángulo de observación ha desconcertado a los científicos durante un siglo: A primera vista, estos colores constantes parecían ser producidos por una mezcla aleatoria de proteínas. Pero a medida que los investigadores aumentaban el nivel de detalle con el que observaban pequeñas secciones de las proteínas, comenzaban a surgir patrones regidos por una configuración bastante ordenada, aunque no del todo. Los científicos descubrieron que este orden somero a corta distancia es lo que dispersa la luz preferentemente a frecuencias específicas, con el resultado de la producción de colores distintivos en estructuras biológicas, como por ejemplo las alas del pájaro conocido popularmente como azulejo.
Inspirado en las plumas, el equipo de Hui Cao, de la Universidad de Yale, Estados Unidos, creó dos láseres que usan este orden somero de corta distancia para controlar la luz.
Uno de los modelos se basa en las plumas que tienen pequeñas cavidades esféricas de aire atrapadas en una proteína llamada beta-queratina. El láser basado en este modelo consta de una membrana semiconductora llena de diminutos agujeros de aire que atrapan la luz a ciertas frecuencias. Los puntos cuánticos presentes entre los agujeros amplifican la luz y producen el haz coherente que es el sello distintivo de un láser.
Los investigadores también construyeron un láser usando una serie de nanocanales interconectados, basándose en sus observaciones de plumas cuya beta-queratina adquiere la forma de canales interconectados en formas tortuosas. El láser de esta clase produce su emisión bloqueando ciertos colores de la luz al tiempo que permite que otros se propaguen.
En ambos casos, los investigadores pueden manipular el color de los láseres mediante la estrategia de cambiar el ancho de las estructuras de un tipo o el espacio entre las del otro.
Una aplicación potencial de los avances conseguidos en esta línea de investigación sería el desarrollo de células solares más eficientes.
Con esta tecnología, también sería viable fabricar pinturas de larga duración, que podrían ser usadas para crear productos cosméticos y textiles. "Las pinturas químicas siempre se desvanecen", subraya la autora principal del estudio, Hui Cao. Sin embargo, una "pintura" que, en vez de ser química, sea física, y en la cual sea su nanoestructura lo que determine su color, no cambiará nunca. Un ejemplo elocuente de esto último es el de un fósil de escarabajo con 40 millones de años de antigüedad que fue examinado recientemente por el personal del laboratorio de Cao, y que tenía nanoestructuras productoras de color. Después de tanto tiempo, aún es posible ver ese color.
22/11/2011, 18:59 -

Re: FORO-CIENCIA

#662
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Investigación automatizada, ¿hacia el científico de silicio?


John Wikswo. (Foto    :D    aniel Dubois / Vanderbilt)


Primero fueron las calculadoras, con las que fue posible hacer operaciones mucho más deprisa que usando la mente, el papel y el lápiz. Luego las supercomputadoras han asumido cada vez más tareas de cálculo, comprobación y simulación, en todas las áreas de la ciencia y la tecnología.
El siguiente paso es hacer que las máquinas sepan interpretar los datos en bruto de experimentos y hallar pautas que las lleven a extraer conclusiones, hacer hallazgos, emitir teorías y hasta generar ecuaciones que definan a los mecanismos analizados. E incluso se habla ya de dotar a los ordenadores del hardware necesario (del tipo conocido como "laboratorio en un chip") para que efectúen por su cuenta experimentos y comprobaciones reales.
Un equipo interdisciplinario de científicos ha dado un paso decisivo en este fascinante camino al demostrar que un ordenador puede analizar datos en bruto de experimentos sobre un sistema biológico y elaborar correctamente las ecuaciones matemáticas básicas que describen cómo funciona ese sistema. Se trata de uno de los problemas más complejos de modelación científica que un ordenador ha solucionado por completo desde cero y sin ayuda.
Este trabajo es el fruto de una colaboración entre John P. Wikswo de la Universidad de Vanderbilt, Michael Schmidt y Hod Lipson del Laboratorio de Máquinas Creativas en la Universidad de Cornell, y Jerry Jenkins y Ravishankar Vallabhajosyula de la empresa CFD Research Corporation, Inc., en Huntsville, Alabama.
El "cerebro" del sistema, al que Wikswo ha bautizado como el Explorador Automatizado de Biología (ABE por sus siglas en inglés), se basa en un programa informático único llamado Eureqa, que fue desarrollado en la Universidad de Cornell y presentado en 2009. Schmidt y Lipson crearon Eureqa originalmente para diseñar robots sin pasar por la etapa normal de prueba y error que es lenta y costosa. Después de lograrlo, se dieron cuenta de que el software también se podía aplicar a la búsqueda de soluciones para problemas científicos.
Uno de los primeros logros de Eureqa fue identificar las leyes básicas del movimiento, analizando el movimiento de un péndulo doble. Lo que a Sir Isaac Newton le llevó años en descubrir, Eureqa lo hizo en un par de horas ejecutándose en un ordenador personal.
Wikswo se dio cuenta de que se podía usar a Eureqa para resolver problemas biológicos e incluso controlar procesos de esa clase. Así comenzó una colaboración con los creadores del software para adaptar a Eureqa al análisis de problemas biológicos.
Para poner a prueba la eficiencia y fiabilidad de ABE con la biología, los investigadores escogieron que analizase la glicólisis, el principal proceso que produce energía en una célula viva. Específicamente, se centraron en el modo en que las células de levadura controlan las fluctuaciones en los compuestos químicos producidos por el proceso.
Los investigadores escogieron este sistema específico porque es uno de los sistemas de control biológico más estudiados. Jenkins y Vallabhajosyula usaron uno de los detallados modelos matemáticos del proceso para generar un conjunto de datos correspondiente a las mediciones que haría un científico bajo diferentes condiciones. Para aumentar el realismo de la prueba, los investigadores incluyeron en los datos un 10 por ciento de errores aleatorios. Cuando suministraron estos datos a Eureqa, éste obtuvo una serie de ecuaciones que eran casi idénticas a las ecuaciones conocidas.
Otro caso asombroso es el del "científico computerizado", llamado Adam, desarrollado por Ross King y sus colegas en la Universidad de Gales en Aberystwyth. Adam realiza experimentos genéticos sobre la levadura, y saltó a la fama hace dos años por realizar un descubrimiento científico novedoso sin intervención humana directa. King suministró a Adam un modelo del metabolismo de la levadura y una base de datos de genes y proteínas implicados en el metabolismo de otras especies. También conectó el ordenador a un laboratorio de genética, controlable por el ordenador mediante un sistema de control remoto. Esto permitió que el ordenador generara hipótesis, y luego diseñara y realizara experimentos reales para comprobarlas.
La capacidad de generar ecuaciones matemáticas desde cero es, sin embargo, lo que dota de una ventaja adicional a ABE con respecto a Adam.
Para dar a ABE la capacidad de realizar experimentos como Adam, el grupo de Wikswo está desarrollando actualmente una tecnología de "laboratorio en un chip" que pueda ser controlada por Eureqa. Esto permitirá que ABE diseñe y realice una amplia variedad de experimentos básicos de biología. Wikswo y sus colaboradores se están centrando inicialmente en el desarrollo de un dispositivo microfluídico que pueda poner a prueba el metabolismo celular.

[youtube]http://www.youtube.com/watch?feature=player_embedded&v=sLtXXFw_q8c[/youtube]
22/11/2011, 19:01 -

Re: FORO-CIENCIA

#663
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Mediciones fiables de los óxidos de nitrógeno presentes en el aire de las ciudades


Distribuciones del dióxido de nitrógeno en Oriente Medio. (Foto: © Science/MPI for Chemistry)


En las zonas urbanas más grandes, se emiten inmensas cantidades de compuestos nocivos a la atmósfera. En particular, el tráfico de vehículos alimentados con combustibles fósiles contaminantes produce cada día miles de toneladas de dañinos óxidos de nitrógeno, los cuales en muchos países todavía no son filtrados, por lo que se incorporan libremente al aire.
Gracias a una nueva técnica, la cantidad de óxidos de nitrógeno emitida al aire en áreas densamente pobladas se puede ahora determinar de manera directa, sin necesidad de extrapolaciones ni simulaciones en modelos.
Unos investigadores del Instituto Max Planck para la Química, en Maguncia, Alemania, junto a colegas de la Universidad de Heidelberg en el mismo país, y del Real Instituto Meteorológico Neerlandés, han conseguido determinar cuánto tiempo suelen permanecer en la atmósfera los óxidos de nitrógeno. Para ello, se han valido de observaciones satelitales de la polución y datos meteorológicos. A partir del tiempo de permanencia de esas sustancias en la atmósfera y los niveles actuales de polución, es factible calcular el grado de contaminación real. Conocer a fondo el alcance de las emisiones permite adoptar medidas más específicas para afrontar del mejor modo posible la contaminación del aire.
Hasta ahora, las emisiones sólo se podían estimar sobre la base de proyecciones teóricas, lo cual entraña incertidumbres inevitables, y conduce por tanto a resultados imprecisos.
El nuevo método desarrollado por el equipo de Steffen Beirle para evaluar el tiempo de permanencia medio de estos compuestos químicos en la atmósfera cambia la situación y permitirá, entre otras cosas, hacer pronósticos más precisos y fiables.
22/11/2011, 19:03 -

Re: FORO-CIENCIA

#664
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Plantas silvestres como apoyo a los polinizadores en los bordes de campos agrícolas


Fomentar el crecimiento de franjas de plantas silvestres en los bordes de los campos de cultivo es muy útil para dar sustento a las abejas y a otros polinizadores importantes. (Foto: NCYT/MMA)


Un nuevo estudio ha mostrado que fomentar el crecimiento de franjas de plantas silvestres en los bordes de los campos de cultivo es muy útil para dar sustento a las abejas y a otros polinizadores importantes.
La investigación realizada por académicos de la Universidad de Bristol, Reino Unido, ha mostrado que aumentar la cantidad de plantas silvestres en los bordes de los campos de cultivo podría ser importante para garantizar que los insectos polinizadores puedan vivir dentro de terrenos agrícolas que se enfrentan a presiones de producción cada vez mayores.
Muchos de los insectos que proporcionan servicios de polinización esenciales para especies agrícolas viven muy cerca de donde hacen su trabajo. Preservar esas franjas silvestres alrededor de los campos puede ser una parte importante de cualquier paquete de medidas para garantizar que la humanidad pueda obtener un rendimiento satisfactorio de las especies agrícolas con flores.
El equipo de Sean Rands usó una combinación de simulaciones matemáticas y datos de la campiña británica para mostrar que la estrategia de incrementar un poco el espacio existente en los bordes del campo puede dar a estas especies polinizadoras una gama más diversa de plantas silvestres de las cuales alimentarse.
Las especies de cultivo pueden ser una fuente suficiente de sustento para los polinizadores cuando tales plantas acaban de florecer, pero una vez que estas flores han desaparecido, los polinizadores que viven en estos campos necesitan encontrar su comida en otra parte. Fomentar el crecimiento de plantas silvestres que florezcan en momentos diferentes del año puede darles el alimento necesario a estos animales
24/11/2011, 18:30 -

Re: FORO-CIENCIA

#665
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Orujo de uva y cáscara de naranja para producir bioetanol


La cáscara de naranja se puede usar como materia prima para producir bioetanol. (Imagen: Landahlauts)


Una investigación pretende producir enzimas a bajo coste a través de una fermentación de residuos agrarios en estado sólido para facilitar la obtención del biocombustible.
Científicos de la Universidad de Cádiz han puesto en marcha un proyecto, integrado en el Plan Nacional de I+D+i y enmarcado en el programa científico del Campus de Excelencia Internacional Agroalimentario (ceiA3), que tiene como principal objetivo la obtención de bioetanol a partir de residuos agrarios como el orujo de uva, la cáscara de la naranja, la paja de trigo o la cascarilla del arroz. Un proceso para el que pretenden producir enzimas mediante fermentación en estado sólido, para ayudar a abaratar los costes originados dentro del proceso de producción de este biocombustible.
Es importante señalar que en los últimos años la obtención de biocombustibles a bajo coste se ha convertido en todo un reto no exento de polémica ya que “los denominados biocombustibles de primera generación compiten directamente con los cultivos de utilización alimentaria, lo que ha originado el aumento del precio en productos de primera necesidad como la soja o el maíz”, como explica el profesor Ignacio de Ory Arriaga.
Este hecho, que “no es tolerable desde un punto de vista ético”, ha provocado que en la actualidad “se esté buscando otro tipo de materias primas que constituyan la fuente necesaria para obtener los azúcares y después transformar éstos en alcohol combustible”.
De ahí que desde el grupo de investigación AGR-203 de la UCA, denominado Ingeniería y Tecnología de los Alimentos, que dirige el catedrático Ildefonso Caro Pina, se haya decidido en este proyecto, titulado ‘Hidrolisis enzimática de residuos agroalimentarios lignocelulósicos para bio-refinería”, partir de estos cuatro residuos agrarios para obtener extractos enzimáticos útiles para la hidrólisis, primer paso en la producción de biocombustibles.
La materia prima aquí está formada por “restos que generalmente suelen acabar en la basura, sin utilidad alimentaria y que son contaminantes, ya que cuesta mucho gestionarlos y tienen un fuerte impacto sobre el medioambiente”, comentan desde la UCA.
Para conseguir bioetanol a partir de estos residuos, hay que tener en cuenta que los restos de los que partimos son materiales lignocelulósicos, es decir, están compuestos en general por celulosa y lignina, y, para que pueda realizarse este proceso que nos lleva al biocombustible, hay que disgregarlos primero mediante una hidrólisis que genere los azúcares. Para ello, “existen dos formas de actuar: mediante ataques físico-químicos (ácidos, alcalinos o térmicos) o a través de enzimas, siendo esta última opción nuestra propuesta”.
Así, uno de los objetivos del grupo de investigación del profesor Ildefonso Caro es “producir enzimas que hidrolicen bien los polímeros de la celulosa para  transformarlos en azúcares”. No obstante, las enzimas suponen un elevado coste en este proceso, por lo que “nos hemos propuesto reducir este apartado de forma drástica; algo que estamos convencidos que es posible gracias a la fermentación en estado sólido”, en palabras del profesor Ignacio de Ory.
Este tipo de fermentaciones en estado sólido suelen ser mucho más económicas y presentan menor riesgo de contaminación que las que se realizan en cultivos sumergidos y se centra en el hecho de que el sustrato del cual se alimenta el microorganismo (en este caso un tipo de hongo) es un sólido, por ejemplo, un residuo agrícola.
Por consiguiente, el hongo crece directamente sobre el sustrato sólido formando una película sobre él. Es interesante indicar que los residuos deben recibir previamente algún tipo de pre-tratamiento (ultrasonidos, irradiaciones o microondas), ya que “es necesario que se degrade previamente el sólido para facilitar el crecimiento del hongo y que acceda mejor al interior de los polímeros”, como explican desde el grupo AGR-203.
Así las cosas, y a través de este proyecto, los científicos de la UCA quieren probar qué sucede al trabajar con los residuos ya señalados, combinados con tres microorganismos diferentes, mediante fermentaciones en estado sólido.
“Estamos interesados en establecer cuál es el hongo más adecuado, es decir, el que produce mayor cantidad de enzimas y con mejores actividades, para digerir luego esos mismos residuos y obtener azúcares fermentables destinados a la producción de bioetanol. Al final nos quedaremos con el hongo y el residuo más adecuados, con idea de reducir los costes en este complejo proceso que tiene como resultado final el bioetanol”, aseguran desde la UCA. (Fuente: OTRI-UCA)
24/11/2011, 18:34 -

Re: FORO-CIENCIA

#666
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La ESA apoya a la industria europea de telecomunicaciones por satélite


(Foto: GMV)


Desarrollar una idea puede llevar a grandes cosas, sobre todo cuando se cuenta con el respaldo de la Agencia Espacial Europea. Una de las funciones de la ESA es apoyar a la industria europea, ayudando a las compañías a situarse en los mercados internacionales.
Operar un satélite en órbita exige mantenerse en constante comunicación con él. Controlar y mantener operativo un satélite exige un software específico, que la ESA contrata habitualmente a compañías externas. 
Las reglas y procedimientos que deben seguir tanto la ESA como las propias compañías garantizan la igualdad de oportunidades. El caso de la compañía española GMV es un ejemplo concreto de cómo la ESA trabaja para desarrollar la tecnología europea, impulsando la competitividad global de la industria.
GMV fue contratada por la ESA en los años ochenta para desarrollar sistemas de control para misiones científicas y de observación de la Tierra, empleando sistemas de datos propiedad de la agencia. El software, probado en misiones veteranas de la ESA como Meteosat y ERS-1, será usado también en misiones futuras, como BepiColombo, Swarm y Sentinel.
El conocimiento obtenido por estos contratos ha permitido a GMV, a lo largo de 25 años, convertirse en líder mundial en sistemas de control de tierra de satélites. Casi la mitad de todos los satélites de telecomunicaciones lanzados en 2010 son monitorizados y controlados en el espacio con tecnología GMV.
Los productos no sólo son aplicables al mercado europeo: GMV ha sido seleccionada recientemente para modernizar el control de tierra de la red de satélites geoestacionarios de la NASA conocidos como TDRSS (Tracking and Data Relay Satellite System).
“Tradicionalmente GMV ha hecho un esfuerzo para explotar tecnología desarrollada a través de nuestra implicación en distintos proyectos de la ESA”, dice Miguel Ángel Molina Cobos, Business Development Manager de GMV.
“Estamos convencidos de que tenemos por delante un mundo de posibilidades por explorar”.
Por supuesto, esto es sólo un ejemplo de las numerosas compañías que la ESA ha contribuido a desarrollar. A través de su programa ARTES, la ESA ha apoyado a la industria europea de telecomunicaciones por satélite desde 1975.
Puede que el término ARTES no diga nada a los consumidores, pero la industria lo ha considerado clave para el fomento de la innovación en las comunicaciones por satélite en Europa.
ARTES ofrece diferentes tipos de ayuda financiera, lo que permite a la industria europea asumir riesgos mayores a la hora de desarrollar nuevas tecnologías. Esto ayuda a asegurar el lugar de Europa en el mercado mundial de las telecomunicaciones por satélite. (Fuente: ESA)
24/11/2011, 18:37 -

Re: FORO-CIENCIA

#667
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Convierten un líquido en un sólido aplicándole un campo eléctrico


(Imagen: Uzi Landman / Georgia Tech)


Los físicos habían predicho que bajo la influencia de un campo eléctrico lo bastante alto, las gotas líquidas de ciertos materiales se solidificarían, formando cristales microscópicos bajo condiciones de temperatura y presión que, sin la influencia del campo, conducirían a gotas en estado líquido. Esta transformación de fase inducida por campos eléctricos se denomina electrocristalización.
El estudio, realizado por científicos del Instituto Tecnológico de Georgia, en Estados Unidos, muestra que con el adecuado campo eléctrico se puede inducir una transición de fase sin alterar los parámetros termodinámicos.
En estas simulaciones, Uzi Landman, David Luedtke y Jianping Gao, todos del citado instituto, comenzaron por explorar un fenómeno que Sir Geoffrey Ingram Taylor describió en 1964, mientras trabajaba en su estudio sobre el efecto de los relámpagos sobre las gotas de lluvia, un efecto expresado como cambios en la forma de las gotas líquidas al pasar por un campo eléctrico. Sin el efecto del campo eléctrico, las gotas líquidas son esféricas. En cambio, adquieren formas similares a las de una aguja en respuesta al campo eléctrico aplicado.
En vez de centrarse en las gotas de agua usadas en los experimentos de Taylor, los investigadores del Instituto Tecnológico de Georgia se centraron en gotas líquidas de formamida de 10 nanómetros de diámetro.
Gracias a usar simulaciones de dinámica molecular desarrolladas en el citado instituto, los científicos pudieron seguir el rastro a la evolución de las gotas con una resolución ultraelevada en cuanto a espacio y tiempo.
Estos físicos exploraron la respuesta de las nanogotas de formamida a un campo eléctrico de fuerza variable. Bajo la influencia de un campo de menos de 0,5V/nm, la gota esférica sólo se alargó ligeramente. Sin embargo, cuando se elevó la fuerza del campo hasta un valor crítico cercano a 0,5 V/nm, se comprobó que la gota simulada experimentaba una transición de forma que resultaba en una gota líquida con forma de aguja y orientada en la dirección del campo aplicado. El valor crítico del campo que se halló en las simulaciones concuerda bien con la predicción obtenida en su día por Taylor a partir de consideraciones macroscópicas generales.
Cuando se aumentó aún más la intensidad del campo en las simulaciones, alcanzando un valor cercano a 1,5V/nm, la aguja líquida experimentó una transición de fase que la condujo a la solidificación, formando finalmente un cristal de formamida de una sola pieza.
24/11/2011, 18:39 -

Re: FORO-CIENCIA

#668
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Supernovas causadas por la fusión aniquiladora entre dos estrellas enanas blancas


Sección de la zona investigada. (Foto: NAOJ)


Contradiciendo las conclusiones de un reciente estudio sobre las supernovas de tipo Ia, que son violentas explosiones estelares cuyo brillo se utiliza como referencia para determinar las distancias en el universo, las conclusiones de otro estudio, basado en la observación de supernovas distantes de dicho tipo Ia, sugiere que muchas, si no la mayoría de ellas, se producen cuando dos estrellas enanas blancas se fusionan y aniquilan mutuamente en una explosión termonuclear.
Las enanas blancas son cadáveres de estrellas que han alcanzado el final de sus vidas, al haber agotado su combustible nuclear, pero que aún conservan mucho calor. Además son muy compactas, concentrando una gran masa en un diámetro discreto.
Las evidencias que indican que las supernovas de tipo Ia son causadas por la fusión de dos enanas blancas se han ido acumulando en los últimos dos años, gracias a observaciones realizadas por el Telescopio Espacial Hubble y otros. Anteriormente, los astrónomos estaban a favor de la idea de que una supernova de tipo Ia era el resultado de la explosión de una enana blanca que había crecido demasiado al absorber una cantidad excesiva de materia de su estrella compañera de densidad normal.
El nuevo estudio, para el que se utilizó el telescopio Subaru en Hawái y que también se basa en observaciones hechas por el Observatorio Keck, ha sido llevado a cabo por un equipo de astrónomos estadounidenses, israelíes y japoneses, y es el más extenso hasta la fecha, habiendo acumulado observaciones de 150 supernovas distantes que estallaron hace entre 5.000 y 10.000 millones de años.
El equipo de Dovi Poznanski (Universidad de California en Berkeley) considera que la única explicación posible para las características que han observado es la fusión entre dos enanas blancas.
Los investigadores también han comprobado que las supernovas de Tipo Ia eran cinco veces más comunes hace entre 5.000 y 10.000 millones de años de lo que lo son hoy en día.
24/11/2011, 18:42 -

Re: FORO-CIENCIA

#669
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El calentamiento ultrarrápido y muy localizado que generan los terremotos


Terry Tullis, izquierda, y David Goldsby. (Foto: Mike Cohea/Brown University)


En experimentos en los que se ha reproducido la velocidad de los terremotos, unos geofísicos han conseguido profundizar en los entresijos de un fenómeno geológico descrito como calentamiento ultrarrápido.
La mayoría de los terremotos que se ven, oyen, y sienten en todo el mundo son causados por el deslizamiento rápido de fallas. Aunque la ruptura del terremoto como tal puede viajar en una falla a una velocidad muy rápida, comparable a la del sonido, las superficies de la falla inherentes a la ruptura se deslizan una contra otra a una velocidad de alrededor de un metro por segundo.
Sin embargo, durante mucho tiempo, no ha estado clara la mecánica subyacente en el rápido deslizamiento que ocurre durante un terremoto, porque resulta difícil reproducir las condiciones en un laboratorio.
Ahora, la situación puede haber cambiado.
En experimentos que reprodujeron la velocidad del deslizamiento en un terremoto, los geofísicos David Goldsby y Terry Tullis, de la Universidad Brown, han constatado que, como las superficies de las fallas se tocan sólo en puntos minúsculos, estos contactos son sometidos a una tensión estructural y un calor tremendos durante un terremoto, lo que a su vez reduce su rozamiento y por tanto la fricción de la falla. Este calentamiento intenso y muy localizado puede aparecer incluso cuando la temperatura del resto de la falla prácticamente no cambia.
Los experimentos muestran que cuando las superficies de dos fallas se deslizan una contra otra a gran velocidad, los puntos de contacto pueden alcanzar temperaturas del orden de los 1.500 grados centígrados.
Lo descubierto en este estudio seguramente permitirá ahora encontrar la explicación a cuestiones poco claras sobre la mecánica de fallas como la de San Andrés y sobre sismología en general.
24/11/2011, 18:45 -

Re: FORO-CIENCIA

#670
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los drásticos cambios geológicos en la isla de Tenerife hace 700 años y 33.000


Pablo Dávila-Harris contempla un derrumbe. (Foto: U. Leicester)


Unos 700 años atrás, al igual que hace cerca de 33.000 años, las laderas del sudeste de Tenerife se desplomaron en el mar durante una gran erupción volcánica.
Los vestigios isla adentro de este gran desprendimiento de tierras han sido descubiertos entre los cañones y barrancos del paisaje desértico de Tenerife por el equipo de los vulcanólogos Pablo Dávila-Harris y Mike Branney, del Departamento de Geología en la Universidad de Leicester, y Michael Storey de la Universidad de Roskilde en Dinamarca.
En el terreno destrozado resultante, se formaron lagos a medida que los escombros cortaban los ríos y hacían acumularse el agua en las zonas cerradas.
Además, el cambio en la forma de la isla modificó el curso de las erupciones volcánicas explosivas durante cientos de miles de años.
Tal como comentan los investigadores, el de Tenerife no es el único acontecimiento de su clase, aunque afortunadamente sí se trata de un fenómeno poco frecuente.
En cualquier caso, es vital conocer a fondo el mecanismo subyacente en estas drásticas reorganizaciones del terreno, pues sus efectos van más allá de los sufridos por la isla donde se generan.
El ejemplo más contundente de esto último es que los tsunamis generados por cataclismos de este tipo pueden viajar muy lejos, devastando costas a miles de kilómetros de distancia.
Un conocimiento más detallado de las catástrofes de este tipo siempre es útil para ayudar a preparar a la sociedad ante el riesgo de fenómenos violentos parecidos que puedan producirse en el futuro.
24/11/2011, 18:48 -

Re: FORO-CIENCIA

#671
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El agua puede permanecer en estado líquido hasta los -48,33 ºC


La caja está llena de agua líquida (blanco). El líquido súper enfriado empieza a convertirse en ‘hielo intermedio’ (verde), de camino a la congelación (rojo), en una temperatura muy inferior a los 0 ºC. Finalmente se congela a -48,33 ºC.


¿Cuál es la menor temperatura a la que puede ‘resistir’ el agua líquida antes de convertirse en sólido? Un grupo de científicas de la Universidad de Utah (EE UU) han analizado con técnicas computacionales los factores que controlan la formación de hielo en agua ‘súper enfriada’, y han comprobado que aguanta hasta los -48 ºC sin congelarse.
El cambio de estado de agua líquida a sólida, comienza en una región pequeña con un proceso llamado nucleación. En ese punto se crean los primeros cristales, sobre los cuales arranca el fenómeno de solidificación del líquido.
Las impurezas que a menudo lleva el agua actúan como núcleos que inducen su cristalización. Sin embargo en el agua pura, donde no hay partículas ni cristales que actúen como núcleos, es necesario que caigan mucho más las temperaturas para que se produzca una nucleación homogénea de hielo.
“En temperaturas cercanas a los -50 ºC la cristalización ocurre de manera muy rápida. Por encima de esta temperatura, el ritmo de formación de hielo está limitado por la capacidad de crear minúsculas semillas de hielo, a partir de las cuales crece la congelación”, explica a SINC Valeria Molinero, coautora del estudio y química de la Universidad de Utah.
Hasta ahora, se había conseguido observar experimentalmente este estado líquido súper enfriado del agua pura con temperaturas cercanas a la de nucleación, pero el mecanismo de cristalización del hielo no se había descifrado. Se desconocía tanto el tamaño como la estructura del núcleo crítico, donde empieza el proceso.
“La rapidez con la que el agua a muy bajas temperaturas cambia de estado está determinada por la transformación previa de la estructura del agua líquida en una disposición similar al hielo, aunque todavía desordenada”, explica la investigadora.  “La formación de hielo está determinada por la movilidad de las partículas”.
Las investigadoras de la Universidad de Ohio han estudiado este proceso mediante simulaciones con ordenador, y han observado que está determinado por un cambio de estructura, en la que predominan las moléculas ligadas en forma de tetraedro, donde cada una está unida debilmente a las otras cuatro.
“El agua es un liquido anómalo. Por ejemplo, decrece su densidad con temperaturas más bajas que -40 ºC, y aumenta su capacidad calorífica”, señala Molinero. “Nosotras hemos mostrado que estas extrañas propiedades vienen del proceso intermedio de cambio de estructura”.
El cambio de estado en el agua pura no sucede siempre a 0 ºC, como nos enseñan en el colegio. “0 ºC es la temperatura de fusión. La congelación ocurre en este punto cuando hay algún sustrato que ayude a la formación de los primeros cristales, sobre los que crecerá el hielo”, detalla Molinero. En esa región pequeña pero estable se produce el fenómeno de nucleación, que da comienzo al cambio de fase.
Las impurezas del agua actúan como ‘disparadores’ que inducen la cristalización, pero en sistemas puros la temperatura puede descender muy por debajo de los 0º (hasta los -48,33 ºC, según estos recientes resultados).
Las científicas han observado un cambio de estructura intermedio, entre el agua líquida y sólida, caracterizada por la disposición de las moléculas en tetraedros. “La sustancia cambia físicamente, en una forma en la que cada molécula de agua está ligada de manera flexible a otras cuatro moléculas, parecida a la del hielo, y que determina la temperatura en la que se congela el líquido”, describe Molinero.
El aumento de la proporción de las cuatro partículas coordinadas entre sí en la masa todavía líquida provoca la cristalización. “El cambio de fase no está controlado solo por la temperatura, sino también por la transformación estructural del líquido”, afirma la investigadora.
El proceso de cristalización se inicia súbitamente cuando se alcanza la temperatura requerida, con una velocidad tan alta que dificulta su observación. Las investigadoras han utilizado modelos computacionales de agua, bastante sencillos, sobre los que han podido realizar simulaciones del líquido súper enfriado.
“Los ordenadores, a través de la simulación, nos han dado una visión microscópica que los experimentos por ahora no pueden alcanzar”, asegura Molinero.
Estos resultados hacen posible prever la rapidez de la cristalización del agua, lo que puede ser útil para desarrollar modelos predictivos de ritmos y temperaturas de congelación del agua en materiales complejos o en condiciones particulares. (Fuente: SINC)
24/11/2011, 18:50 -

Re: FORO-CIENCIA

#672
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Un paso más cerca de la nueva generación de chips basados en el grafeno


Dr. Ponomarenko. (Foto: U. Manchester)


El material más delgado, más fuerte y con mejor conductividad a temperatura ambiente, descubierto en el 2004 en la Universidad de Manchester por Andre Geim y Kostya Novoselov, tiene el potencial de revolucionar la ciencia de los materiales.
El grafeno es una gran promesa para el desarrollo de dispositivos y equipamiento de tamaño nanométrico. Consta de una sola capa de átomos de carbono distribuidos en una celosía hexagonal, similar a la de un panal de miel.
Por haber demostrado las notables propiedades del grafeno, los dos científicos obtuvieron en el año 2010 el Premio Nobel de Física.
Ahora, el equipo de la Universidad de Manchester ha demostrado por primera vez cómo será el grafeno dentro de los circuitos electrónicos del futuro.
Intercalando dos hojas de grafeno con otro material bidimensional, el nitruro de boro, el equipo creó una estructura de varias capas que podría ser la clave para reemplazar los chips de silicio en los ordenadores.
Como hay dos capas de grafeno completamente rodeadas por el nitruro de boro, esto ha permitido a los investigadores observar por primera vez cómo se comporta el grafeno cuando está aislado de esta manera del entorno exterior.
Los últimos experimentos del equipo de investigación, en el que figura Leonid Ponomarenko, demuestran que el grafeno encapsulado dentro del nitruro de boro ofrece la mejor y más avanzada plataforma para la electrónica del grafeno en el futuro. Ello se debe sobre todo a que resuelve varios problemas sobre la estabilidad y la calidad del grafeno, que estaban pendientes de solucionar desde bastante tiempo atrás, y que representaban un serio obstáculo en el camino hacia el desarrollo pleno de la electrónica del grafeno.
Las notables propiedades del grafeno podrían conducir a la producción industrial de pantallas táctiles enrollables y flexionables, aeronaves más ligeras, receptores de TV de alta definición no mucho más gruesos que un poster y adheribles a la pared casi con tanta facilidad, y conexiones de internet de alta velocidad, por mencionar sólo algunas de las aplicaciones.
24/11/2011, 18:52 -

Re: FORO-CIENCIA

#673
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Producción sofisticada de cuchillos de sílex mucho antes de lo creído


Hojas de sílex. (Foto: TAU)


Durante mucho tiempo, la arqueología ha asociado la fabricación avanzada de hojas de cuchillo y otras herramientas cortantes con el Paleolítico Superior, un periodo que comenzó hace entre 30.000 y 40.000 años aproximadamente, y que está vinculado al auge del Homo Sapiens y al de rasgos culturales como el arte rupestre.
Ahora, unos investigadores han obtenido pruebas de que la producción "moderna" de hojas de herramientas cortantes también fue parte de la cultura amudiense a finales del Paleolítico Inferior, hace entre 200.000 y 400.000 años, como rasgo cultural propio de un grupo de homínidos que vivió en el territorio ocupado actualmente por Israel, Líbano, Siria y Jordania.
El equipo de Avi Gopher, Ran Barkai y Ron Shimelmitz, del Departamento de Arqueología y Civilizaciones Antiguas del Oriente Próximo en la Universidad de Tel Aviv, Israel, ha presentado el hallazgo de una gran cantidad de herramientas cortantes, largas y delgadas, en la Cueva de Qesem, ubicada en las afueras de Tel Aviv. Este descubrimiento desafía la idea de que la producción de hojas de herramientas cortantes está asociada exclusivamente a humanos posteriores.
Las hojas son producto de una "línea de producción" bien planificada. Cada elemento, desde la elección de la materia prima, hasta el propio método de producción, apunta a un sistema de fabricación sofisticado que rivaliza con la tecnología de fabricación de hojas usada cientos de miles de años después.
La evidencia sugiere que el proceso comenzaba con la selección cuidadosa de las materias primas. Los homínidos recogían la materia prima del suelo o la extraían del subsuelo, buscando las piezas de sílex que mejor se adaptaran a su tecnología de fabricación de hojas. Con las piezas adecuadas de material, podían usar un método sistemático y eficiente para producir las hojas deseadas; un método en el que propinaban golpes fuertes pero controlados para los cuales se tenía en cuenta la mecánica de la fractura de la piedra. Muchas de las hojas, la mayoría, se fabricaban para que tuvieran un borde afilado y otro lo bastante romo como para que un humano lo pudiera agarrar fácilmente con su mano.
La profesora Cristina Lemorini, de la Universidad La Sapienza de Roma, realizó al microscopio un análisis muy detallado de las marcas presentes en las hojas, y también condujo una serie de experimentos, todo lo cual la ha llevado a deducir que estas herramientas eran usadas principalmente para cortar carne.
24/11/2011, 18:54 -

Re: FORO-CIENCIA

#674
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La más antigua forma de vida terrestre capaz de respirar oxígeno


Las mismas formas de vida bacterianas que iniciaron la adaptación pionera al oxígeno todavía existen hoy en día, en sitios como por ejemplo las aguas residuales muy ácidas de ciertas minas. (Foto: Universidad de Alberta)


Se han obtenido las primeras pruebas de que ya había bacterias capaces de respirar oxígeno aposentadas en tierra firme unos 100 millones de años antes de lo que se pensaba.
La forma de vida más primitiva con respiración aerobia en tierra firme apareció hace 2.480 millones años.
El equipo de investigación, dirigido por Kurt Konhauser, geomicrobiólogo de la Universidad de Alberta, en Canadá, ha obtenido este resultado tras investigar un vínculo entre los niveles de oxígeno atmosférico y el aumento en las concentraciones de cromo en rocas de antiguos fondos marinos. Los investigadores sugieren que el aumento en los niveles de cromo fue provocado por la oxidación en tierra firme de la pirita.
La oxidación de la pirita es provocada por las bacterias y el oxígeno. Las bacterias aerobias descompusieron la pirita, produciendo ácido a una escala sin precedentes. Luego, el ácido disolvió rocas y suelos en un cóctel de metales que incluía al cromo, el cual fue llevado al mar por el escurrimiento del agua de lluvia.
Esto establece una nueva fecha para la Gran Oxidación, que es la época en que la atmósfera tuvo oxígeno en cantidades significativas por primera vez. El aumento en los niveles de oxígeno atmosférico estimuló la evolución de nuevas especies de bacterias con respiración aerobia que vivían en tierra firme.
Las mismas formas de vida bacterianas que iniciaron esa adaptación pionera en aquella lejana época todavía existen hoy en día. Obtienen su sustento de la pirita y viven en las aguas residuales muy ácidas de las minas de muchas partes del mundo.

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged



Related Topics

  Asunto / Iniciado por Respuestas Último mensaje
normal_post * 0 Respuestas
1787 Vistas
Último mensaje 18/09/2008, 22:10
por ganimedes
normal_post * 0 Respuestas
1995 Vistas
Último mensaje 23/09/2008, 21:56
por ganimedes
normal_post * 0 Respuestas
2174 Vistas
Último mensaje 14/01/2009, 19:33
por ganimedes
normal_post * 0 Respuestas
2235 Vistas
Último mensaje 20/01/2009, 19:57
por ganimedes
normal_post * 0 Respuestas
5875 Vistas
Último mensaje 26/05/2009, 21:29
por ganymedes
normal_post * 0 Respuestas
1221 Vistas
Último mensaje 17/09/2009, 09:58
por Vmax
normal_post * 0 Respuestas
2177 Vistas
Último mensaje 02/10/2009, 19:33
por ganymedes
normal_post * 1 Respuestas
3704 Vistas
Último mensaje 08/10/2009, 22:01
por el vaquilla
normal_post * 0 Respuestas
3224 Vistas
Último mensaje 23/10/2009, 19:37
por ganymedes
normal_post * 0 Respuestas
1844 Vistas
Último mensaje 05/04/2010, 11:53
por duke
normal_post * 0 Respuestas
2297 Vistas
Último mensaje 18/08/2010, 13:39
por chris...64
normal_post_locked * 2 Respuestas
632 Vistas
Último mensaje 22/12/2015, 18:45
por suacom



PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO