PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 859095 veces)

01/12/2011, 18:04 -

Re: FORO-CIENCIA

#705
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
¿Qué es el uranio empobrecido?

Entrega del podcast Ciencia Nuestra de cada Día, a cargo de Ángel Rodríguez Lozano, en Ciencia para Escuchar, que recomendamos por su interés.
El uranio es un metal pesado que existe en la naturaleza en pequeñas proporciones, muy especialmente entre el granito. Así pues, llevamos conviviendo con él desde el principio de los tiempos.
Es un metal muy denso, tanto, que un pedazo del tamaño de un tetrabrik, como los que se utilizan para envasar un litro de leche, pesa nada menos que 19 kilos. Si se vendiera en el supermercado en paquetes de seis, como la leche, un paquete tendría el peso de dos frigoríficos de tamaño medio, eso sí, ocupando el mismo volumen que la leche.
Hasta hace muy poco tiempo, la palabra Uranio iba asociada a las centrales nucleares, bombas atómicas y lindezas por el estilo, pero, como la inventiva humana no deja de sorprendernos, ahora tenemos un par de palabras más para quitarnos el sueño: Uranio Empobrecido.
Esta entrega del podcast Ciencia Nuestra de cada Día, en Ciencia para Escuchar, se puede escuchar aquí.
01/12/2011, 18:07 -

Re: FORO-CIENCIA

#706
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Presentan dos teorías para la explosión de rayos gamma del día de Navidad


Impresión artística del modelo sugerido por un grupo liderado por el IAA para el GRB 101225A. (Imagen: Aurore Simonnet, NASA E/PO, Universidad del Estado de Sonoma)


El día de Navidad de 2010 ocurrió un inusual estallido de rayos gamma. Ahora,  dos grupos de investigadores plantean en Nature dos teorías para explicar el fenómeno. Un equipo español sugiere que se produjo por la fusión de una estrella de neutrones con otra gigante, y otro italiano que se pudo deber al choque de un cometa con una estrella de neutrones.
El estallido de rayos gamma (o GRB, por sus siglas en inglés) del 25 de diciembre de 2010, conocido como la  “explosión de Navidad", rompió los patrones establecidos para este tipo de fenómenos.
Su nombre oficial es GRB101225A y tuvo un brillo y una duración distintos a la media. Además, mostró un resplandor posterior, que se conoce como afterglow, cuya causa era de origen térmico, a diferencia del resto de GRBs.
Para explicar estas peculiaridades esta semana dos grupos de científicos publican en Nature sus teorías. Por una parte, un equipo liderado desde el Observatorio Astronómico de Brera (Italia) sugiere que el estallido se debió a la ruptura de un objeto menor –como un cometa– por una estrella de neutrones situada dentro de nuestra galaxia.
Sin embargo, otra investigación dirigida desde el Instituto de Astrofísica de Andalucía (IAA-CSIC) propone que el extraño fenómeno se debió a la fusión de una estrella gigante (de helio) con otra de neutrones. Consideran que el sistema colapsó tras una etapa en la que las estrellas compartieron la envoltura gaseosa que las rodea.
"Todos los GRBs observados hasta la fecha muestran un afterglow, cuya energía procede del movimiento de electrones a gran velocidad dentro del campo magnético del objeto; en cambio, en la ‘explosión de Navidad’ vimos que el origen de este resplandor era térmico, algo realmente inédito", explica Christina Thöne, investigadora del IAA-CSIC.
Hasta ahora había dos mecanismos para explicar los GRBs, que corresponden a las dos modalidades conocidas: los GRBs largos (de dos o más segundos de duración) debidos al colapso de una estrella muy masiva, mientras que los cortos (de menos de dos segundos) se producen por la fusión de dos objetos compactos, como estrellas de neutrones.
"El carácter exótico de este GRB prácticamente nos forzaba a sugerir un tercer escenario, e investigamos una amplia gama de posibilidades para explicarlo", relata Antonio de Ugarte (IAA-CSIC), líder del equipo internacional y también del IAA-CSIC.
El estudio español propone que la explosión de Navidad es el resultado de la fusión de una estrella de neutrones (una estrella degenerada que puede contener la masa del Sol en un radio de decenas de kilómetros) con una estrella gigante evolucionada.
Este sistema binario atravesó una fase de envoltura común cuando la estrella de neutrones se adentró en la atmósfera de la estrella gigante. Durante esta etapa la estrella gigante perdió la mayor parte del hidrógeno que la componía.
Más tarde, cuando los astros se fusionaron, la explosión produjo un ‘chorro’, semejante a los que se generan en los GRB normales, pero que se calentó por la interacción con la envoltura común preexistente. Esto dio lugar al afterglow observado, dominado por radiación generada por material caliente y que fue enfriándose con el tiempo.
Unos diez días después del estallido en rayos gamma comenzó a emerger una débil explosión de supernova que alcanzó su máximo tras cuarenta días. Los GRBs largos suelen ir acompañados de una supernova brillante, cuyo brillo parece estar relacionado con la producción de níquel durante el evento.
"Nuestro escenario predice la producción de una pequeña cantidad de níquel que conduciría a una explosión de supernova muy débil, lo que lo hace más consistente con las observaciones" concluye Thöne.
Las explosiones de rayos gamma  son destellos breves e intensos de radiación gamma que se producen al azar en cualquier lugar del firmamento. Se los relaciona con varios procesos ligados a sucesos catastróficos en las estrellas. La duración de las emisiones de radiación gamma oscila entre unos pocos milisegundos hasta más de media hora, y son tan energéticos que se pueden detectar a distancias de miles de millones de años luz.
La atmósfera de la Tierra es opaca a los rayos gamma, de modo que los GRB solo se pueden captar gracias a detectores embarcados en aparatos espaciales, como el satélite Swift de la NASA.
En cuanto Swift localiza un GRB, reacciona y distribuye las coordenadas (sobre todo a través de Internet) a grupos de investigación de todo el mundo, que así tienen la oportunidad de seguir estos sucesos explosivos por medio de telescopios situados en tierra.
Las observaciones realizadas de este modo han mostrado que los GRB van seguidos de una emisión de luz visible e infrarroja que se suele denominar afterglow, es decir, «resplandor ulterior», procedente de partículas con carga eléctrica sumidas en campos magnéticos potentes y que se desplazan con velocidades relativistas (por encima del 99% de la velocidad de la luz).
"Tras décadas investigando GRBs estamos viendo que estos objetos nos deparan muchas sorpresas y que, del mismo modo que los tipos de supernova conocidos han aumentado con el tiempo, es posible que debamos revisar la clasificación de GRBs. Las estrellas parecen disponer de muy diversas formas de morir", concluye Thöne. (Fuente: SINC/IAA)
01/12/2011, 18:09 -

Re: FORO-CIENCIA

#707
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Sorpresa al completar el árbol genealógico evolutivo de los moluscos


Un molusco Cyphoma gibbosum. (Foto    :D    unn Lab/Brown University)



Los moluscos han existido desde hace mucho tiempo (al menos 500 millones de años). Son frecuentes tanto en tierra como en el agua (desde los sitios húmedos de jardines donde podemos encontrar caracoles, hasta las profundidades del mar), y muchos son muy valiosos para la gente como fuente de alimento. Por todo ello, uno podría creer que los científicos han aprendido virtualmente todo sobre estos animales.
Sin embargo, no es así en absoluto. Por ejemplo, ha habido muchas lagunas en el árbol evolutivo de los moluscos, y sólo ahora se cuenta con un árbol razonablemente completo, el más completo logrado hasta la fecha. Dicho árbol ha sido elaborado por Casey Dunn, biólogo evolutivo de la Universidad Brown, en Estados Unidos, especializado en la construcción de árboles evolutivos, junto con expertos de esa universidad y de otras instituciones.
Para realizar esa hazaña, el equipo recogió, a escala global, especímenes difíciles de encontrar, incluyendo los de un grupo de organismos al que se creyó extinto durante mucho tiempo.
Después, el equipo secuenció miles de genes de los especímenes y los comparó mediante un exhaustivo análisis informático, valiéndose de la supercomputadora de la Universidad Brown, una máquina instalada en 2009.
El resultado ha sido ese nuevo árbol evolutivo de los moluscos.
El estudio es notable también porque es el primero en ubicar a los monoplacóforos (Monoplacophora), el misterioso grupo de animales del océano profundo que superficialmente parecen lapas. Los científicos creían que el grupo estaba extinto, hasta que un espécimen fue capturado en 1952 en la costa de México. Una expedición en 2007 dirigida por Nerida Wilson, actualmente en el Museo Australiano, y coautora de la nueva investigación, obtuvo unos monoplacóforos frente a la costa de California. El equipo extrajo el material genético, gracias al trabajo eficaz de Caitlin Feehery, para obtener las "firmas" genéticas necesarias y así determinar cómo los monoplacóforos encajan en el árbol genealógico evolutivo de los moluscos.
El resultado es asombroso: Los monoplacóforos son un clado hermano de los cefalópodos, que incluyen pulpos, calamares y nautilos. Los cefalópodos son tan diferentes de los demás moluscos, que era muy difícil imaginar con cuáles están más relacionados evolutivamente. No encajaban con el resto. Y ahora, para sorpresa de muchos, dos de los más enigmáticos grupos dentro de los moluscos resultan ser grupos hermanos.
01/12/2011, 18:11 -

Re: FORO-CIENCIA

#708
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Experimento para hallar una conexión entre la Relatividad General y la Mecánica Cuántica


En un experimento se quiere poner a prueba la noción relativista del tiempo junto con la mecánica cuántica. (Foto: Quantum Optics, Quantum Nanophysics, Quantum Information; University of Vienna)


La unificación de la mecánica cuántica, impulsada por Max Planck, con la relatividad general, propuesta por Albert Einstein, es una de las cuestiones más interesantes de la física moderna que todavía permanecen abiertas.
La relatividad general, la teoría que unifica la gravedad, el espacio y el tiempo, ofrece predicciones que resultan comprobables en la escala cósmica, la de las estrellas y las galaxias. Los efectos cuánticos, por otro lado, se suelen observar sólo a pequeña escala, por ejemplo al examinar átomos y partículas individuales. Por eso, resulta muy difícil poner a prueba la interacción entre la mecánica cuántica y la relatividad general.
Ahora, el equipo de los físicos teóricos Caslav Brukner y Magdalena Zych, de la Universidad de Viena, propone un nuevo y complejo experimento que podría permitir validar o descartar la superposición de las dos teorías. El objetivo del trabajo es medir la noción relativista general del tiempo en la escala cuántica.
Una de las predicciones de la relatividad general de Einstein es que la gravedad distorsiona el flujo del tiempo. La teoría predice que los relojes marcharán más lentos cerca de un cuerpo masivo, y más rápidos cuanto más alejados se encuentren de la acumulación de masa. Este efecto ha sido verificado con precisión en los experimentos clásicos, pero no en combinación con los efectos cuánticos, que es el objetivo del experimento ahora propuesto.
Éste se basaría en aprovechar la posibilidad de que una partícula individual pueda perder la propiedad clásica de tener una posición bien definida, es decir, que pueda adquirir el estado que en mecánica cuántica se conoce como superposición cuántica, un extraño estado cuántico en el que un sistema físico puede existir en más de una posición al mismo tiempo. Este estado, combinado con la circunstancia de que uno de los sitios estuviera cerca de la superficie de la Tierra y el otro lejos, abriría una vía para permitir poner a prueba la noción relativista del tiempo junto con la mecánica cuántica.
01/12/2011, 18:13 -

Re: FORO-CIENCIA

#709
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La transición de la caza a la agricultura fue lenta en la región báltica


La transición de la humanidad desde la pesca, la caza y la recolección, hacia un estilo de vida presidido por la agricultura, pudo ser gradual y no abrupta. (Foto: NCYT/JMC)


La transición que experimentaron los humanos al pasar desde la pesca, la caza y la recolección, a un estilo de vida presidido por la agricultura, pudo ser gradual y no abrupta, según un nuevo estudio sobre antiguas vasijas de cerámica.
Un equipo de investigadores de la Universidad de York y la Universidad de Bradford, ambas en el Reino Unido, analizó residuos de la elaboración de alimentos preservados en 133 vasijas de cerámica obtenidas en la región báltica, en el norte de Europa, para establecer si estos residuos eran de organismos terrestres, marinos o de agua dulce.
La investigación, dirigida por Oliver Craig (Universidad de York) y Carl Heron (Universidad de Bradford), incluyó a un equipo internacional de arqueólogos del Museo Nacional de Dinamarca, la Universidad Christian Albrecht en Kiel, Alemania, y otras instituciones.
El equipo del proyecto estudió vasijas de cerámica obtenidas en 15 yacimientos arqueológicos que datan aproximadamente del año 4.000 a.C. , la época en que las evidencias encontradas hasta la fecha indican que comenzó la domesticación de animales y el cultivo de vegetales en la región.
El equipo de investigación ha llegado a la conclusión de que se continuó explotando la pesca y otros recursos acuáticos tras el advenimiento de la agricultura y la ganadería. Así parecen demostrarlo las vasijas de lugares costeros, en las cuales se ha detectado la presencia de residuos ricos en una forma de carbono que suele estar presente en los organismos marinos.
Alrededor de una quinta parte de las vasijas de lugares costeros ha resultado contener otras huellas bioquímicas de organismos acuáticos, incluyendo grasas y aceites no presentes en los animales y plantas terrestres. En los sitios no costeros, el 28 por ciento de las vasijas ha resultado contener residuos de organismos acuáticos, que parecen ser de peces de agua dulce.
Esta investigación proporciona pruebas bastante claras de que la gente de toda esa zona de la región báltica continuó explotando recursos marinos y de agua dulce a pesar del advenimiento de la agricultura y la ganadería. Aunque el estilo de vida basado en la agricultura avanzó con rapidez por toda esta zona, puede que ese cambio en el modo de vida no fuese tan abrupto como se pensaba anteriormente.
01/12/2011, 18:15 -

Re: FORO-CIENCIA

#710
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Un paso más hacia la memoria optomecánica


Los resonadores nanomecánicos pueden trabajar a amplitudes mucho más altas de lo que se pensaba. (Foto: Yale U.)


Una nueva investigación demuestra que los resonadores nanomecánicos pueden trabajar a amplitudes mucho más altas de lo que se pensaba.
Los resultados de este estudio constituyen un avance importante en la optomecánica, una especialidad en la cual se usa la fuerza de la luz para controlar dispositivos mecánicos. Lo descubierto en la nueva investigación podría conducir a avances decisivos en tecnologías para almacenamiento de datos, comunicaciones y sensores.
En este contexto de la optomecánica, se denomina amplitud al rango de vibración. Ha sido difícil lograr amplitudes altas en los sistemas mecánicos nanométricos tradicionales, porque reducir las dimensiones de un resonador acostumbra a limitar cuánto puede moverse.
El equipo de Mahmood Bagheri y Hong Tang, de la Universidad de Yale, en Estados Unidos, ha mostrado un modo de superar las limitaciones de los sistemas convencionales.
El principio de funcionamiento es similar a la técnica de enfriamiento por láser usada en la física atómica. Se puede controlar el movimiento de una estructura mecánica, amplificar o reducir sus vibraciones, controlando únicamente la longitud de onda de la luz láser que se le aplique.
Los investigadores también han demostrado que una diminuta estructura de silicio dentro de un sistema optomecánico puede almacenar información eficazmente, y sin requerir de un suministro eléctrico constante, actuando así como un dispositivo de memoria mecánico.
Entre otras ventajas, los dispositivos de memoria optomecánica pueden soportar ambientes más duros que los dispositivos de memoria electrónicos o magnéticos, sin perder sus datos. Las futuras tecnologías que utilicen resonadores optomecánicos de alta amplitud podrían ser menos sensibles a factores del entorno como por ejemplo las variaciones en la temperatura y la radiación. Al mismo tiempo, los resonadores de alta amplitud podrían permitir crear dispositivos de medición más precisos y robustos.
01/12/2011, 18:17 -

Re: FORO-CIENCIA

#711
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La última década es la más calurosa registrada hasta el momento


Pantano casi seco de Vilanova de Sau (Girona, España). (Imagen: Santi MB)


Los 13 años más cálidos de la historia, desde que existe un registro, se concentraron  en los últimos 15, según un informe presentado por la Organización Meteorológica Mundial (WMO, por sus siglas en inglés) en la cumbre del clima en Durban (Sudáfrica).
En 2011, el volumen de hielo marino del Ártico fue el más bajo de la historia y el segundo más bajo en extensión.  Asimismo, presenta las temperaturas más altas de aquellos años en los que se ha producido La Niña – fenómeno atmosférico que influye en el enfriamiento del planeta –.
Estos son algunos de los aspectos más destacados de los resultados anuales preliminares (los datos definitivos se publicarán en 2012) presentados por la Organización Meteorológica Mundial sobre el estado del clima y la evaluación de la temperatura global.
"Nuestro papel es proporcionar los conocimientos científicos para fundamentar la acción de los que toman las decisiones", declaró el secretario general de la WMO, Michel Jarraud. "Nuestra ciencia es sólida y demuestra de manera inequívoca que el mundo se está calentando y que este calentamiento se debe a actividades humanas", añadió.
La WMO estima que 2011 es el décimo año más caluroso desde que se comenzaran a registrar los datos en 1850. Por otro lado, la temperatura media de la superficie del mar, combinada con la de la superficie terrestre está en el presente año (de enero a octubre) 0,41° C por encima del período comprendido entre 1961 y 1990. La última década registra un promedio a largo plazo de 0,46º C.
Los años más duros de La Niña contribuyen a un enfriamiento de entre 0,10 a 0,15 ° C respecto a los años anteriores y posteriores. En el presente año, las temperaturas globales siguieron ese patrón –fueron inferiores a los de 2010  –, pero más calurosas que en pasadas ocasiones.
Por otro lado, la temperatura superficial del aire estuvo por encima de la media a largo plazo en 2011 en algunas zonas de la Tierra. La mayor desviación la sufrió Rusia, especialmente en algunas zonas del norte, donde entre enero y octubre las temperaturas alcanzaron alrededor de 4° C por encima del promedio.
"Las concentraciones de gases de efecto invernadero en la atmósfera han alcanzado nuevos máximos. Están adquiriendo muy rápidamente niveles consistentes con una subida de 2 a 2,4 ºC en las temperaturas medias globales, que los científicos creen que podrían provocar cambios irreversibles en nuestro planeta, en la biosfera y en los océanos ", explicó Jarraud.
El análisis de la temperatura global de la WMO se basa principalmente en tres conjuntos de datos complementarios: del Centro Hadley de la Oficina Meteorológica de Reino Unido y la Unidad de Investigación Climática de la Universidad de East Anglia (Reino Unido); de la Administración Nacional Oceánica y Atmosférica (NOAA) de EEUU; y del Instituto Goddard de Estudios Espaciales (GISS), operado por la Administración Nacional de Aeronáutica y del Espacio (NASA). (Fuente: SINC)
01/12/2011, 18:19 -

Re: FORO-CIENCIA

#712
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
En el mejor de los casos, el nivel del mar habrá subido 60 centímetros en el año 2100


Curvas de elevación del nivel del mar. (Foto: U. Copenhagen)


El crecimiento del nivel del mar en los próximos siglos es quizás una de las consecuencias más catastróficas que puede tener el calentamiento global.
Un grupo de investigadores ha analizado las perspectivas del ascenso del nivel del mar que cabe esperar a largo plazo, según evolucionen la emisión de gases de efecto invernadero y la polución de la atmósfera. Para esta labor, los científicos han empleado modelos digitales del clima.
Basándose en la situación actual como punto de partida, el equipo de Aslak Grinsted, investigador del Centro del Hielo y el Clima, en el Instituto Niels Bohr de la Universidad de Copenhague, en Dinamarca, ha desarrollado pronósticos sobre los cambios posibles en el nivel del mar para los próximos 500 años. Los autores del estudio no se ocuparon del resto de fenómenos causados por el calentamiento global, sino que se concentraron exclusivamente en los niveles del mar.
El grupo de investigación, que incluye a expertos del Reino Unido y China, ha hecho los cálculos para cuatro escenarios:
Uno pesimista, donde las emisiones continúan aumentando. En este escenario, los niveles del mar habrán subido 1,1 metros para el año 2100, y se habrán elevado hasta 5,5 metros para el año 2500.
Incluso en el escenario más optimista, que exige alcanzar metas drásticas de control del cambio climático, enormes adelantos tecnológicos y una fuerte cooperación internacional, a fin de poder detener las emisiones de gases de efecto invernadero y la contaminación atmosférica, el mar continúa subiendo. En el año 2100, habrá subido 60 centímetros, y a finales del siglo XXV la elevación será de 1,8 metros.
Con los dos escenarios más realistas, basados en una estabilización de la emisión y de la polución, los resultados muestran que la elevación del nivel del mar habrá alcanzado aproximadamente 75 centímetros para finales de este siglo, y que para el año 2500 el nivel del mar habrá subido en 2 metros.
En el siglo XX, el nivel del mar subió con un promedio de 2 milímetros por año, pero ese proceso se está acelerando y durante las últimas décadas la elevación del nivel del mar ha sido aproximadamente un 70 por ciento más rápida.
Grinsted alerta de que aún cuando estabilicemos las concentraciones de gases de efecto invernadero en la atmósfera y dejemos de emitirlos, la elevación del nivel del mar continuará acelerándose durante varios siglos, debido al largo tiempo de reacción que tienen las masas de hielo más inmensas del planeta y los propios océanos. Así que todo apunta a que incluso en el mejor de los casos, pasarán varios siglos antes de que el nivel del mar vuelva a tener la misma tasa de crecimiento de 2 milímetros por año que solía tener en la primera mitad del siglo XX.
02/12/2011, 17:33 -

Re: FORO-CIENCIA

#713
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La avispa del papel se queda con las caras de sus compañeras


La avispa del papel recuerda las caras de otros individuos su especie por lo menos durante siete días. (Foto: ScienceAAA)


El trabajo de científicos estadounidenses ha revelado que la avispa del papel posee la habilidad de distinguir las caras de sus compañeras de especie, algo que sólo se había observado hasta ahora en algunos mamíferos. Esta destreza contribuye a mantener la paz en la colonia.
Concretamente, han demostrado que la avispa del papel, Polistes fuscatus, es capaz de aprender a reconocer los rasgos faciales de sus compañeras de colonia. El estudio se publica en la última edición de Science.
“Ser capaz de diferenciar las caras de manera eficiente es una ventaja para este tipo de avispas porque regula las interacciones sociales dentro del nido. Además, al poder reconocer individualmente a otras avispas se reducen las agresiones en la colonia, lo que ayuda a mantener la paz”, declara a SINC Michael J. Sheehan, investigador de la Universidad de Michigan (EE UU) y autor del trabajo.
Esta especie recuerda las caras por lo menos durante siete días, “un periodo de tiempo bastante largo en la vida de una avispa. Lo que no sabemos es cuántas caras son capaces de recordar”, reconoce el experto.
Los autores señalan que pese a que mamíferos y avispas presentan diferencias evidentes en los ojos y las estructuras nerviosas del cerebro, ambos grupos han evolucionado de forma independiente para desarrollar la capacidad de reconocer los rostros de otros individuos de su misma especie.
La capacidad de diferenciar caras solo se ha demostrado hasta ahora en varias especies de monos, entre ellos los chimpancés. “Otros estudios han encontrado capacidades de aprendizaje similares en ovejas”, apunta el investigador.
Durante la investigación, los autores entrenaron a las avispas para ver si eran capaces de diferenciar entre dos imágenes. Las introdujeron en un laberinto con todo el suelo electrificado a excepción de una zona de seguridad sin corriente, que iba cambiando de lugar. En este punto ‘seguro’ se colocaban diferentes imágenes: a veces una cara de avispa, a veces otra fotografía.
Las avispas del papel conseguían identificar más rápido la zona sin electricidad cuando en ella se mostraban rostros de avispas en lugar de otras imágenes. Los investigadores probaron el mismo experimento con otra especie de avispa, Polistes metricus, y comprobaron que no adquirían esta habilidad.
El reconocimiento individual es esencial para la avispa del papel durante la primera parte del ciclo de anidación, cuando el número de reinas es reducido. “Lo utilizan para regular la interacción social y el dominio dentro de la jerarquía de las reinas, ya que la más dominante es quien se ocupa principalmente de la reproducción”, explica Sheehan.
A diferencia de otras especies, como la Polistes metricus que solo tiene una reina en su colonia, los nidos de la avispa del papel habitualmente son fundados por varias avispas reina. “En la mayoría de los nidos viven entre 30 y 50 avispas aunque excepcionalmente las colonias pueden crecer hasta cientos de individuos”, añade Sheehan. (Fuente: SINC)
02/12/2011, 17:36 -

Re: FORO-CIENCIA

#714
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El ADN de cada persona "recuerda" el estilo de vida llevado en su infancia


El ADN de cada persona "recuerda" el estilo de vida llevado en su infancia. (Foto: McGill U.)


Es obvio que una infancia en condiciones económicas malas aumenta el riesgo de problemas de salud en la etapa adulta, debido al riesgo de la malnutrición y las limitaciones que impone en el desarrollo y en otras facetas. Pero más allá de los efectos obvios, parece haber otros que se aposentan en el ADN y que siguen ejerciendo una influencia nociva hasta por lo menos la edad mediana, según los resultados de una nueva investigación.
El objetivo del estudio, llevado a cabo por científicos canadienses y británicos, era explorar el modo en que las condiciones de vida tenidas en la infancia pueden "integrarse biológicamente" y continuar así influyendo sobre la salud, para bien o para mal, a lo largo de la vida.
Los científicos decidieron estudiar la metilación del ADN, una modificación epigenética que está vinculada a cambios duraderos en la actividad de los genes y por tanto a riesgos potenciales para la salud. En términos generales, la metilación de un gen en algún lugar crítico del ADN reduce la actividad del gen.
El equipo, integrado por especialistas de la Universidad McGill en Montreal, la Universidad de la Columbia Británica en Vancouver, ambas en Canadá, y el Instituto de Salud Infantil del University College de Londres, centró su análisis en 40 individuos del Reino Unido, participantes en un estudio para el que han sido registrados datos de muchos aspectos de la vida de más de 10.000 personas.
El equipo de investigación buscaba una asociación entre la metilación de genes, y factores sociales y económicos en la infancia. Los científicos encontraron diferencias claras en la metilación de genes entre las personas que crecieron en familias con un nivel de vida muy alto y quienes crecieron en familias con un nivel de vida muy bajo. Las diferencias en la metilación asociadas al efecto combinado del nivel económico, las condiciones de la vivienda y la ocupación de los padres, durante la infancia de los sujetos de estudio, resultaron ser más del doble que las asociadas con la situación socioeconómica en la edad adulta de los sujetos, en el momento de realizarse el estudio (1.252 diferencias contra sólo 545).
Los resultados, por tanto, parecen aportar una explicación convincente sobre por qué la influencia que sobre la salud se sabe que tiene un bajo nivel socioeconómico, puede durar de por vida, a pesar de que mejoren posteriormente las condiciones de vida.
02/12/2011, 17:38 -

Re: FORO-CIENCIA

#715
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Fabrican transistores con fibras de algodón natural


Transistor electroquímico hecho con fibras de algodón. (Foto: Cornell U.)


La ropa que lleve electrónica cosida o lo sea en sí misma, está dejando de ser un tema exclusivo de la ciencia-ficción. Con cada avance que se registra en este campo, tan singulares prendas de vestir están cada vez más cerca de tener usos prácticos, más allá de las demostraciones de su viabilidad efectuadas en los laboratorios.
El equipo internacional de Juan Hinestroza, experto en fibras de la Universidad de Cornell, en Estados Unidos, ha desarrollado transistores usando fibras de algodón natural.
Fabricar transistores a partir de fibras de algodón puede ser una nueva y prometedora vía para integrar adecuadamente la electrónica y los tejidos, a fin de permitir crear dispositivos electrónicos que puedan usarse como parte de prendas de vestir o ser de por sí prendas completas.
Esta innovación constituye un avance significativo en este campo, pues sienta las bases para la creación de dispositivos aún más complejos, como por ejemplo circuitos hechos a base de algodón. Esto permitiría a los tejidos detectar la temperatura corporal y activar un sistema de calefacción o bien otro de refrigeración de manera automática, monitorizar el ritmo cardiaco o la presión arterial en pacientes de alto riesgo, y medir el esfuerzo físico en atletas de alto rendimiento.
Tal como señala Hinestroza, quizás algún día sea posible incluso construir ordenadores hechos de fibras de algodón, siguiendo un planteamiento parecido al del diseño de los quipus. El quipu es un singular dispositivo nemotécnico a base de cuerdas de algodón (u otros tejidos) y nudos, que fue usado por el Imperio Inca en Perú.
En las primeras pruebas, la nueva técnica preparada por el equipo de Hinestroza ha permitido aplicar recubrimientos especiales que obedecen la topografía irregular del algodón. Estos recubrimientos, de nanopartículas de oro y polímeros semiconductores y conductores, fueron usados para dotar a las fibras de algodón natural del comportamiento electrónico deseado.
02/12/2011, 17:40 -

Re: FORO-CIENCIA

#716
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Avances en el área de la computación paralela


Microprocesador. (Foto    :D    iCYT)


El paralelismo es una forma de computación basada en un principio aparentemente simple: dividir los problemas grandes en varios pequeños y solucionarlos simultáneamente, lo que permite ejecutar más instrucciones en menos tiempo. Pero llevado a la práctica es una cuestión compleja en la que se encuentran investigando grupos científicos de todo el mundo. En la Universidad de Valladolid, investigadores del Departamento de Informática trabajan desde hace años en estos temas de computación distribuida, un área en la que han publicado múltiples artículos.
“El problema que pretendemos resolver es que los ordenadores de hoy en día han dejado de ser cada vez más rápidos y, los fabricantes, en vez de hacer un único microprocesador más avanzado, que tiene unos consumos muy elevados, lo que hacen es poner dos, cuatro o más, incluso 80 en algunos ordenadores experimentales”, detallan los investigadores Diego Llanos y Arturo González. Esto ha sido posible gracias a una mejora en la tecnología de fabricación, que ha posibilitado una reducción en el tamaño de los elementos que componen estos microprocesadores y, por tanto, que se puedan incluir más dispositivos en la misma área.
La parte principal de los microprocesadores es el núcleo, encargado de leer y ejecutar las instrucciones. La disminución de su tamaño ha permitido a los fabricantes tener mayor espacio e introducir más núcleos, con el fin de mejorar las prestaciones del procesador (realizar varias tareas a la vez).
“En lugar de introducir un microprocesador se colocan varios, juntos, para consumir menos. El problema es cómo sacarle partido a varios núcleos, ya que los microprocesadores funcionan de manera secuencial, es decir, si tienen que ejecutar un único programa y con un núcleo alcanza, el resto no hace nada”, explican.
Se trata, pues, de una “cuestión de eficiencia”. “Nosotros trabajamos en paralelización de algoritmos. Aprovechar dos núcleos es posible, pero cuando se habla de 4, 8, 16, etc, si se tiene una sola aplicación de cálculo intensivo, la cuestión es cómo aprovecharlos, es decir, qué hacer para que realmente funcionen todos a la vez”, subrayan. La resolución de este problema ocupa a la comunidad científica internacional, que está intentado obtener “una versión paralela que distribuya la tarea entre todos los obreros y por tanto aprovechar de forma automática un programa que ahora es secuencial, que primero hace una tarea y luego otra”.

Por otro lado, recuerdan que buena parte de la tarea investigadora en esta línea se ocupa de diseñar “nuevos lenguajes que permitan expresar fácilmente cómo hacer eso, no de forma automática, sino manual, pero que permitan expresarlo bien y que sean productivos”.
Hasta el momento, añaden, todo el trabajo que se ha realizado en ingeniería de software y grandes aplicaciones de cara al mercado no ha incluido el tema del paralelismo o la distribución “de una forma clara”. Por ello, “son cosas cuyo resultado no se va a comprobar hasta dentro de unos años”.
“Escribir un programa secuencial es difícil, pero escribir un programa que funcione en paralelo distribuyendo tarea entre diferentes procesadores y luego comprobar que todos lo han hecho bien es muy complicado. Trabajamos en herramientas para hacer eso fácil, o bien realizando esa distribución automática o bien desarrollando lenguajes que permitan expresar ese paralelismo de manera simple”, insisten Diego Llanos y Arturo González, quienes investigan desde hace cerca de 10 años en esta línea, en la que se enmarcaron sus respectivas tesis doctorales. (Fuente    :D    iCYT)
02/12/2011, 17:43 -

Re: FORO-CIENCIA

#717
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La iluminación mediante diodos láser no molesta a la gente


Jeff Tsao. (Foto: Randy Montoya)


El ojo humano se siente tan cómodo con la luz blanca generada por los diodos láser como con la producida por los diodos emisores de luz normal (LEDs), cada vez más populares. Así lo indican los resultados de unas pruebas realizadas con voluntarios.
En ambas tecnologías, los LEDs y los diodos láser, se conduce la corriente eléctrica a través del material para generar luz, pero el dispositivo más simple, el LED, sólo emite luz a través de la emisión espontánea. El diodo láser hace rebotar la luz de un lado a otro en su interior antes de emitirla al exterior.
El hallazgo es importante porque los LEDs, ampliamente aceptados como la alternativa actual más eficiente y robusta a la tecnología centenaria de la bombilla incandescente de tungsteno, pierden eficiencia para las corrientes eléctricas por encima de 0,5 amperios. Sin embargo, la eficiencia del diodo láser, una tecnología hermana, mejora con corrientes más altas, proporcionando más luz que los LEDs en amperajes altos.
Poca investigación se había hecho en los diodos láser como sistema de alumbrado cotidiano, debido a la creencia muy extendida de que los ojos humanos encontrarían desagradable la luz blanca producida por los láseres, una luz integrada sólo por la mezcla de cuatro longitudes de onda sumamente estrechas (azul, rojo, verde y amarillo), muy diferente por ejemplo a la luz solar que ofrece un amplio espectro de longitudes de onda diferentes y sin huecos en tal espectro. La luz de los diodos láser también es diez veces más estrecha que la emitida por los LEDs.
Las citadas pruebas de confort fueron diseñadas por el equipo de Jeff Tsao, de los Laboratorios Nacionales de Sandía, en Estados Unidos.
El resultado de las pruebas indica, por tanto, que los diodos láser son una clase prometedora de iluminación cotidiana.
02/12/2011, 17:45 -

Re: FORO-CIENCIA

#718
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Ya hay un modo de conectar los componentes de una computadora cuántica


Esquema sobre cómo producir fotones indistinguibles. (Foto: Suplee, NIST)


Cuando se logre algún día fabricar computadoras cuánticas, es probable que éstas estén compuestas de piezas de muy diversas clases, que tengan que compartir información entre sí, tal como ocurre entre la memoria y los circuitos lógicos de los ordenadores actuales. Sin embargo, lograr este tipo de comunicación entre piezas de una computadora cuántica se ha visto como una meta muy difícil de alcanzar, hasta ahora.
Un equipo de físicos en el Instituto Nacional estadounidense de Estándares y Tecnología ha mostrado por primera vez cómo podrían comunicarse entre ellas esas piezas.
El objetivo de desarrollar computadoras cuánticas, un anhelado tipo de ordenador que podría resolver problemas que actualmente son intratables, como descifrar en un santiamén códigos de cifrado complejos, ha llevado a científicos de todo el mundo a inventar nuevos dispositivos que podrían convertirse en el cerebro y la memoria de estas máquinas. Muchos de estos diminutos dispositivos usan partículas de luz, o sea fotones, para transportar los bits de información que usará una computadora cuántica.
Pero aunque cada uno de estos componentes por sí mismo puede hacer bien ciertos trabajos, no es probable que alguno de ellos realice todas las funciones necesarias para permitir construir una computadora cuántica funcional. Esto implica que para que la computadora o la red de computadoras funcionen, tendrán que trabajar juntos diferentes tipos de dispositivos cuánticos. El problema es que estos pequeños dispositivos con frecuencia crean fotones de naturaleza tan distinta que no pueden transferir bits cuánticos de información entre ellos. Transmutar dos fotones muy diferentes en dos similares sería el primer paso para hacer que los componentes para computación cuántica se puedan comunicar entre sí a grandes distancias, pero hasta ahora no se había podido alcanzar esta meta.
Sin embargo, el equipo de Glenn Solomon ha demostrado ahora que es posible tomar fotones de dos fuentes diferentes y hacer que estas partículas sean parcialmente indistinguibles. El hecho de que los fotones pueden volverse lo bastante parecidos pero sin perder sus propiedades cuánticas esenciales sugiere que, en principio, podrían conectar varios tipos de dispositivos de computación en una sola red cuántica de información. El logro del equipo también demuestra por primera vez que es factible montar una computadora cuántica "híbrida", a partir de diferentes tipos de hardware.
02/12/2011, 17:47 -

Re: FORO-CIENCIA

#719
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Teléfonos inteligentes evaluando el nivel de estrés del usuario


En un futuro quizá no muy lejano, el teléfono inteligente podría evaluar diversos parámetros de la salud mental del usuario. (Imagen: Recreación artística de Jorge Munnshe para NCYT)


Un teléfono inteligente (Smartphone) tiene la capacidad de saber qué trayectoria está siguiendo su usuario, y cuán rápido lo hace, mientras capta la voz con su micrófono. Pronto, en lo que puede ser otro caso de idea que deja de ser exclusiva de la ciencia-ficción, estos teléfonos podrían usar esa capacidad para medir el nivel de estrés de su usuario y ayudarle a hacerle frente.
La investigadora Tanzeem Choudhury, de la Universidad de Cornell, está desarrollando una aplicación de este tipo, con el apoyo de un centro de reciente creación y que es una colaboración entre la Universidad de Cornell y otras cinco universidades, estando la gestión a cargo de la Universidad de Washington, y con la aportación especial de la compañía Intel.
Ya existen estudios previos sobre el uso de teléfonos para medir la actividad física. Sin embargo, percibir la salud mental es algo nuevo.
Choudhury cuenta ya con cierta experiencia previa en este campo, ya que ella usó sensores móviles para mapear redes sociales de los sujetos de estudio.
La investigadora propone usar el micrófono del teléfono para monitorizar los niveles de estrés en el habla, protegiendo mediante alguna técnica la privacidad de la conversación, a fin de que el sistema no pueda reconocer las palabras pronunciadas. Llevar un recuento de dónde y cuándo ocurren los sucesos estresantes puede ayudar a encontrar modos de evitarlos.
Choudhury está colaborando con Deborah Estrin, de la Universidad de California en Los Ángeles e impulsora del proyecto Open mHealth que tiene como objetivo usar dispositivos móviles para mejorar la salud mental. Ellas basarán una parte del diseño de sus programas en consejos de médicos y psiquiatras. Choudhury también trabajará con otros investigadores para aplicar su sistema de monitorización a casas inteligentes.

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO