PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 860443 veces)

26/10/2011, 19:21 -

Re: FORO-CIENCIA

#510
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Televisión en 3D sin tener que usar gafas especiales


Calibrando una cámara. (Foto: © KUK Filmproduktion)


Un equipo de investigadores está optimizando tecnologías capaces de permitir ver televisión en 3D sin tener que usar accesorios tales como gafas especiales. Un nuevo sistema de cuatro cámaras podrá incluso soportar transmisiones en directo.
"La revolución de la televisión en 3D sólo se producirá cuando no se necesiten las gafas. Usarlas es demasiado incómodo y molesto", afirma Frederik Zilly, del Instituto Heinrich Hertz de Berlín. Él y sus colegas de ésta y otras 12 entidades están trabajando en el proyecto MUSCADE, sobre tecnologías que harán posible ver sin gafas especiales la televisión en 3D.
Para esto, se necesitan pantallas autoestereoscópicas, que están recubiertas con espumas ópticas especiales. Estas pantallas crean dos imágenes diferentes, una para el ojo izquierdo y otra para el derecho, lo cual es el principio básico de la visión tridimensional. Para permitir que se pueda observar desde diferentes posiciones, como por ejemplo cuando el espectador mueve la cabeza, estas pantallas utilizan de cinco a diez perspectivas diferentes de una imagen. En el futuro, esta cantidad será mucho mayor.
El equipo de Zilly está trabajando en un sistema de ayuda para las tareas relativas a la sincronización de imágenes con cuatro cámaras.
Con cuatro cámaras, la calibración es mucho más complicada. Esto se debe a que todas las posiciones y ángulos de las cámaras deben ser fijados exactamente igual para que los ejes ópticos sean paralelos, todas las lentes tener la misma distancia focal, y todos los puntos focales ser coordinados de un modo exacto. Para lograr esto, los científicos han desarrollado un detector de rasgos que reconoce objetos idénticos en la imagen en todas las cámaras. Guiándose por su posición, el sistema de ayuda calibra las cámaras individuales entre sí.
Pero incluso después de la calibración, quedan pequeñas imprecisiones. Esto ocurre si se usan longitudes focales fijas, que en la mayoría de los casos están sujetas a pequeñas fluctuaciones. Sólo se puede corregir esos defectos residuales electrónicamente, por ejemplo, usando un zoom digital. Esta última etapa de corrección la lleva a cabo el nuevo sistema auxiliar en tiempo real, haciendo posible incluso las transmisiones en vivo.
Los científicos del mencionado instituto están trabajando actualmente en un sistema eficaz de codificación de vídeo para comprimir el enorme volumen de información que surge cuando se utilizan cuatro cámaras, de modo que el contenido pueda ser transmitido mediante la infraestructura de transmisión existente.
26/10/2011, 19:23 -

Re: FORO-CIENCIA

#511
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Generación automática de libros sobre temas específicos a partir de la Wikipedia


Bookit! puede crear libros automáticamente. (Foto: ATS)


Se ha creado una llamativa aplicación informática que, a partir de sólo unas pocas palabras clave suministradas por el usuario, recorre la enciclopedia online Wikipedia, selecciona artículos de ella, los ensambla a modo de capítulos, y confecciona así en cuestión de minutos un libro sobre un tema específico; un libro completo y maquetado, con título, índice, texto e imágenes, que puede ser leído online, en e-readers (lectores de libros electrónicos), o en papel impreso.
La aplicación, llamada Bookit!, es obra del equipo integrado, entre otros, por Michal Nir, Benjamin Kamfer, Saar Gross y Yossi Gil, de la Facultad de Ciencias de la Computación, en el Instituto Tecnológico de Israel (Technion).
El algoritmo en el que se basa Bookit! busca en Wikipedia las variables solicitadas, y construye una especie de "escala de relevancia" de diferentes cuestiones, a partir de la cual construye el libro.
El algoritmo no lleva a cabo una búsqueda indiscriminada, sino una búsqueda inteligente que, entre otras cosas, incluye un análisis de la relevancia que el material existente en Wikipedia tiene con respecto a las especificaciones suministradas por el usuario.
El método ideado por el equipo de Michal Nir se puede ampliar, de tal modo que sea capaz de trabajar no sólo a partir de información albergada en la Wikipedia, sino también a partir de información contenida en otras webs, y, virtualmente, de la almacenada en toda internet. Sin embargo, esta ampliación, sobre todo para el último caso, requerirá de trabajos adicionales.
26/10/2011, 19:24 -

Re: FORO-CIENCIA

#512
Registrado:
24/12/2010
Gracias:
91/9840
Mensajes
118569
VISTA encuentra nuevos cúmulos globulares de estrellas



Vía Láctea.


Excelente, ya se puede buscar con un poco mas de detenimiento, todavía falta hacerlo mas difícil

Muchas gracias por todo, y el mensaje en rojo.

Saludos
26/10/2011, 19:25 -

Re: FORO-CIENCIA

#513
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Las aguas marítimas profundas pueden enmascarar el calentamiento global de algunos periodos


El agua profunda de nuestros océanos puede absorber bastante calor. (Foto: OAR / National Undersea Research Program (NURP); Woods Hole Oceanographic Inst.)


El agua profunda de nuestros océanos puede absorber bastante calor como para amortiguar el calentamiento global de la atmósfera durante períodos de hasta una década, incluso en medio de épocas de calentamiento mucho más largas, según un nuevo análisis.
El estudio, a cargo de científicos del Centro Nacional estadounidense para la Investigación Atmosférica (NCAR, por sus siglas en inglés) y la Agencia Meteorológica Australiana, se ha basado en simulaciones digitales del clima global, y sus resultados indican que las capas que se encuentran por debajo de los 300 metros son el almacén principal del "calor perdido".
Lo descubierto por el equipo de Gerald Meehl (NCAR) también sugiere que de vez en cuando, en el futuro, se presentarán períodos de estancamiento del calentamiento global. Sin embargo, tales períodos probablemente no durarán más de una década, y luego se reanudará el calentamiento de la atmósfera. Este estudio aporta una explicación de por qué las temperaturas globales no suben simplemente en línea recta.
La década del 2000 fue la más calurosa de nuestro planeta desde que se comenzó a realizar mediciones sistemáticas, hace algo más de un siglo.
Sin embargo, el récord de temperatura global anual obtenido en 1998 no fue igualado ni superado hasta el 2010.
Y todo esto, a pesar de que las emisiones de gases de efecto invernadero continuaron subiendo durante este período. Por su parte, las mediciones por satélite mostraron un aumento de la diferencia entre la radiación incidente y la emitida por la Tierra.
Eso denota que el calor extra se estaba acumulando oculto en alguna parte de nuestro planeta, según se teorizaba en un estudio del 2010 realizado por los investigadores Kevin Trenberth y John Fasullo del mismo NCAR.
Los dos científicos, que son a la vez coautores del nuevo estudio, sugirieron que los océanos podrían estar guardando parte del calor, evitando que participara en otros procesos, como el de calentar la atmósfera o el suelo, o el de fundir más hielo y nieve. Sin embargo, en ese momento había pocas mediciones disponibles para confirmar esa hipótesis, ahora respaldada por los resultados de la nueva investigación.
26/10/2011, 19:28 -

Re: FORO-CIENCIA

#514
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Récord en 2010 de las emisiones de dióxido de carbono


Las emisiones globales de dióxido de carbono aumentaron en un 45 por ciento entre 1990 y 2010. (Foto: NCYT/MMA)


Las emisiones globales de dióxido de carbono (CO2), que son la causa principal del calentamiento global, aumentaron en un 45 por ciento entre 1990 y 2010, alcanzando 33.000 millones de toneladas, la cantidad más alta desde el inicio de la Revolución Industrial.
Este incremento tuvo lugar a pesar de las reducciones de las emisiones en diversas naciones industrializadas durante el mismo período.
El nuevo informe sobre la tendencia a largo plazo en las emisiones globales de CO2, presentado por el Centro Conjunto de Investigación de la Comisión Europea y la Agencia de Evaluación Medioambiental (PBL) de los Países Bajos, muestra grandes diferencias entre los países industrializados. En el período 1990-2010, las emisiones de CO2 en los países de la Unión Europea se redujeron en un 7 por ciento. En Rusia descendieron nada menos que un 28 por ciento. En Estados Unidos aumentaron un 5 por ciento. En Japón, permanecieron más o menos constantes.
En la actualidad, Estados Unidos emite 16,9 toneladas de CO2 per cápita por año, más del doble de las 8,1 toneladas per cápita por año emitidas por las 27 naciones que conforman la Unión Europea. En comparación, China emite 6,8 toneladas de CO2 per cápita por año, un valor inferior al promedio de la Unión Europea, aunque ahora iguala a los valores de Italia.
Conviene aclarar, sin embargo, que los valores medios para China y los países de la Unión Europea enmascaran notables diferencias regionales.
El crecimiento global en las emisiones de CO2 a largo plazo continúa siendo impulsado principalmente por la generación de electricidad, y por la circulación de vehículos en zonas urbanas, carreteras y autopistas, tanto en los países industrializados como en los que están en vías de desarrollo. A escala global, el suministro eléctrico y la circulación de vehículos representan respectivamente un 40 por ciento y un 15 por ciento del total actual, y sus tasas de crecimiento anual a largo plazo se mantienen muy constantes, encontrándose ambas entre un 2,5 por ciento y un 5 por ciento.
26/10/2011, 19:28 -

Re: FORO-CIENCIA

#515
Registrado:
12/10/2008
Gracias:
750/8082
Mensajes
98999
VISTA encuentra nuevos cúmulos globulares de estrellas



Vía Láctea.


Excelente, ya se puede buscar con un poco mas de detenimiento, todavía falta hacerlo mas difícil

Muchas gracias por todo, y el mensaje en rojo.

Saludos

que rapido has sido suacon, ahora esta un poco mas complicado, por lo menos para mí, necesito clases de rastreo por la red........
26/10/2011, 19:30 -

Re: FORO-CIENCIA

#516
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El futuro de la capacidad eólica de Australia


Parque eólico. (Foto: Gregory Heath, CSIRO)


En Australia, al igual que en otras naciones, los científicos están dando pasos para mejorar las estimaciones a largo plazo de los cambios de velocidad del viento.
Esas estimaciones son vitales ante el rápido crecimiento que se está registrando en el uso de la energía eólica, ya que sirven para reducir el riesgo de construir generadores eólicos en sitios que después resulten ser inadecuados.
Algunos estudios han augurado una disminución en la velocidad del viento en varias partes del mundo, incluyendo Australia. Sin embargo, los resultados de investigaciones más recientes impulsadas por la CSIRO muestran que en realidad, a efectos prácticos para la energía eólica, la velocidad promedio del viento en Australia está aumentando.
Un equipo de científicos de la CSIRO dedicado a la investigación marina y atmosférica ha completado un análisis meticuloso de observaciones sobre la velocidad del viento, a fin de poder pronosticar las tendencias a largo plazo en la velocidad del viento en Australia.
El equipo de Alberto Troccoli ha constatado que las tendencias de la velocidad del viento en Australia son sensibles a la altura de la estación medidora. Los vientos medidos a 10 metros de altura muestran una tendencia al incremento de velocidad, justo la contraria de la indicada por un estudio previo en el que sólo se midió la velocidad de los vientos a 2 metros de altura.
Los vientos ligeros medidos a 10 metros, una altura que representa mejor el flujo atmosférico libre, tienden a un incremento más rápido que los vientos promedio, mientras que los vientos fuertes tienden a un aumento más lento que el de los vientos promedio. Los vientos ligeros y fuertes medidos a una altura de 2 metros tienden a variar en concordancia con los vientos medios.
El equipo de Alberto Troccoli ha determinado que la velocidad promedio de los vientos en Australia medida a una altura de 10 metros ha aumentado en un 0,69 por ciento anualmente, en tanto que se ha registrado un descenso de un 0,36 por ciento anual para la velocidad del viento medida a una altura de 2 metros, en ambos casos durante el período 1989-2006.
Se espera que la producción de energía eólica aumente notablemente en los próximos años, y por eso el sistema eléctrico asociado estará sujeto a variaciones de cientos de megavatios, dependiendo de la disponibilidad del viento en cada época.
La capacidad de cuantificar con exactitud las variaciones a largo plazo es esencial para el sector eólico desde el punto de vista económico.
27/10/2011, 04:40 -

Re: FORO-CIENCIA

#517
Registrado:
25/06/2010
Gracias:
110/187
Mensajes
48365
yo tambien encontré a Bally

me costo muchisimo..


es muy dificil

realmente me costo, a lo mejor mi metodo de busqueda es incorrecto

28/10/2011, 19:09 -

Re: FORO-CIENCIA

#518
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El pan duro se vuelve crujiente al calentarlo ¿por qué?

Entrega del podcast Ciencia Nuestra de cada Día, a cargo de Ángel Rodríguez Lozano, en Ciencia para Escuchar, que recomendamos por su interés.
Más de 3.000 años son suficiente experiencia como para decir que el pan se ha ganado el respeto de todos, desde los panaderos hasta los científicos.
Básicamente, cuando se intenta hacer pan lo que se pretende es crear una masa de burbujas cuyas paredes tengan, a la vez, la suficiente rigidez como para que no se colapsen y la elasticidad necesaria para que la miga esté esponjosa, además la miga debe estar envuelta por una corteza exterior dura y crujiente.
Todo esto se consigue con agua, harina de trigo y un aditivo que produzca los gases que van a rellenar las burbujas.

Esta entrega del podcast Ciencia Nuestra de cada Día, en Ciencia para Escuchar, se puede escuchar aquí.
28/10/2011, 19:23 -

Re: FORO-CIENCIA

#519
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Plutón fue desterrado por un planeta tan enano como él


Observatorio de la Silla (Chile). 35 centros astronómicos han participado en la investigación. (Imagen: Nature)


Un grupo internacional de astrónomos ha estudiado el paso del planeta enano Eris por delante de una estrella –lo que se conoce como ocultación– y ha medido su tamaño con más precisión que nunca. Los resultados reducen considerablemente las dimensiones estimadas de Eris y muestran que es de igual, si no de menor tamaño que Plutón. Hasta ahora ha sido el objeto más lejano del sistema solar estudiado mediante una ocultación.
“La estimación actual, muchísimo más precisa que las anteriores, es de 1.163 +/- 6 km de radio”, detalla a SINC José Luis Ortiz, investigador del Instituto de Astrofísica de Andalucía (IAA-CSIC), uno de los centros españoles que participan en el estudio. “La técnica de las ocultaciones permite obtener una fantástica precisión en las mediciones de tamaño”.
Los cálculos anteriores lo situaban entre 1.200 y 1.400 kilómetros y convirtieron a Eris en el mayor objeto del Cinturón de Objetos Transneptunianos, una región más allá de Neptuno poblada por cuerpos rocosos y helados. Ahora parece que Plutón, con un radio de entre 1.150 y 1.200 kilómetros, podría recuperar el puesto como el mayor objeto de esta región. “Plutón es quizá hasta más grande, y decididamente más grande que Eris si contamos la atmósfera”, asegura Ortiz.
Este estudio ha mostrado que Eris es uno de los objetos intrínsecamente más brillantes del sistema solar, con un albedo –la fracción de luz reflejada con respecto a la que incide–, de al menos del 90%. Este brillo podría estar causado por una atmósfera colapsada, congelada por el frío entorno.
Su masa y densidad sugieren que se trata de un cuerpo en su mayoría rocoso y cubierto de una capa de hielo.
“Es la primera vez que se consigue detectar la ocultación causada por un planeta enano, y además se trata del objeto transnepturiano más lejano que conocemos”, asevera Ortiz. “La fuerza de la gravedad solar no se ha podido medir nunca a tan largas distancias de una manera fiable en el sistema solar”.
Eris se halla tres veces más lejos de la Tierra que Plutón y se encuentra en una región en la que las ocultaciones son muy poco habituales y difíciles de estudiar; de hecho, inicialmente se pensó que esta ocultación no se vería desde la Tierra.
"Desde el IAA alertamos de que la predicción inicial era errónea e insistimos en la importancia de observar esta ocultación con el mayor número de telescopios posible", destaca José Luis Ortiz. De la red de veintiséis telescopios que apuntó hacia Eris la noche del 6 de noviembre de 2010, solo tres detectaron la ocultación, entre ellos el telescopio de 40 centímetros de San Pedro de Atacama (Chile) perteneciente al Instituto de Astrofísica de Andalucía y a Astroimagen.
El hallazgo de Eris en 2005 supuso un hito en la caracterización de objetos en el sistema solar: los primeros cálculos apuntaban a que su tamaño superaba el de Plutón y, aunque en un principio se habló de décimo planeta, finalmente se impuso una redefinición del concepto de planeta que no incluía ni a Eris ni a Plutón.
En una decisión que produjo controversia, la Unión Astronómica Internacional decidió que ambos pasaran a integrar una nueva categoría de objetos, los planetas enanos, reduciendo el número de planetas del sistema solar a ocho.
Ahora resulta que estos datos eran erróneos. “La comunidad científica había estimado un tamaño mayor de Eris porque las técnicas que se habían utilizado para medir su diámetro eran demasiado burdas, pues la tecnología no nos permitía mejores precisiones”, explica Ortiz. “El problema fundamental es que no había más técnicas, sólo una ocultación estelar podría aportar mejores resultados”.
Para realizar esta medición ha sido necesaria la colaboración de un gran número de centros astronómicos internacionales. El paso de la sombra de Eris sobre la Tierra tenía incertidumbres considerables y por tanto, “era necesaria  una amplia red de observadores dentro y fuera del lugar previsto de paso para asegurarnos detectar el fenómeno”, explica Ortiz.
“Predijimos correctamente el fenómeno mediante observaciones astrométricas, alertamos a la comunidad científica, organizamos la mayor parte de las observaciones, las realizamos, detectamos el desvanecimiento de la estrella desde un observatorio, e interpretamos los resultados”, explica Ortiz. “El papel del IAA ha sido vital para este descubrimiento”. (Fuente: SINC)
28/10/2011, 19:35 -

Re: FORO-CIENCIA

#520
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Mediciones más fiables y precisas de las reservas de agua en los acuíferos


El equipo de investigación. (Foto: ANL)

Alrededor de una quinta parte de la humanidad bebe agua extraída del subsuelo, y los cultivos de muchas partes del mundo también dependen de ella. El agua subterránea es menos propensa a contaminarse, y es la única disponible en muchas zonas secas donde el agua de la superficie se evapora con rapidez.
El agua se acumula en los acuíferos sólo después de filtrarse lentamente a través de la arena y las grietas en las rocas, lo que puede tardar miles de años en algunas áreas. Para gestionar este recurso de manera eficaz, se necesita saber la rapidez con la que el agua se renueva. Conocer con la máxima precisión posible las provisiones de agua en los acuíferos es fundamental para poder regular el abastecimiento y evitar situaciones inesperadas de escasez.
Sin embargo, como las áreas que alimentan a los acuíferos se pueden extender por miles de kilómetros cuadrados, y las condiciones en cualquier punto de esas áreas los afectan, ha sido demasiado difícil, hasta ahora, obtener un modelo preciso de todo el sistema.
Disponer de buenos modelos permitiría predecir la disponibilidad de agua a raíz de cambios en la vegetación, el terreno, las lluvias, las sequías o los monzones.
Lo que los científicos necesitaban para mejorar sus modelos, y ahora parece que van a tener, era la forma de calcular la "edad" del agua, o cuánto tiempo ésta ha pasado bajo tierra.
Cuando el agua permanece durante un tiempo en la superficie, recoge trazas de los isótopos que están presentes en el aire de forma natural. Uno de ellos es el kriptón-81, que se desintegra muy despacio. La nueva técnica desarrollada para calcular la edad del agua es similar a la datación por radiocarbono que se le practica a los fósiles: Conociendo la velocidad de desintegración del kriptón-81, y midiendo la cantidad de átomos de kriptón-81 que quedan en el agua, se puede calcular cuánto tiempo ha pasado desde que el líquido estuvo en la superficie.
Desde 1960, los científicos han tenido la esperanza de poder utilizar algún día el kriptón-81 para las dataciones. Sin embargo, como el isótopo es extremadamente raro en la atmósfera, los investigadores necesitaban una técnica capaz de medir cantidades muy pequeñas de estos átomos.
La captura de átomos mediante láser y el posterior enfriamiento de estos, ha resultado ser la solución.
El físico Zheng-Tian Lu del Laboratorio Nacional estadounidense de Argonne dirige un equipo que ha trabajado desde 1997 en la adaptación de un dispositivo para capturar átomos, a fin de que sirva para contabilizar átomos individuales de kriptón-81. El dispositivo original fue desarrollado por Steven Chu, físico pionero en este campo, ganador de un Premio Nobel de Física, y actual Secretario de Energía en el gobierno estadounidense.
El resultado del trabajo de modificación es un aparato capaz de generar imágenes de los átomos.
Si la nueva técnica tiene éxito en las pruebas que se están realizando con ella, podría utilizarse para mapear los acuíferos, y las aguas subterráneas en general, en todo el mundo.
28/10/2011, 19:37 -

Re: FORO-CIENCIA

#521
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Hallan vestigios de un enorme astillero del Imperio Romano


Representación del posible aspecto del astillero cuando estaba en servicio activo. (Imagen: U. Southampton)


En una excavación internacional en Portus, el antiguo puerto de Roma, se ha descubierto que ciertas ruinas podrían pertenecer a un gran astillero del Imperio Romano.
El hallazgo es importante porque son pocos los astilleros del periodo del Imperio Romano que han sido encontrados hasta la fecha. Además, si la identificación de estas ruinas recién investigadas es correcta, éste sería el mayor astillero de su tipo en Italia o en todo el Mediterráneo.
El equipo, formado por arqueólogos de la Universidad de Southampton en el Reino Unido, la Escuela Británica en Roma, y la Superintendencia Arqueológica italiana de Roma, creyó al principio que el gran edificio rectangular descubierto era utilizado como almacén. Sin embargo, la nueva excavación ha permitido encontrar evidencias de que pudo tener otro uso anterior, conectado con la construcción y el mantenimiento de buques.
Desde hace tiempo, se sabe que Portus fue un nudo importante de rutas de comercio que unió a Roma con la Región Mediterránea durante todo el periodo imperial, y los arqueólogos de este proyecto han estado investigando la importancia del puerto durante varios años. Hasta ahora, no se ha identificado ningún otro astillero romano importante, excepto uno que quizá no sea tal cosa, en el río Tíber, cerca del Monte Testaccio, y uno más pequeño recientemente descubierto en el puerto fluvial vecino en la ciudad de Ostia.
El enorme edificio que el equipo ha descubierto, data del segundo siglo de nuestra era, y tenía alrededor de 145 metros de largo por 60 de ancho. En algunos puntos, su techo alcanzaba hasta 15 metros de altura.
Era una gran estructura que con facilidad podría haber almacenado grandes cantidades de madera y otras materias primas y suministros, y, ciertamente, lo bastante grande como para construir dentro de ella navíos o bien servirles de refugio. La escala, la posición y la naturaleza exclusiva del edificio, hace pensar a Simon Keay (director del proyecto Portus y profesor de la Universidad de Southampton) que desempeñó un papel clave en las actividades de construcción naval de su época.
28/10/2011, 19:39 -

Re: FORO-CIENCIA

#522
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El sistema inmunitario humano usa zinc para envenenar microbios


Bacilo de la tuberculosis en un macrófago. (Foto: © Chantal de Chastellier)


Se ha comprobado la existencia de un mecanismo natural adicional de defensa contra las infecciones. El zinc, un metal pesado que resulta tóxico en dosis elevadas, es utilizado por las células del sistema inmunitario humano para destruir microbios como el bacilo de la tuberculosis o la bacteria Escherichia Coli.
Este descubrimiento será de gran ayuda para el diseño de nuevas estrategias terapéuticas y para comprobar la eficacia de nuevos candidatos a vacunas.
Una estrategia bien conocida que utiliza nuestro sistema inmunitario para aniquilar microbios consiste en privarlos de los nutrientes esenciales. Por primera vez, se ha conseguido demostrar que existe también una estrategia de signo opuesto, en la que células del sistema inmunitario movilizan reservas de metales pesados, especialmente zinc, para envenenar a los microbios.
El estudio que ha permitido comprobar la existencia de esta otra estrategia lo ha llevado a cabo un grupo internacional de especialistas encabezado por investigadores del Instituto de Farmacología y Biología Estructural (CNRS / Universidad Paul Sabatier - Toulouse III), el Centro de Inmunología de Marsella Luminy (CNRS / INSERM / Universidad del Mediterráneo) y el Instituto Pasteur, en Francia.
Este fenómeno ha sido observado en acción contra la Mycobacterium tuberculosis, el microorganismo culpable de la tuberculosis en los seres humanos, que acarrea casi 2 millones de muertes en el mundo cada año, y contra la Escherichia coli, de la que ciertas cepas pueden causar infecciones graves en los sistemas digestivo y urinario.
En los macrófagos (células del sistema inmunitario) que han ingerido a individuos de M. tuberculosis o de E. coli, los investigadores observaron una rápida y persistente acumulación de zinc. También observaron la producción, en la superficie de los microbios, de numerosas proteínas cuya función es la de "bombear" hacia fuera los metales pesados, o, en otras palabras, librarse de ellos. Esto deja bastante claro que los microbios quedan expuestos a cantidades potencialmente tóxicas de zinc y tratan de protegerse contra la intoxicación recurriendo a la síntesis de estas bombas.
En los experimentos en los que, mediante ingeniería genética, se saboteó este bombeo, se constató que los microorganismos afectados, tanto los M. tuberculosis como los E. coli, se vuelven mucho más vulnerables a los ataques de los macrófagos.
El hallazgo abre una vía estratégica potencial para desarrollar fármacos que saboteen la capacidad de ciertos microbios para protegerse de los metales pesados.
28/10/2011, 19:41 -

Re: FORO-CIENCIA

#523
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La orientación Norte-Sur de América dificultó la propagación de la población humana


En Eurasia, la adaptación a nuevas ubicaciones fue más fácil para los vegetales de cultivo y para los animales domesticados. (Imagen: NOAA)


Nuevas evidencias avalan la hipótesis de que la orientación Norte-Sur de América enlenteció la expansión de la población y la difusión de la tecnología, en comparación con la orientación Este-Oeste que es la que predomina en Eurasia.
La nueva investigación, llevada a cabo por Sohini Ramachandran y Noah Rosenberg, de la Universidad Brown y la Universidad de Stanford, respectivamente, desarrolla esa idea sobre la base de que la orientación continental influyó en los patrones de migración y desempeñó un papel importante en la configuración de la estructura de las variaciones genéticas humanas y la distribución y la difusión de los rasgos culturales.
Valiéndose de la información genética que permite explorar los efectos que los ejes continentales y la gama de climas en cada uno tuvieron sobre la migración humana y la adaptación, Ramachandran y Rosenberg han constatado que hay evidencias de que la difusión tecnológica se aceleró en Eurasia. El motivo, fácil de deducir, y que ha sido verificado por el equipo, es que las poblaciones de la misma latitud compartieron climas similares, mientras que la migración a lo largo de las líneas de longitud implicaba tener que adaptarse a climas muy diferentes. Esto facilitó el tránsito por Eurasia, desplegada mayormente en el eje Este-Oeste, y lo dificultó por América, desplegada mayormente en el eje Norte-Sur.
En Eurasia, por tanto, la adaptación a nuevas ubicaciones fue más fácil para los vegetales de cultivo y para los animales domesticados. Poder valerse, en otras tierras muy distantes, del mismo tipo de ganado y los mismos cultivos agrícolas, facilitó la movilidad de los seres humanos.
La idea, bastante lógica, de que la tecnología se difundió mejor a lo largo de las líneas latitudinales fue propuesta por Jared Diamond en 1997, aunque hacía falta corroborarla con la suficiente solidez.
El estudio comparativo que Ramachandran y Rosenberg han realizado sobre la variación genética a través del eje Norte-Sur y del eje Este-Oeste en cada continente, ha respaldado ahora la validez de esa hipótesis.
28/10/2011, 19:43 -

Re: FORO-CIENCIA

#524
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los funerales espaciales

Cuestiones intrigantes tocadas por la ciencia-ficción, y que la ciencia también aborda, expuestas en artículos breves escritos por Jorge Munnshe. En esta entrega: Los funerales espaciales.


Lanzamiento de vehículo espacial con restos mortales. Foto: NASA-KSC.


Enviar cenizas de un ser querido a una órbita alta, para que permanezcan en el espacio durante un tiempo y al final reentren a la Tierra, es un modo de rendir homenaje a quienes aportaron su esfuerzo personal a la exploración del cosmos. Entre las personas de esta clase cuyas cenizas fueron enviadas al espacio figuran el astronauta Leroy Gordon Cooper, un pionero que participó en los programas Mercury y Gemini. Otro ejemplo es el de Gerard O'Neill, el más firme defensor de las colonias espaciales.
En otros casos, es un modo de hacer realidad, aunque sea de manera sólo simbólica, el sueño anhelado por personas que no tomaron parte en la exploración del cosmos, pero que siempre desearon poder viajar al espacio algún día. Algunos recrearon la aventura cósmica desde la ciencia-ficción, como Gene Roddenberry, creador de Star Trek, cuyas cenizas alcanzaron finalmente la "última frontera". O James Doohan, el célebre Scotty en esa saga, quien tras numerosos vuelos ficticios a bordo de la Enterprise, acabó viajando de verdad al espacio aunque fuese a título póstumo.
Los fallecidos más abundantes son, sin embargo, personas sin fama, a veces dolorosamente jóvenes, cuya condición de aficionados a las ciencias espaciales marcó ese destino final de sus restos mortales. En unos casos, esa vocación del difunto y su anhelo de viajar al espacio motivaron que sus familias escogieran enviar sus cenizas al espacio como el mejor homenaje posible para ese ser querido. En otros casos, fueron los propios enfermos terminales quienes escogieron hacer ese viaje espacial póstumo, una elección que les sirvió para mitigar su desesperación e infundirles ánimo, conscientes de que en cierto modo alcanzarían por fin su sueño de viajar al espacio.

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO