PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 867962 veces)

11/07/2012, 14:00 -

Re: FORO-CIENCIA

#1740
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El propóleo de las abejas, posible escudo contra las radiaciones ionizantes

BIOQUÍMICA


El objetivo final de este estudio es el desarrollo de cápsulas orales con la dosis de propóleo adecuada. (Imagen: UPV)

Un equipo de investigadores de la Universitat Politècnica de València (UPV), el Hospital Universitari i Politècnic La Fe, la Universitat de València y la Universitat Autònoma de Barcelona, en España, ha evaluado, mediante estudios in vitro de citoxicidad (afección celular), el rango óptimo de concentración de propóleo en el que esta sustancia natural extraída de la resina de las abejas tendría protección máxima frente a las radiaciones ionizantes y no sería tóxica para las células sanguíneas.
Según los resultados de la investigación, esa franja óptima de concentraciones se sitúa entre 120-500 microgramos/mililitro. Los seres vivos están expuestos a niveles bajos de radiación ionizante procedente, entre otros, del sol, las rocas, el suelo, fuentes naturales del propio organismo y residuos radiactivos de pruebas nucleares.
“En este rango tenemos una protección máxima frente al daño radioinducido y la sustancia no muestra un efecto citotóxico ni genotóxico en linfocitos humanos no irradiados”, apunta Alegría Montoro, responsable del Laboratorio de Dosimetría Biológica del Hospital La Fe y profesora del Máster en Protección Radiológica en Instalaciones Radiactivasy Nucleares de la UPV.
El trabajo, parcialmente financiado por el Consejo de Seguridad Nuclear, constituye un punto de partida para futuras aplicaciones clínicas del propóleo. Los resultados se han publicado en la revista Food and Chemical Toxicolgy y en agosto se presentará una revisión completa sobre el estudio en el Annual International Conference of the Engineering in Medicine and Biology Society EMBC12, que tendrá lugar en San Diego (EE UU).
El equipo de investigadores utilizó cuatro biomarcadores genéticos, entre los que se incluyen el índice mitótico y el de proliferación celular, con el objetivo de determinar si el propóleo tiene efecto citotóxico sobre la célula. “A partir de estos biomarcadores es posible conocer cómo afecta una sustancia a la división de las células: una sustancia que fuera citotóxica y modificara la etapa de la división celular lo haría acelerando, ralentizando o incluso deteniendo dicho proceso, y los tres efectos son negativos”, explica Alegría Montoro.
Los otros dos biomarcadores utilizados son el estudio de la posible inducción de alteraciones cromosómicas en cultivos no irradiados a distintas concentraciones y el  intercambio de cromátidas hermanas (SCE), un biomarcador genético de exposición a agentes químicos.
“Con este trabajo sabemos ya, a nivel experimental in vitro, la concentración de propóleo que deberíamos usar para que actuara como agente radioprotector y no fuera cito o genotóxico para las células no tumorales. Se trata de un primer paso, un punto de partida para futuros ensayos clínicos. El objetivo final sería el desarrollo de cápsulas orales con la dosis de propóleo adecuada, pero para llegar a eso todavía hace falta muchas más horas de investigación”, añade.
En el año 2008, investigadores del Instituto de Seguridad Industrial, Radiofísica y Medioambiental (ISIRyM) de la Universitat Politècnica de València y el Hospital La Fe demostraron que el propóleo puede reducir hasta un 50% el daño en los cromosomas provocado por las radiaciones ionizantes, protegiendo así al ADN de sus efectos. El nuevo estudio es fundamental para conocer el rango de concentraciones en que esta sustancia puede tener un efecto tóxico en células no irradiadas.

Fuente: UPV/Hospital La Fe/ UV/UAB
11/07/2012, 14:02 -

Re: FORO-CIENCIA

#1741
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La vida en la Tierra tardó diez millones de años para recuperarse de la peor extinción

BIOLOGÍA


Ilustración de un ecosistema dominado por los microbios después de la extinción. (Fotos: John Sibbick)

Una reciente investigación ha revelado que la recuperación tras la mayor extinción en masa de todos los tiempos en la Tierra duró unos 10 millones de años.
La extinción más grande de la historia de la Tierra ocurrió hace alrededor de 250 millones de años, durante la etapa final del Periodo Pérmico. En esa época, todos los continentes estaban agrupados en un supercontinente llamado Pangea. El medio ambiente variaba desde el propio de las zonas de desierto hasta el típico de los bosques frondosos. En esa extinción, alrededor del 95 por ciento de la vida marina y el 70 por ciento de la vida terrestre se extinguieron. La idea más aceptada es que se desencadenaron erupciones volcánicas cuya lava incendió inmensos yacimientos de carbón, con el resultado de emisiones colosales de dióxido de carbono y otras sustancias tóxicas que exterminaron a cuantiosas formas de vida. Eso provocó además un cambio climático abrupto.
En la actualidad se debate mucho sobre cómo la vida se recuperó de este cataclismo, si fue rápida o lentamente.
En una nueva revisión de resultados de estudios, Zhong-Qiang Chen, de la Universidad de Geociencias de Wuhan, en China, y Michael Benton de la Universidad de Bristol, en el Reino Unido, han determinado la duración más probable de ese periodo de recuperación, llegando a la conclusión de que fue de unos 10 millones de años.
Al parecer, dos factores causaron que la recuperación durara ese tiempo: la propia intensidad de la catástrofe y la persistencia de condiciones hostiles en la Tierra después de la primera oleada de extinción.
La catástrofe de finales del Pérmico, que ha sido con mucha diferencia el desastre biológico más drástico que ha afectado a la vida en la Tierra, fue provocada por una serie de alteraciones físicas del medio ambiente, incluyendo calentamiento global, lluvia ácida, acidificación de los océanos y anoxia marina.
El nuevo estudio de revisión muestra que estas condiciones hostiles continuaron presentándose, a rachas, durante un periodo de entre cinco y seis millones de años después de la catástrofe inicial.
Algunos grupos de animales marinos y terrestres sí se recuperaron con rapidez y comenzaron a reconstruir sus ecosistemas, pero posteriormente sufrieron más adversidades. La vida no se había recuperado realmente en estas primeras etapas tras la Gran Extinción, porque todavía no se habían establecido ecosistemas permanentes. Cuando la vida parecía estar volviendo a la normalidad, se desencadenaba otro percance que la hacía retroceder.
Finalmente, después de que las adversidades ambientales dejaron de ser tan graves, aparecieron ecosistemas más complejos. En el mar surgieron nuevos grupos, como langostas y cangrejos primitivos, así como los primeros reptiles marinos, y estos animales formaron la base de ecosistemas firmes.
Tal como razona Benton, a menudo creemos que las extinciones en masa son del todo negativas, pero en este caso la extinción condujo a que emergieran y prosperasen nuevos grupos. La catástrofe llevó a la evolución por un nuevo sendero.
11/07/2012, 14:04 -

Re: FORO-CIENCIA

#1742
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Un rasgo de las flores que es muy importante para las abejas e insectos similares

BOTÁNICA


Células cónicas en una flor. (Foto: Bristol U.)

Unos científicos de las universidades de Bristol y Cambridge en el Reino Unido han descubierto otro rasgo que hace atractivas a las flores para las abejas, un rasgo que para los humanos es fácil que pase del todo desapercibido.
El grupo de Beverley Glover (Universidad de Cambridge), experta en la evolución y desarrollo de rasgos florales que atraen a los animales polinizadores, previamente había descubierto que cuando se les da a escoger a las abejas entre una planta con flores de la especie Antirrhinum majus que posee estructuras cónicas, y una variedad mutante sin estas estructuras, las abejas prefieren a las primeras porque las estructuras cónicas las ayudan a agarrarse a la flor. Las "garras" de las abejas se traban en los espacios entre estas estructuras, de forma un tanto parecida a lo que sucede con el velcro.
Sin embargo, a diferencia de muchas flores típicamente seleccionadas para los jardines, las flores de la Antirrhinum majus, conocida popularmente como Boca de Dragón, entre otros nombres, son muy complicadas. Las abejas tienen que posarse en una superficie vertical y abrir un pesado labio para llegar al néctar, por lo que Glover no se sorprendió de que la facilidad de agarre las ayudara. Sin embargo, ella quería descubrir cómo exactamente las estructuras cónicas ayudan a las abejas que visitan flores mucho más simples.
Muchas flores de jardín como las petunias, rosas y amapolas son en esencia como cuencos simples con néctar en el fondo, por lo que el equipo de Glover, incluyendo a Heather Whitney de la Universidad de Bristol, quiso averiguar para qué podía servir tener estructuras cónicas que les proporcionen un buen agarre a las abejas que se posan en estas flores. La hipótesis que se planteó fue que quizás la facilidad de agarrarse era de gran ayuda para los insectos cuando las flores eran movidas por el viento.
Usando dos tipos de petunia, uno con estructuras cónicas y una variedad mutante con estructuras planas, Glover puso un grupo de abejorros, que nunca habían visto petunias, en una gran caja que contenía ambos tipos de flores, y descubrió que estos animales también prefieren a las flores con las estructuras cónicas.
Entonces el equipo de investigación ideó un modo de imitar la forma en que las flores se mueven con el viento. Glover y sus colegas colocaron las flores sobre una plataforma de agitación que normalmente se usa en los laboratorios para mezclar líquidos. A medida que aumentaba la velocidad de agitación, simulando una mayor velocidad del viento, los animales aumentaban su preferencia por las flores con estructuras cónicas.
11/07/2012, 14:06 -

Re: FORO-CIENCIA

#1743
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Una colisión entre una nube de gas y un agujero negro, en directo desde la Vía Láctea

ASTROFÍSICA

Una inmensa nube de gas colisionará con un agujero negro en el medio de la Vía Láctea a mediados de 2013, según los astrónomos del Instituto Max Planck de Munich. Estos astrónomos tendrán, por primera vez, la oportunidad de observar, en tiempo real, cómo ese agujero negro absorve toda esa materia.

(Fuente: Euronews)


[youtube]http://www.youtube.com/watch?feature=player_embedded&v=6VqU-2b3g1E[/youtube]
11/07/2012, 14:09 -

Re: FORO-CIENCIA

#1744
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Patrones sociales del acceso a las tierras de cultivo hace siete mil años


ARQUEOLOGÍA


Hombre enterrado con una azuela. (Foto: BDA – Neugebauer)

Mediante el estudio de más de 300 esqueletos humanos de yacimientos arqueológicos en Europa central, se ha logrado obtener las evidencias más antiguas conocidas sobre diferencias en el acceso a la tierra de cultivo entre los primeros agricultores del periodo Neolítico.
La investigación la han llevado a cabo arqueólogos de las universidades de Bristol, Cardiff, Oxford y Durham, en el Reino Unido, así como otros especialistas de fuera del país.
El equipo del arqueólogo y antropólogo Alex Bentley (Universidad de Bristol) ha comprobado, mediante un análisis de isótopos de estroncio en los esqueletos, el cual brinda indicios sobre su lugar de origen, que los hombres enterrados con azuelas de piedra propias del Neolítico (herramientas usadas para alisar o tallar madera) tienen perfiles isotópicos menos variables que los hombres enterrados sin azuelas. Esto sugiere que los enterrados con azuelas tuvieron acceso a tierras más cercanas, y probablemente mejores, que los enterrados sin ellas. En otras palabras, parece que los hombres enterrados con azuelas se alimentaron con productos cultivados en áreas de suelo fértil y productivo. Esto indica que tuvieron acceso constante a zonas agrícolas mejores.
El análisis de isótopos de estroncio también ha revelado que era más frecuente que las mujeres del Neolítico temprano procedieran de áreas distintas a aquellas en las que fueron encontrados sus restos mortales, en comparación con los hombres del mismo periodo. Éste es un indicio importante de que era una costumbre social muy extendida que una mujer al casarse pasara a residir allá donde vivía el hombre y de donde por regla general procedía.
Estas nuevas evidencias obtenidas de los esqueletos encajan con otras evidencias arqueológicas, genéticas, antropológicas, e incluso lingüísticas, de esa costumbre social en la Europa del Neolítico. Los resultados del nuevo estudio tendrán repercusiones para el desarrollo de modelos genéticos relativos a cómo las poblaciones humanas se expandieron en el Neolítico, algo para lo cual las diferencias de estatus y los patrones de movilidad dependientes del género parecen ser mucho más importantes de lo que se creía.
11/07/2012, 14:11 -

Re: FORO-CIENCIA

#1745
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Un grupo de hongos marcó el final de la era del carbón hace 300 millones de años

BIOLOGÍA


Arriba: Reconstrucción del paisaje del periodo Carbonífero con gran desarrollo de plantas arbóreas. Abajo: Estructura molecular de una de las peroxidasas cuya amplia distribución en los genomas de hongos se ha descrito por primera vez en este estudio

Hace unos 300 millones de años, la Tierra dejó súbitamente de producir carbón de forma masiva. Esta circunstancia marcó el final del Carbonífero, un periodo de la Era Paleozoica que había comenzado unos 60 millones de años antes y que se había caracterizado por la sucesiva formación de inmensos estratos de carbón a partir de la acumulación y el enterramiento de árboles primitivos que crecían en enormes bosques pantanosos.
Un equipo internacional de científicos con participación del Consejo Superior de Investigaciones Científicas (CSIC), en España, ha descubierto que el fin de esta era del carbón coincidió con la aparición de un grupo de hongos altamente especializados. Los resultados, recogidos en el último número de la revista Science, señalan que estos microorganismos desarrollaron un sistema para descomponer eficazmente la enorme biomasa de las plantas que habían colonizado el medio terrestre.
“Estos microorganismos primitivos, hongos de tipo basidiomiceto, habían desarrollado un mecanismo basado en enzimas capaces de destruir una barrera casi infranqueable hasta entonces: la lignina. Este polímero, presente entonces y ahora en la madera, proporcionaba rigidez a los troncos e impermeabilizaba las paredes de los vasos para que el agua y los nutrientes se distribuyesen por toda la planta”, explica uno de los autores del estudio, el investigador del CSIC Ángel Tomás Martínez.
Los científicos han dado con la clave tras haber realizado un análisis comparativo de 31 genomas fúngicos. El estudio ha permitido conocer cómo era el mecanismo empleado por los hongos para degradar la lignina. “Este proceso se basa en la producción de un tipo de proteínas complejas denominadas peroxidasas, que actúan sinérgicamente con otras enzimas oxidativas. Hemos logrado establecer la historia evolutiva y la cronología de los diferentes tipos de peroxidasas responsables de la biodegradación de la lignina. Asimismo, los resultados han constatado la existencia de peroxidasas hasta ahora prácticamente desconocidas”, detalla Martínez, que trabaja en el Centro de Investigaciones Biológicas del CSIC.
Las enzimas descubiertas podrían ser empleadas en el futuro desarrollo de nuevos biocatalizadores industriales. Las nuevas enzimas serán expresadas en microorganismos modelo, y posteriormente purificadas, caracterizadas y modificadas mediante técnicas de ingeniería de proteínas.
“Los mismos agentes biológicos responsables del descenso en la producción de carbón durante el Carbonífero podrían permitirnos desarrollar las herramientas biotecnológicas necesarias para la producción sostenible de biocombustibles y otros productos a partir de los recursos renovables que proporciona la biomasa vegetal”, precisa el investigador del CSIC.
Estos estudios se llevarán a cabo en el marco del proyecto europeo PEROXICATS, coordinado por el CSIC y en el que participan, entre otros, investigadores del Centro de Investigaciones Biológicas (CSIC), el Instituto de Recursos Naturales y Agrobiología (CSIC) y el Instituto de Catálisis y Petroleoquímica (CSIC). La iniciativa cuenta también con la colaboración de una universidad alemana y dos empresas privadas.

Fuente: CSIC
11/07/2012, 14:14 -

Re: FORO-CIENCIA

#1746
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Un cohete Ariane-5ECA coloca dos satélites en el espacio

ASTRONÁUTICA


Lanzamiento. (Foto: Arianespace)

La misión VA207 (L563) del cohete Ariane-5 colocó el 5 de julio con éxito en órbita de transferencia geoestacionaria a dos satélites, uno de comunicaciones y otro meteorológico.
El despegue del Ariane-5ECA se llevó a cabo, como es habitual, desde la rampa ELA-3 de Kourou, en la Guayana Francesa, a las 21:36 UTC. La etapa superior del vehículo soltó a su carga en la trayectoria prevista: el Echostar-17 y el Meteosat MSG-3.
El primero, también llamado Jupiter-1,  es un ingenio de 6100 kg de peso construido por la compañía Space Systems/Loral para la estadounidense Hughes Network Systems-Echostar. Utiliza una plataforma L1300E equipada con una carga útil para la banda Ka. Permitirá dar servicios de comunicaciones de banda ancha a toda Norteamérica.
En cuanto al MSG-3, también denominado Meteosat-10, es propiedad del consorcio EUMETSAT y estará dedicado a obtener imágenes meteorológicas. Es el más reciente satélite de la exitosa serie europea Meteosat Segunda Generación, cuyos sensores garantizarán que Europa y África siguen recibiendo información meteorológica actualizada.
El MSG-3 ha sido construido por un grupo de empresas liderado por la compañía Thales Alenia Space y pesa unos 2.000 kg. Se estabiliza por rotación, de aquí su forma de tambor.
Unos 34 minutos tras el lanzamiento el tercer satélite Meteosat Segunda Generación fue colocado en su órbita elíptica de transferencia. En estos momentos está siendo controlado desde el Centro Europeo de Operaciones Espaciales (ESOC), de la ESA, en Darmstadt, Alemania.
Dentro de diez días, cuando hayan finalizado las operaciones especiales, MSG-3 será entregado al propietario del satélite, EUMETSAT -la Organización Europea para la Explotación de Satélites Meteorológicos-, para comisionar la carga útil.
Tras la entrega oficial, cuando MSG-3 se haya convertido en Meteosat-10, el satélite será situado en la posición 0º de longitud, sobre el Golfo de Guinea en el Ecuador, en órbita geoestacionaria, donde su velocidad coincidirá con la de la rotación de la Tierra.
“MSG-3 garantiza la continuidad del servicio actual. La ESA está trabajando junto con EUMETSAT en el desarrollo de la siguiente serie de satélites meteorológicos, Meteosat Tercera Generación”, dijo el Director de Observación de la Tierra de la ESA, Volker Liebig.
“Esta próxima generación, que estará operativa a finales de esta década, supondrá un salto cuántico en términos de tecnología y prestaciones. Entre otras mejoras los Meteosat Tercera Generación obtendrán imágenes más rápidamente; contarán con más canales espectrales; y su capacidad para analizar la atmósfera permitirá hacer perfiles de gases traza”.
El papel de la ESA en la vigilancia meteorológica y del clima no se basa únicamente en la serie Meteosat. La ESA ha desarrollado también la serie MetOp de satélites meteorológicos en órbita polar -también operados por EUMETSAT-. En el próximo Consejo Ministerial de la ESA, en noviembre, se presentará para su aprobación una nueva serie MetOp Segunda Generación.
El segundo MetOp se encuentra en estos momentos en el Cosmódromo de Baikonur, en Kazajstán, listo para ser lanzado el próximo 19 de septiembre.
MSG es un programa conjunto de ESA y EUMETSAT. ESA se ocupa del desarrollo de los satélites cumpliendo los requisitos de los usuarios y el sistema definidos por EUMETSAT, así como de la contratación de otros satélites en nombre de EUMETSAT. ESA también es responsable de las primeras operaciones tras el lanzamiento, en la fase LEO (siglas de Lanzamiento y Primera Órbita u Órbita Temprana), necesarias para colocar al satélite en órbita estacionaria antes de su entrega a EUMETSAT.
EUMETSAT desarrolla todos los sistemas de tierra necesarios para poner a disposición de los usuarios los productos y servicios. También se ocupa de los servicios de lanzamiento y de las operaciones del sistema.
MSG-3 es el tercero en una serie de cuatro satélites introducida en 2002. Todos están equipados con el instrumento SEVIRI - Spinning Enhanced Visible and Infrared Imager-.
SEVIRI se concentra en Europa y África para mejorar los pronósticos meteorológicos locales, en concreto para las tormentas de desarrollo rápido. SEVIRI escanea la superficie terrestre y la atmósfera cada 15 minutos en 12 longitudes de onda diferentes, para seguir el desarrollo de las nubes y medir las temperaturas.
En luz visible SEVIRI detecta detalles de sólo un kilómetro, y de tres kilómetros en infrarrojo.
Además de vigilar la meteorología y registrar datos climáticos MSG-3 tiene dos cargas útiles secundarias.
El sensor Global Earth Radiation Budget medirá la cantidad de energía solar que la Tierra reemite al espacio, para determinar cuánta energía es introducida en el sistema del clima y para ampliar el conocimiento sobre cómo es la circulación atmosférica entre las zonas de día y noche.
Un transpondedor de Búsqueda y Rescate convertirá al satélite en un repetidor de las alertas procedentes de balizas de emergencia.
El último satélite de la serie, MSG-4, se lanzará en 2015.


[youtube]http://www.youtube.com/watch?feature=player_embedded&v=Bq_54HuSlhI[/youtube]
11/07/2012, 14:17 -

Re: FORO-CIENCIA

#1747
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Entusiasmo entre los físicos españoles por el presunto bosón de Higgs


FÍSICA


Evento de desintegración del higgs. (Imagen: CERN)

El descubrimiento de una nueva partícula en el CERN de Ginebra ha revolucionado a la comunidad científica. ¿Se trata realmente del perseguido bosón de Higgs o de otro con sus propiedades? En cualquier caso, el hallazgo es histórico y abre una nueva etapa en las investigaciones del LHC, según los expertos en física de partículas.
España es uno de los principales contribuyentes al CERN, tanto en presupuesto (el 8,11% de las aportaciones en  2012) como en talento investigador.  Además de haber diseñado y construido varios subdetectores, los grupos españoles participan de forma destacada en la operación y mantenimiento del LHC, así como en la recogida y análisis de las colisiones producidas por los experimentos, incluidas las que pueden conducir a la confirmación definitiva del bosón de Higgs.
De hecho dos investigadoras españolas, Martine Bosman y Teresa Rodrigo, presiden, respectivamente, los consejos de colaboración de los experimentos ATLAS y CMS que han hecho posible el hallazgo de la nueva partícula.
Los grupos españoles en ATLAS han estudiado diferentes estados finales resultado de la desintegración de la partícula de Higgs en dos fotones, dos leptones taus, dos quarks bottom, y dos bosones Z o W. En el caso de CMS, destaca la participación en el análisis del canal de desintegración del higgs en bosones WW, así como en canales asociados a la desintegración en bosones ZZ.
Los físicos españoles, tanto los que han participado en estos dos experimentos como todos los demás, están emocionados por el descubrimiento y ansiosos por seguir adelante en la nueva etapa de la física de partículas.
Alberto Casas. Director del Instituto de Física Teórica (UAM/CSIC): El descubrimiento anunciado en el CERN es trascendental para la física de partículas y para la ciencia en general, ya que todo está hecho de partículas. El bosón de Higgs era la última pieza importante por descubrir del llamado Modelo Estándar, es decir, la teoría que tenemos para describir el comportamiento de las partículas. Esta teoría funciona a las mil maravillas, excepto por el hecho de que no se había encontrado el bosón de Higgs. Pero esta pieza que faltaba es esencial para que todo encaje, para que la estructura del Modelo Estándar sea consistente. Más concretamente, el descubrimiento del bosón de Higgs nos reafirma en el mecanismo teórico por el que creemos que las partículas adquieren masa; una cuestión absolutamente fundamental.
Por otro lado, estrictamente, lo que se acaba de descubrir es una partícula con una masa –unas 134 veces la de un protón–, en el rango esperado para el bosón de Higgs. Además la partícula presenta otras propiedades, como el spin y la forma en la que se desintegra, en acuerdo con lo predicho teóricamente para un bosón de Higgs. Pero este aspecto no está aún completamente confirmado, y para estar seguros de ello habrá que esperar aún algún tiempo, del orden de tres o cuatro años.
Sin embargo, sea el bosón de Higgs predicho por el Modelo Estándar o un bosón con propiedades algo diferentes –lo cual supondría un reto excitante–, el hallazgo seguirá siendo trascendental para la física de partículas. Podemos decir que hoy se cierra un capítulo de la historia de la física fundamental y se abre uno nuevo.
Teresa Rodrigo. Investigadora del Instituto de Física de Cantabria (IFCA, CSIC-UC): Sin duda es un momento único para la física. Yo creo que en todos nosotros quedaba siempre un atisbo de duda de que el higgs existiera.
Todos los datos apuntaban a ello, pero esta nueva 'especie' de partícula es verdaderamente singular. Esperemos que este descubriento no sea mas que el comienzo de un fructífero programa en el LHC.
También creo que es muy importante destacar el triunfo que supone la colaboracion internacional en este proyecto. Se trata de un ejemplo de buen hacer, eficacia y optimizacion de recursos.
El próximo paso, como en todo gran descubrimiento, es estudiar detenidamente y con suficiente estadística las características y propiedades de este bosón.
Por el momento creemos no hay nada que nos permita dudar de que es el tan esperado bosón de Higgs del Modelo Estándar de física de partículas, pero hay que estudiar bien sus propiedades y confirmar su naturaleza. Este trabajo ya ha comenzado. ¡Desde ayer!
Marcos Cerrada. Investigador del CIEMAT. Co-coordinador del CPAN: Cuando en 1964 se propuso el mecanismo de Higgs, se planteó un problema que ahora, tras este largo recorrido, está a punto de resolverse. El bosón de Higgs era el único ingrediente que todavía no había podido ser verificado experimentalmente en el modelo estándar –el marco teórico que tenemos en física de partículas–. Uno de los objetivos del LHC era precisamente resolver si el bosón de Higgs existía o no.
El comunicado oficial del CERN ha sido bastante cuidadoso en no decir que hemos descubierto el bosón de Higgs, pero realmente lo que está diciendo es que la evidencia de los dos experimentos ATLAS y CMS realmente es suficiente para anunciar que se ha descubierto una nueva partícula. La única duda que queda por resolver es si es el bosón de Higgs o algo un poco más exótico; lo que en inglés denominan como higgs-like: no es el higgs, pero es algo que se le parece mucho.
Se abre así una nueva etapa. El futuro de los experimentos de altas energías en el LHC será estudiar esta nueva partícula, ver sus propiedades, determinar si es el bosón de Higgs del modelo estándar o algo más complicado. Lo que ya parece claramente descartado es que realmente no haya nada, que era uno de los temores que muchos científicos tenían hace un año. Podemos decir que hemos encontrado realmente algo que es el higgs o muy parecido.
Carmen García. Investigadora del Instituto de Física Corpuscular (IFIC, CSIC-UV): Estamos viviendo un momento histórico, fruto del esfuerzo de una amplia comunidad de científicos que durante más de 20 años han aunado sus esfuerzos en un proyecto común. Los resultados que acabamos de presentar son espectaculares, prácticamente una semana después de tomar los últimos datos hemos sido capaces de anunciar esta descubrimiento. Esto ha sido posible gracias al buen funcionamiento del acelerador, de los detectores y de todo el sistema de computación.
La observación de esta nueva partícula no es ni mucho menos el final de la historia. Su descubrimiento es solo el primer paso para un amplio programa de estudios. Tenemos que entender cuáles son sus propiedades para ver si es el bosón de Higgs predicho en el Modelo Estándar o es otro tipo de bosón exótico.
No debemos olvidar que el LHC no solo se dedica a la búsqueda del bosón de Higgs para entender por qué las partículas elementales tienen masa. Hay una gran cantidad de preguntas para las que aún no tenemos respuesta, como por qué vivimos en un universo fundamentalmente de materia, qué materia compone el universo, etc. Estos son algunos otros temas del programa de LHC.
Antonio Pich. Coordinador de Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN): Tenemos algo llamado Modelo Estándar que prácticamente explica todo lo que sucede a nivel microscópico, es decir, cómo está compuesto el mundo, qué fuerzas mueven las cosas. Es un modelo que tenemos desde hace muchos años, esta testado y funciona maravillosamente bien, pero tenía un fallo de salida y es que el modelo nos decía que todos los objetos del universo carecían de masa. Y si no tenemos masas, el átomo no puede existir, nosotros no podemos existir.
Hace casi 30 años los físicos tuvieron una serie de ideas para ver cómo, sin romper el modelo y manteniendo todas sus virtudes, se podía dotar de masa a los objetos del universo. Hacía falta introducir un nuevo campo diferente, que es el campo de Higgs. Y desde entonces lo hemos estado buscando, pero no se dejaba cazar.
El LHC se construyó con el objetivo prioritario de cazar ese objeto. Al principio no podíamos saber si iba a existir o no. En mi carrera científica, y tengo bastantes años, lo que hemos visto ahora es el avance científico más importante que he presenciado en física fundamental. Es algo nuevo que nos va a abrir muchas puertas.
El LHC no se ha acabado aquí, lo mejor empieza ahora. Ahora es cuando realmente vamos a aprender cosas y espero que muchas. El objeto descubierto tiene todas las características del bosón de Higgs. Si lo es, será uno de los logros mayores de la física. Si no lo es, sería incluso más interesante, porque sería una partícula tipo Higgs que soluciona el problema que hace falta –la generación de masa– pero al mismo tiempo que nos cerraría un puzle, nos abriría otro. Al LHC le quedan años apasionantes.
Mario Martínez. Investigador del Instituto de Física de Altas Energías de Barcelona (IFAE): Este es el descubrimiento científico más importante, junto con la expansión acelerada del universo, que se ha hecho en el siglo XXI. Para los físicos de partículas es algo que esperábamos desde hace 50 años y que abre unas posibilidades enormes a la hora de abordar temas que tenemos sobre la mesa como la materia oscura, la asimetría materia-antimateria o la posible existencia de supersimetría.
La supersimetría predice la existencia de partículas higgs-like , no solo una, sino una familia, y el hecho de haber descubierto una abre todo este campo. Se presentan años muy interesantes. Lo más prioritario es establecer qué tipo de partícula es, hacerle una radiografía. Hay que entender cómo interacciona con otras partículas, estudiar con más precisión su masa, sus números cuánticos… Es decir, hacerle su carnet de identidad.
La prioridad número dos, para experimentos como ATLAS y CMS en la frontera de la energía, es establecer la existencia de supersimetría, de un candidato para la materia oscura –también relacionado con supersimetría-, y establecer o no la existencia de nuevas dimensiones espaciales.
¿Cómo interacciona la materia oscura con la ordinaria? Las teorías más populares sugieren que el higgs podría ser esa partícula implicada en la interacción entre ambas materias, pero de momento son especulaciones.
Javier Fernández. Investigador de la Universidad de Oviedo (Gr. de Física Experimental de Altas Energías): El hallazgo supone la existencia de una nueva partícula con masa en torno a 125GeV que, en principio, es compatible y presenta propiedades idénticas a las esperadas por un bosón de Higgs de dicha masa, todo con una confianza de más del 99,9999%. ¿Pero es esto el bosón de Higgs? Todo apunta a que lo sea, pues se comporta como esperamos que lo haga de acuerdo a la teoría y dentro de las incertidumbres experimentales que tenemos. Sin embargo, la cautela nos obliga a decir que aun tenemos que verificar si realmente es cierto o es algo con las mismas propiedades pero no el higgs exactamente, si no una ‘nueva física’.
Es decir, tenemos que cambiar de la etapa de descubrimiento en la que estábamos hasta ahora, a la de caracterización y entendimiento de esta nueva partícula. De momento, yo creo que esta es la visión más prudente y generalizada, al menos dentro de la colaboración CMS en la que estamos involucrados. Los pasos siguientes serán la confirmación y caracterización de ese estado y, en particular, medir con precisión su masa y sus fracciones de desintegración así como otras propiedades como el espín, con la toma de datos que se reanudó el pasado lunes y que continuará hasta final de año.                                                     

Fuente: SINC
11/07/2012, 14:20 -

Re: FORO-CIENCIA

#1748
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nuevo modo de estudiar las atmósferas de los exoplanetas

ASTRONOMÍA


En esta impresión artística vemos al exoplaneta Tau Boötis b. (Foto: ESO/L. Calçada)

Por primera vez, una nueva e ingeniosa técnica ha permitido a los astrónomos estudiar la atmósfera de un exoplaneta en detalle — incluso sin la necesidad de que pase delante de su estrella anfitriona. Un equipo internacional ha utilizado el Very Large Telescope (VLT) de ESO para captar directamente el débil brillo del planeta Tau Boötis b. Por primera vez, han estudiado la atmósfera del planeta y medido su órbita y su masa de forma muy precisa — resolviendo así un antiguo problema con quince años de antigüedad. Sorprendentemente, el equipo también ha descubierto que la atmósfera del planeta parece más fría cuanto más se aleja de la superficie, lo contrario de lo que se esperaba. Los resultados se publicaron en el número del 28 de junio de 2012 de la revista Nature.
El planeta Tau Boötis b fue uno de los primeros exoplanetas descubiertos en 1996, y sigue siendo uno de los exoplanetas más cercanos que se conocen. Pese a que su estrella anfitriona es fácilmente visible a simple vista, obviamente el propio planeta no lo es, y hasta el momento sólo podía detectarse por sus efectos gravitatorios sobre la estrella. Tau Boötis b es un gran “Júpiter caliente” que orbita muy cerca de su estrella anfitriona.
Como muchos exoplanetas, este no transita el disco de su estrella (como en el reciente tránsito de Venus). Hasta ahora estos tránsitos eran esenciales para permitir el estudio de las atmósferas exoplanetarias: cuando un planeta pasa frente a su estrella las propiedades de su atmósfera quedan impresas en la luz de la estrella. Como no hay luz estelar que brille a través de la atmósfera de Tau Boötis b hacia nosotros, la atmósfera del planeta no ha podido ser estudiada antes.
Pero ahora, tras 15 años intentando estudiar el débil brillo que emiten exoplanetas de tipo Júpiter calientes, los astrónomos han podido finalmente estudiar, de forma fidedigna, la estructura de la atmósfera de Tau Boötis b y deducir su masa de un modo preciso por primera vez. El equipo utilizó el instrumento CRIRES, instalado en el Very Large Telescope (VLT) en el Observatorio Paranal de ESO, en Chile. Combinaron observaciones infrarrojas de alta calidad (en longitudes de onda de alrededor de 2,3 micras) con un nuevo e ingenioso truco para extraer la débil señal del planeta a partir de la luz mucho más potente emitida por la estrella anfitriona.
El investigador principal de este trabajo, Matteo Brogi (Observatorio Leiden, Países Bajos) explica: “Gracias a las observaciones de alta calidad proporcionadas por el VLT y CRIRES fuimos capaces de estudiar el espectro del sistema con el nivel de detalle más alto logrado hasta el momento. Solo un  0.01% de la luz que vemos viene del planeta, y el resto proviene de la estrella, por lo que no fue fácil”.
La mayoría de los planetas alrededor de otras estrellas fueron descubiertos por sus efectos gravitatorios sobre las estrellas anfitrionas, lo que limita la información que puede obtenerse de su masa: sólo permiten obtener un límite inferior para la masa de un planeta. La nueva técnica pionera es mucho más poderosa. Ver directamente la luz del planeta ha permitido a los astrónomos medir el ángulo de la órbita del planeta y, de ahí, extraer su masa con precisión. Trazando los cambios en el movimiento del planeta a medida que orbita a su estrella, el equipo ha determinado por primera vez, de forma fidedigna, que Tau Boötis b orbita a su estrella anfitriona con un ángulo de 44 grados y tiene seis veces la masa del planeta Júpiter.
“Las nuevas observaciones de VLT resuelven un problema de 15 años de antigüedad: resolver la masa de Tau Boötes b. Y la nueva técnica también significa que, a partir de ahora, podremos estudiar las atmósferas de los exoplanetas que no transitan a sus estrellas, así como medir sus masas de forma precisa, lo cual antes era imposible”, afirma Ignas Snellen (Observatorio de Leiden, Países Bajos), co-autor del artículo. “Es un gran paso adelante”.
Además de detectar el brillo de la atmósfera y de medir la masa de Tau Boötes b, el equipo ha estudiado su atmósfera y medido la cantidad de monóxido de carbono existente, así como la temperatura a diferentes alturas por medio de una comparación hecha entre las observaciones y unos modelos teóricos. Uno de los resultados más sorprendentes de este trabajo ha sido que las nuevas observaciones indicaban una atmósfera con una temperatura que desciende a medida que aumenta la altura. Este resultado es exactamente el opuesto a la inversión térmica — un aumento en la temperatura a mayor altitud — encontrado en otros exoplanetas tipo Júpiter.
Las observaciones del VLT muestran que la espectroscopía de alta resolución de telescopios basados en tierra es una herramienta muy útil para un análisis detallado de las atmósferas de los planetas que no hacen tránsito estelar. La detección de diferentes moléculas en el futuro, permitirá a los astrónomos aprender más sobre las condiciones atmosféricas de los planetas. Haciendo medidas a lo largo de la órbita del planeta, los astrónomos podrían incluso ser capaces de detectar cambios atmosféricos entre la mañana y la tarde del planeta.
"Este estudio muestra el enorme potencial de los telescopios basados en tierra, tanto de los ya existentes como de los que llegarán en el futuro, como el E-ELT. Tal vez algún día, utilizando esta técnica, encontremos evidencias de actividad biológica en planetas similares a la Tierra”, concluye Ignas Snellen.

Fuente: ESO
11/07/2012, 14:22 -

Re: FORO-CIENCIA

#1749
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Construcción de jaulas moleculares para fines biomédicos

BIOQUÍMICA


Jaula molecular. (Foto: Todd Yeates, Yen-Ting Lai/UCLA Chemistry and Biochemistry)

Un equipo de bioquímicos ha diseñado proteínas especializadas que se autoensamblan para formar jaulas moleculares que son cientos de veces más pequeñas que una célula. La creación de estas estructuras miniaturizadas puede ser el primer paso hacia el desarrollo de nuevos métodos de administración de fármacos o incluso hacia el diseño de vacunas artificiales.
Este método podría ser usado para combinar moléculas proteicas a fin de crear toda una nueva gama de materiales estructurados a escala nanométrica.
Esta fascinante línea de investigación, a cargo del equipo de Yen-Ting Lai y Todd Yeates, de la Universidad de California en Los Ángeles (UCLA) podría acabar teniendo aplicaciones tan variadas como útiles.
Por ejemplo, sería posible adherir una secuencia de reconocimiento de células cancerosas al exterior de la jaula, y en el interior de ésta tener una toxina u otra arma farmacológica. De esta forma, la sustancia sería aplicada directamente al blanco escogido, por ejemplo una célula cancerosa.
Otro uso para estas versátiles estructuras proteicas podría ser como vacunas artificiales. Algunas vacunas tradicionales usan una proteína de superficie inactiva de un virus para hacer que el sistema inmunitario del cuerpo crea que está siendo atacado. Este método no siempre es efectivo, porque a veces la proteína en cuestión no se parece lo suficiente al virus como para provocar una respuesta fuerte del sistema inmunitario. Sin embargo, adhiriendo segmentos de proteínas obtenidas de virus a la superficie de una jaula molecular, estas diminutas estructuras podrían imitar mejor a un virus, estimulando una respuesta inmunitaria incluso más fuerte que la de una vacuna tradicional y protegiendo mejor a la persona contra la enfermedad.
En su actual fase de desarrollo tecnológico, las jaulas proteicas son demasiado porosas, y es probable que un fármaco colocado en su interior se filtrase al exterior antes del momento deseado. El siguiente paso en esta línea de investigación será construir una nueva jaula molecular cuyo interior esté mejor sellado.
Otro enfoque es construir las jaulas usando múltiples copias de la misma proteína como bloques de construcción. Los científicos pueden controlar la forma de la jaula mediante la estrategia de calcular la secuencia de aminoácidos necesaria para unir a las proteínas en los ángulos correctos. Este método alternativo representa un enfoque más versátil. Sin embargo, usar un único tipo de proteína para construir una estructura requiere poder crear diferentes tipos de uniones entre estas piezas proteicas idénticas, y esto es todavía un gran reto.
En los estudios de esta línea de investigación también han trabajado David Baker y Neil King de la Universidad de Washington, así como Michael Sawaya y Duilio Cascio de la UCLA.
11/07/2012, 14:24 -

Re: FORO-CIENCIA

#1750
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Sintetizan nanopartículas de plata con hojas de madroño

QUÍMICA


Las hojas de madroño ayudan a producir nanopartículas de plata. (Imagen: Beamillion)

Un equipo de investigadores de Grecia y España ha logrado sintetizar nanopartículas de plata, de gran interés por sus aplicaciones en biotecnología, empleando un extracto de hojas de madroño. La nueva técnica es ecológica, sencilla, barata y muy rápida.
Hojas de madroño (Arbutus unedo) y nitrato de plata (AgNO3). Sólo con estos dos ingredientes se pueden producir nanopartículas de plata, un material que se emplea en tecnología avanzada, desde compuestos para distribuir fármacos hasta dispositivos electrónicos, catalizadores o disolventes de sustancias contaminantes.
La técnica la han desarrollado científicos de la Universidad Aristóteles de Tesalónica (Grecia) y la Universidad Carlos III de Madrid (UC3M), y consiste en añadir un extracto de las hojas de la planta a una disolución acuosa con nitrato de plata. Tras agitar la mezcla durante unos minutos, enseguida se forman las nanopartículas de plata.
“Existen otros métodos para producirlas, pero este proceso es muy simple, de bajo coste y fácil de implementar, ya que se emplea una planta no tóxica y a una temperatura de entre 25 y 80 ºC”, destaca Sophia Tsipas, investigadora de la UC3M y coautora del trabajo, que publica este mes la revista Materials Letters.
“La innovación del método se encuentra en que permite el control de parámetros para obtener nanopartículas de conocido tamaño (de 5 a 40 nm) y geometría (esferas, pirámides, cubos) –añade Tsipas–, y que también son estables durante periodos largos de tiempo, de hasta seis meses”.
Las hojas del madroño facilitan esa estabilidad al generar una capa orgánica de varios nanómetros alrededor de las partículas de plata. Además, el extracto actúa como un agente reductor y estabilizador de todo el producto.
Las nanopartículas obtenidas se han caracterizado y verificado con diversas técnicas (microscopía electrónica de transmisión y espectroscopías ultravioleta y FTIR). En la actualidad el equipo, además de optimizar el proceso, está estudiando cómo producir de forma similar partículas de tamaño nanométrico con otros metales, como el oro y el cobre.
11/07/2012, 14:26 -

Re: FORO-CIENCIA

#1751
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Las expresiones faciales, ¿la clave del origen del lenguaje humano?

BIOLOGÍA


Tecumseh Fitch. (Foto: University of Vienna)

Los científicos tradicionalmente han buscado los orígenes evolutivos del lenguaje humano en las vocalizaciones de los primates, como por ejemplo las de los chimpancés. Pero a diferencia de los sonidos emitidos por los primates, el lenguaje humano se genera mediante movimientos rápidos y controlados de la lengua, los labios y la mandíbula. Además, el habla humana se aprende, mientras que las vocalizaciones de los primates suelen estar estructuradas de forma innata.
Una nueva investigación, a cargo de investigadores de las universidades de Princeton en Estados Unidos y de Viena en Austria, respalda la idea de que en su evolución, el habla humana se basó más en gestos faciales comunicativos que en vocalizaciones.
El equipo de W. Tecumseh Fitch, del Departamento de Biología Cognitiva en la Universidad de Viena, se valió de películas en rayos X para investigar ciertos movimientos con los labios, acompañados de sonido (aunque sin fonación), en monos macacos. Estos movimientos de los labios son hechos por muchas especies de monos en situaciones amistosas cara a cara (por ejemplo, entre las madres y sus crías).
Aunque a simple vista parezca que en esos movimientos sólo se abren y cierran con rapidez los labios, las filmaciones hechas en rayos X muestran que se trata en realidad de un conjunto complejo de acciones, que requieren de movimientos rápidos y coordinados de los labios, la mandíbula, la lengua y el hueso hioides (ubicado en la base de la lengua y encima de la laringe).
Además, estos movimientos se producen a una velocidad de aproximadamente 5 ciclos por segundo, la misma que el habla humana, y son mucho más rápidos que los movimientos de masticación (alrededor de 2,5 ciclos por segundo). Por tanto, aunque esos movimientos de los labios a simple vista parezcan una imitación de movimientos de masticación, son de hecho muy diferentes, y más parecidos al lenguaje hablado.
Estas observaciones apoyan una añeja hipótesis de Peter MacNeilage y sus colegas, la de que las raíces del lenguaje hablado humano no se encuentran en las vocalizaciones de los primates, sino que están mucho más cerca de estas fascinantes señales faciales usadas por los monos para la comunicación.
11/07/2012, 14:28 -

Re: FORO-CIENCIA

#1752
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Desviación de la órbita del asteroide 1999 RQ36

ASTRONOMÍA


La misión ORIRIS-REx. (Foto: NASA-GSFC/UA)

Dirigidos desde la Universidad de Arizona, los científicos de la misión OSIRIS-REx, cuyo objetivo será traer a la Tierra muestras de un asteroide, han medido la órbita del asteroide de destino, el 1999 RQ36, con tal exactitud que han sido capaces de determinar directamente la desviación resultante de una fuerza sutil pero importante llamada Efecto Yarkovsky. Este efecto es el ligero empuje creado cuando un asteroide absorbe luz solar y reemite parte de esa energía en forma de calor.
La nueva medición de la órbita del asteroide de medio kilómetro de diámetro (un tercio de milla), es la más precisa obtenida hasta ahora de entre todas las mediciones de órbitas asteroidales.
Las notables observaciones que Michael Nolan hizo hace unos meses, junto con las mediciones realizadas desde el observatorio de Arecibo en Puerto Rico y el Observatorio de Goldstone en California, hechas en 1999 y 2005, cuando 1999 RQ36 pasó mucho más cerca de la Tierra, muestran que la órbita del asteroide se ha modificado, con respecto a lo impuesto exclusivamente por la gravedad, unos 160 kilómetros (100 millas) en los últimos 12 años. Esta desviación está causada en buena parte por el efecto Yarkovsky.
El efecto Yarkovsky se llama así por el ingeniero ruso del siglo XIX que propuso por primera vez la idea de que un pequeño objeto rocoso circulando por el espacio podría, disponiendo de largos períodos de tiempo, ser desplazado en su órbita por el ligero empuje creado cuando se absorbe la luz solar y luego se reemite esa energía en forma de calor.
El efecto es difícil de medir porque es ínfimo.
La pieza final del rompecabezas fue proporcionada por Josh Emery, de la Universidad de Tennesse, que usó el Telescopio Espacial Spitzer de la NASA para estudiar las características térmicas de la roca espacial. Las mediciones de Emery de las emisiones infrarrojas de 1999 RQ36 le permitieron averiguar las temperaturas del objeto.
El miembro del equipo de OSIRIS-REx, Steven Chesley, del Laboratorio de Propulsión a Chorro de la NASA, y sus colegas utilizaron las nuevas mediciones para calcular una serie de acercamientos de 1999 RQ36, a tan corta distancia de la Tierra como 7,5 millones de kilómetros (4.6 millones de millas), entre los años 1654 y 2135. Determinaron que fueron 11 los encuentros de tales características.
En 2135, el asteroide de 500 metros de diámetro (1.640 pies) pasará a unos 350.000 kilómetros (220.000 millas) de la Tierra, su aproximación más cercana durante un lapso de tiempo de 481 años. Esa distancia es menor que la existente entre la Tierra y la Luna, que orbita a unos 390.000 kilómetros (240.000 millas) de la Tierra. A tan cortas distancias, la trayectoria posterior del asteroide se hace imposible de predecir con exactitud, por lo que las aproximaciones subsiguientes sólo pueden ser estudiadas de manera estadística.
En realidad, los nuevos resultados no cambian lo que cualitativamente se sabe acerca de las probabilidades de impactos futuros. Las probabilidades de que este asteroide potencialmente peligroso choque con la Tierra en el siglo 22 todavía se calcula que serán aproximadamente de una entre varios miles.
Si todo marcha como está previsto, la sonda espacial ORIRIS-REx será lanzada al espacio en el año 2016. En su misión, visitará a 1999 RQ36, recogerá muestras del asteroide y regresará a la Tierra.
11/07/2012, 14:30 -

Re: FORO-CIENCIA

#1753
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Computación cuántica, ¿una vía decisiva para desentrañar los secretos de la física subatómica?

FÍSICA


La computación cuántica podría ser una vía decisiva para desentrañar los secretos de la física subatómica. (Imagen artística de Jorge Munnshe para Amazings)

Tres teóricos han dado con otra importante aplicación práctica que podrán tener las computadoras cuánticas, máquinas fascinantes que todavía están a años de distancia en el futuro.
Según estos teóricos, entre ellos uno del Instituto Nacional de Estándares y Tecnología (NIST), los físicos podrían algún día usar las computadoras cuánticas para estudiar las interioridades del universo de maneras que en la actualidad están mucho más allá del alcance de los ordenadores convencionales, incluso de las supercomputadoras más potentes del presente.
Las computadoras cuánticas requieren de una tecnología que probablemente necesitará décadas para ser perfeccionada hasta un nivel aceptable, pero resultan muy prometedoras para resolver problemas complejos. Las conexiones en sus procesadores se aprovecharán de ciertas características de la mecánica cuántica, la cual rige la interacción de las partículas subatómicas. Las leyes de la mecánica cuántica permiten que las conexiones cuánticas existan al mismo tiempo en el estado de apagado (Off) y en el de encendido (On), por lo que una computadora cuántica es capaz de considerar a la vez todas las posibles soluciones a un problema.
Esta portentosa cualidad, que brinda una capacidad analítica muy por encima de la de los ordenadores de la actualidad, podría permitir que las computadoras cuánticas resolvieran con rapidez algunos problemas que son difíciles en la actualidad, como por ejemplo la descodificación de códigos complejos. Pero también podrían enfrentarse a problemas aún más difíciles.
El equipo de Stephen Jordan, de la División de Matemáticas Aplicadas y Computacionales del NIST, ha desarrollado un algoritmo (una serie de instrucciones que pueden ser ejecutadas repetidas veces) que podría ejecutarse en cualquier computadora cuántica funcional, independientemente de la tecnología específica que finalmente se utilice para construirla. El algoritmo simularía todas las posibles interacciones entre dos partículas elementales que chocan entre sí, algo cuyo estudio actualmente requiere de un gran acelerador de partículas y varios años de trabajo.
Simular estas colisiones es un problema muy difícil para los ordenadores digitales actuales porque el estado cuántico de las partículas que chocan es muy complejo y, por tanto, difícil de representar con exactitud con una cantidad factible de bits. Sin embargo, el algoritmo del equipo codifica la información que describe este estado cuántico mucho más eficientemente gracias a usar una serie de interruptores cuánticos, lo cual hace que el cálculo sea mucho más factible de realizar.
En el desarrollo de este algoritmo y en su análisis posterior también han trabajado John Preskill, del Instituto Tecnológico de California (Caltech) en Pasadena, y Keith S.M. Lee, ahora en la Universidad de Pittsburgh, Pensilvania, también en Estados Unidos.
11/07/2012, 14:32 -

Re: FORO-CIENCIA

#1754
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El enigma de la geología terrestre de más de tres mil millones de años atrás

GEOLOGÍA


Tomas Naeraa. (Foto: U. Copenhagen)

El modelo hoy plenamente aceptado de la deriva continental brinda una buena base para comprender los procesos terrestres acaecidos a lo largo de los últimos 3.000 millones de años de historia geológica de la Tierra.
En ese periodo, el modelo de la tectónica de placas puede explicar una amplia gama de fenómenos que engloban el vulcanismo, los terremotos terrestres y submarinos (con los tsunamis que estos últimos provocan) e incluso variaciones en el clima y aspectos del desarrollo de las especies en la Tierra.
Sin embargo, aunque la tectónica de placas es capaz de explicar procesos ocurridos hasta 3.000 millones de años atrás, no es suficiente para explicar la dinámica de la Tierra y la formación de corteza en el periodo que va desde la formación inicial del planeta hace unos 4.600 millones de años, hasta esa época de hace unos 3.000 millones de años a partir de la cual la tectónica de placas ya puede explicar los procesos geológicos.
Un indicio más de ello se ha obtenido con los resultados de una investigación realizada por Tomas Naeraa (Tomas Næraa) del Centro Nórdico de Evolución de la Tierra en el Museo de Historia Natural de Dinamarca, adscrito a la Universidad de Copenhague.
Desde 2006, Naeraa ha estado efectuando análisis de rocas procedentes del lecho rocoso de la región de Nuuk en Groenlandia occidental. Ese lecho rocoso tiene 3.850 millones de años de antigüedad.
Con análisis como los realizados por Naeraa, se puede observar que los continentes más antiguos de la Tierra fueron creados en ambientes geodinámicos que eran muy distintos a los ambientes actuales caracterizados por la tectónica de placas. Por tanto, tal como argumenta Naeraa, la tectónica de placas tal y como la conocemos hoy en día no es un buen modelo para explicar los procesos que actuaron durante los primeros acontecimientos geológicos de la historia de la Tierra, los de hace más de 3.000 millones de años.

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO