PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 859142 veces)

11/12/2011, 18:31 -

Re: FORO-CIENCIA

#750
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Una antena española en Marte


Antena del rover Curiosity fabricada por empresas españolas. (Imagen: Astrium España)


El rover Curiosity que la NASA envió el pasado 26 de noviembre a Marte incorpora una antena de alta ganancia fabricada por empresas españolas. La antena permitirá la comunicación directa con la Tierra sin necesidad de enlaces intermedios a través de los satélites que orbitan el planeta rojo. El proyecto es fruto de un acuerdo de colaboración entre España y la NASA.
La NASA pondrá en agosto de 2012 el rover Curiosity en el suelo de Marte para evaluar si alguna vez, o todavía hoy, es o ha sido un medio propicio para la vida. El objetivo de esta misión, denominada Mars Science Laboratory (MSL), es determinar la habitabilidad del planeta.
A bordo del Curiosity van integrados dos sistemas desarrollados y construidos por Astrium España (subsidiaria de EADS): la estación meteorológica REMS y una antena de comunicaciones, en la que también participa la empresa SENER. La fabricación de los dos productos forma parte de los acuerdos bilaterales de colaboración entre la NASA, el CDTI (Centro para el Desarrollo Tecnológico Industrial) y el INTA (Instituto Nacional de Técnica Aerospacial).
El centro de Astrium Barajas/EADS CASA Espacio ha sido el contratista principal y constructor del sistema de antena de alta ganancia, es decir, una antena con capacidad de concentrar de la energía en una sola dirección, que se encargará de hacer llegar las comunicaciones del rover cuando éste se comunique con la Tierra desde la superficie marciana. El sistema incluye la antena plana bidireccional y su mecanismo de apuntamiento.
Al ser una antena orientable puede moverse para apuntar directamente a la Tierra, evitando así que sea el vehículo el que tenga que cambiar su orientación y ahorrando también energía. De esta manera, se podrán comunicar los datos de los instrumentos y del estado del propio rover, así como recibir las instrucciones que precise para llevar a cabo su misión sin necesidad de los enlaces intermedios con los orbitadores que se mueven alrededor del planeta rojo.
Las señales serán captadas en la Tierra por la red de espacio profundo, que consta de tres estaciones de seguimiento en el mundo (una de ellas en Robledo de Chavela, cerca de Madrid). El diseño de la antena se basa en la tecnología de radiadores impresos en banda-X, desarrollada por Astrium, y que ha sido probada con éxito en anteriores satélites como Spainsat, Envisat y ahora Galileo.
La otra empresa involucrada en el programa, SENER, ha contribuido a la misión desarrollando el mecanismo gimbal de apuntamiento, así como el mecanismo de sujeción y suelta. La fase de aceptación de estos elementos fue especialmente complicada dado que la campaña de pruebas ha tenido que realizarse simulando las condiciones de la atmósfera marciana. Esto supone trabajar con variaciones de temperatura de -130º C a +40º C.
Por su parte, las comunicaciones no serán inmediatas. Las grandes distancias hacen que, a pesar de que las ondas electromagnéticas viajen a la velocidad de la luz, el retraso en la llegada de información varíe bastante. El motivo es que la luz tarda en viajar de la Tierra a Marte (o viceversa) poco más de 3 minutos en las mejores oposiciones (mínima distancia Tierra-Marte), aunque en las conjunciones puede llegar a los 22 minutos.
Durante la entrega de la antena al Jet Propulsión Laboratory (JPL) de la NASA en 2010, Peter Theisinger, jefe del proyecto MSL para el JPL, expresó su reconocimiento a la “excepcional colaboración entre el JPL y nuestros socios de la administración y la industria españolas, que ha culminado con la exitosa entrega del sistema de antena de alta ganancia, un componente clave del rover MSL”.
Este programa se inició en el año 2006 como ampliación de la colaboración de España en el instrumento REMS, liderado por el Centro de Astrobiología (CAB, INTA-CSIC), y contó con el apoyo y asesoramiento del anterior director del CAB, Juan Pérez Mercader. (Fuente: SINC/Astrium España)
11/12/2011, 18:32 -

Re: FORO-CIENCIA

#751
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nuevos datos sobre los mecanismos que confieren virulencia a bacterias tipo E.coli


E. Coli. (Imagen: UB)


Un equipo de investigación liderado por científicos del Institut de Recerca Biomèdica (IRB Barcelona) ha determinado cómo la proteína Ler, que se encuentra en bacterias patógenas, interacciona con secuencias determinadas de ADN activando numerosos genes responsables de la virulencia que las bacterias emplean para infectar células humanas. Ler está presente en cepas de Escherichia coli (E.coli) como la que causó la infección letal en Alemania el pasado mes de mayo. El trabajo ha sido publicado en la revista científica PloS Pathogens.
Los investigadores han revelado la estructura tridimensional de una región clave de la proteína en complejo con ADN. Conocer las estructuras que controlan la función de genes asociados a la virulencia y/o la resistencia a antibióticos es esencial para entender los mecanismos moleculares que controlan la patogenicidad bacteriana y abre la puerta a tratamientos alternativos a los antibióticos convencionales. En opinión de Jesús García, investigador asociado del IRB Barcelona, “una estrategia basada en sistemas de regulación selectiva de genes de virulencia es particularmente atractiva porque, potencialmente, podría minimizar las consecuencias adversas en nuestra flora bacteriana y reducir la presión selectiva sobre las bacterias, responsable de la emergencia de la resistencia a antibióticos”.
Muchos de los genes responsables de la virulencia y la resistencia a los antibióticos de las bacterias patógenas han sido adquiridos por procesos conocidos como Transferencia Horizontal de Genes (del inglés “horizontal gene transfer” o HGT). Mediante este mecanismo, las bacterias adquieren material genético de fuentes externas, como otras bacterias o fagos (los virus que afectan a las bacterias). La regulación apropiada de los genes HGT, silenciándose cuando no son requeridos y activándose de forma coordinada cuando representan una ventaja, es crucial para el éxito de la bacteria.
“La estructura resuelta nos ha permitido entender cómo Ler reconoce sus sitios de unión en el ADN. Ler no reconoce secuencias específicas sino estructuras locales de ADN. En nuestro estudio se ha comprobado también que este modo de reconocimiento de ADN puede extenderse a otras proteínas de la misma familia, como H-NS”, explica García.  Las proteínas Ler y H-NS tienen un papel esencial en la regulación de los genes adquiridos mediante procesos HGT en cepas patógenas de E. coli.
El estudio forma parte de la tesis doctoral de Tiago N. Cordeiro y en él han participado investigadores del Institut de Bioenginyeria de Catalunya (IBEC), la Universitat de Barcelona (UB) y del Max Planck  Institute for Biophysical Chemistry en Göttingen, Alemania. (Fuente: IRB Barcelona)
12/12/2011, 15:06 -

Re: FORO-CIENCIA

#752
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Las ciudades serán las principales zonas de guerra



Londres. (Foto: NCYT/MMA)


Éste es el sombrío pronóstico que hace el profesor Steve Graham, de la Universidad de Newcastle, en el Reino Unido.
"Los atentados terroristas de los últimos tiempos nos han mostrado que los ataques bélicos se desencadenan cada vez más en sitios como edificios de viviendas o de oficinas y túneles de metro, que en junglas o desiertos", argumenta Graham.
Evitar que las zonas urbanas sean un blanco predilecto de ataques de esa clase implica incrementar la vigilancia urbana hasta extremos que la población de muchas naciones sólo conoció durante guerras entre su país y otros.
Y esto es algo que también preocupa a Graham, sobre todo en conexión con los avances en la robótica militar y policial. Uno de los ejemplos que mejor pueden ilustrar la nueva clase de vigilancia urbana que se está forjando en las ciudades más importantes de las potencias del mundo es el de las sofisticadas medidas de seguridad planeadas para las Olimpiadas de 2012 en Londres, y que no hace muchos años eran exclusivas de la ciencia-ficción.
Mientras el público tenga sus ojos posados en los atletas, robots aéreos semiautónomos los tendrán posados sobre la gente. Estos robots, a los que en algunos aspectos se les puede describir como primos de los que llevan a cabo misiones militares de reconocimiento o incluso de ataque, ya han sido probados en Merseyside para vigilar desde el aire a la muchedumbre congregada en los partidos de fútbol.
Paralelamente, otras importantes iniciativas europeas de investigación avanzan hacia el objetivo de usar en las tareas cotidianas de vigilancia urbana policial, no sólo en casos especiales como unas olimpiadas, los robots aéreos de esta clase. A estas máquinas se las conoce también como UAVs o drones, y son, básicamente, aviones de tamaño discreto y sin tripulación, que reciben órdenes desde un centro de control de misión pero que poseen una cierta capacidad de autonomía.
Al profesor Graham le preocupa también la creciente desconexión emocional y física entre el soldado y sus actos. Si en vez de estar en el campo de batalla, el sujeto actúa a distancia, desde la seguridad y confort de una base alejada del campo de batalla, sus emociones no serán ni por asomo tan intensas como si tuviera que afrontar sobre su propia persona las consecuencias de sus actos. Eso puede hacerle más eficaz, ya que es más fácil mantener la sangre fría sabiendo que se es invulnerable. Pero también puede hacerle más insensible. A Graham le inquieta esa ambigua línea divisoria entre un videojuego y un sistema de control remoto que gobierna a una máquina capaz de matar: "Las personas que desde bases en las afueras de Las Vegas controlan drones para matar a supuestos insurgentes en Afganistán o Irak, están usando dispositivos de control inspirados en los videojuegos". De este modo, argumenta Graham, el entretenimiento popular de temática bélica se entrelaza en una frontera inquietantemente borrosa con armas bélicas auténticas.
12/12/2011, 15:09 -

Re: FORO-CIENCIA

#753
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Lanzamiento de dos satélites de comunicaciones desde Baikonur

[youtube]http://www.youtube.com/watch?v=JMbU5x8ltxk&feature=player_embedded[/youtube]

Un cohete ruso Proton colocó el 11 de diciembre en la trayectoria prevista a dos satélites de comunicaciones. El despegue desde el cosmódromo de Baikonur ocurrió a las 11:17 UTC y se desarrolló normalmente.
A bordo del vector Proton-M/Briz-M viajaban los ingenios Amos-5, propiedad de Israel, y Luch-5A, del gobierno ruso. Este último es equivalente al sistema TDRS estadounidense y se utilizará para transmitir señales desde la estación espacial internacional y otros vehículos en órbitas bajas. Fabricado por la compañía ISS Reshetnev, pesa 1.148 kg y está basado en la plataforma Ekspress-1000A. Capaz de operar durante toda una década, está dotado de repetidores en las bandas S y Ku. Sus antenas pueden dirigirse hacia satélites que evolucionan con rapidez a lo largo de sus órbitas. El vehículo también puede gestionar las señales de socorro del sistema COSPAS/Sarsat.
Por su parte, el Amos-5 ha sido asimismo construido por ISS Reshetnev, aunque sobre una plataforma algo más pesada, la Ekspress-1000N, de una tonelada y media. El satélite ha sido comprado por IAI Spacecom y ofrecerá servicios de televisión directa y telecomunicaciones tanto a Israel como a buena parte de Europa y Oriente Medio y zonas de Norteamérica. Trabajará durante 15 años desde la posición geoestacionaria 17 grados Este mediante sus 18 repetidores en banda C y sus 16 en banda Ku.
El primero en ser liberado, después de 9 horas de misión, fue el Luch-5A (20:11 UTC), seguido de su compañero de vuelo (20:52 UTC).

[youtube]http://www.youtube.com/watch?v=utdzNqvfP04&feature=player_embedded[/youtube]
12/12/2011, 15:12 -

Re: FORO-CIENCIA

#754
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Crece el misterio sobre la materia oscura


Concepción artística de una galaxia enana. (Foto    :D    avid A. Aguilar (CfA))


Al igual que todas las galaxias, la Vía Láctea alberga a una extraña sustancia llamada materia oscura. La materia oscura es invisible, delatando su presencia sólo a través de la atracción gravitacional que ejerce sobre la materia visible. Sin la materia oscura manteniéndola unida, las estrellas más rápidas de nuestra galaxia se desperdigarían por todas direcciones. La naturaleza de la materia oscura es un misterio, que, en vez de aclararse un poco, se ha oscurecido aún más a raíz de los desconcertantes resultados de una nueva investigación.
"Después de completar este estudio, sabemos menos acerca de la materia oscura de lo que sabíamos antes", acota con ironía Matt Walter, coautor del estudio, del Centro para la Astrofísica, organismo gestionado conjuntamente por la Universidad de Harvard y el Instituto Smithsoniano.
El modelo cosmológico estándar describe un universo dominado por la energía oscura y la materia oscura. La mayoría de los astrónomos supone que la materia oscura consiste en unas exóticas partículas "frías" (es decir, de movimiento lento) que se agrupan por la gravedad. Con el paso del tiempo, estos cúmulos de materia oscura crecen y atraen a la materia normal, formando las galaxias que vemos hoy en día.
Los cosmólogos utilizan potentes ordenadores para simular este proceso. Las simulaciones muestran que la materia oscura debe estar densamente concentrada en el centro de las galaxias.
En cambio, las nuevas mediciones realizadas por Walker y Jorge Peñarrubia (Universidad de Cambridge, Reino Unido) sobre dos galaxias enanas en el vecindario de la Vía Láctea, muestran que contienen una distribución homogénea de materia oscura. Sus datos indican que, en ambos casos, la materia oscura está distribuida uniformemente por una región bastante grande. Esto contradice la predicción de que la densidad de la materia oscura debería aumentar de forma pronunciada hacia los centros de estas galaxias. La contradicción sugiere que el modelo cosmológico estándar puede estar equivocado.
Las nuevas mediciones implican que la materia normal afecta a la materia oscura más de lo esperado, o bien que la materia oscura no es "fría".
El equipo espera determinar en el futuro cuál de estas dos hipótesis es la correcta. Para ello, estudiará más galaxias enanas, en particular a las galaxias con un porcentaje de materia oscura aún mayor.
Las galaxias enanas están compuestas de hasta un 99 por ciento de materia oscura y sólo el 1 por ciento de materia normal (la materia de la que están hechos los planetas, las estrellas y otros astros detectables). Esta disparidad hace que las galaxias enanas sean objetivos ideales para los astrónomos que buscan desentrañar la identidad de la materia oscura.
12/12/2011, 15:14 -

Re: FORO-CIENCIA

#755
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Más emisiones de gases con efecto invernadero al usar ciertos bosques para producir biocombustibles


Índices de captura de CO2 en la región estudiada. (Foto: Oregon State University)


Se ha llegado a la conclusión de que, por lo menos en el caso de las zonas forestales de la Costa Oeste de Estados Unidos, el uso de bosques para producir biocombustibles no servirá para reducir emisiones de gases con efecto invernadero.
Los resultados del estudio más grande y abarcador hecho hasta la fecha sobre el efecto de la producción de biocombustibles en la Costa Oeste de Estados Unidos indican que promover la producción de biocombustibles aumentaría las emisiones de dióxido de carbono de estos bosques al menos en un 14 por ciento, aún en el caso de que las operaciones de explotación fuesen óptimas.
Los resultados contradicen lo que se presuponía, así como los resultados de algunos estudios anteriores que sugerían que la obtención y el uso de biocombustibles a partir de esta fuente reducirían las emisiones de gases de efecto invernadero, o por lo menos resultarían neutros en tales emisiones de carbono (la cantidad de carbono que se liberaría sería igual a la absorbida).
Según esta investigación, eso no se lograría bajo ninguno de los escenarios plausibles analizados.
El nuevo estudio ha sido realizado por expertos de la Universidad Estatal de Oregón, y de otras instituciones en Alemania y Francia.
Durante los últimos cuatro años, el equipo de Tara Hudiburg examinó 80 tipos de bosques en Oregón, Washington y California, abarcando desde masas forestales húmedas y templadas, hasta bosques semiáridos. El análisis incluyó tierras públicas y privadas, y diferentes formas de gestión de los bosques.
En la Costa Oeste, el equipo de investigación encontró que la cantidad de biomasa que sería extraída del ecosistema acabaría liberando más dióxido de carbono a la atmósfera, fuese cual fuese el modo en que se la utilizase en biocombustibles, en comparación con lo que sucedería al dejarla sometida a las prácticas actuales de gestión de esos bosques.
12/12/2011, 15:15 -

Re: FORO-CIENCIA

#756
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Lanzado un satélite militar japonés IGS

[youtube]http://www.youtube.com/watch?v=3erkboAPdCQ&feature=player_embedded[/youtube]

Después de un leve retraso, Japón lanzó al espacio otro integrante de su red de satélites de reconocimiento militar. Llamado IGS Radar-3 (JSE Reda-3 gouki), se empleará en una órbita baja polar para fotografiar la superficie terrestre tanto de noche como con mala meteorología, gracias a su sistema radárico.
El lanzamiento se produjo a las 01:21 UTC del 12 de diciembre, desde la base de Tanegashima. El cohete, un potente H-IIA 202, situó a su carga en la trayectoria prevista, 20 minutos después del despegue.
Siendo una misión militar, sus objetivos son secretos, y se desconocen los detalles técnicos del vehículo. Se tiene constancia, sin embargo, que el vuelo fue exitoso. Es una buena noticia para Japón, dado que en estos momentos disponía de varios satélites para reconocimiento óptico, pero ninguno operativo para inspecciones mediante radar. El programa fue puesto en marcha ya hace más de una década, debido a las pruebas de misiles de Corea del Norte. La constelación IGS permite vigilar sus desarrollos nucleares y misilísticos. Pero sus capacidades también pueden usarse para tareas civiles.
12/12/2011, 15:17 -

Re: FORO-CIENCIA

#757
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Vistas nocturnas del Mar Mediterráneo

[youtube]http://www.youtube.com/watch?v=E4eRsi0mFVA&feature=player_embedded[/youtube]
13/12/2011, 20:21 -

Re: FORO-CIENCIA

#758
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Gemínidas 2011

Artículo, del blog Pirulo Cósmico, que recomendamos por su interés.
En la noche del 13 al 14 de diciembre se produce el pico máximo de una de las lluvias de estrellas fugaces más intensas, las Gemínidas, si bien este año puede pasar algo desapercibida por la presencia de la Luna. De todos modos, siempre es interesante echar un vistazo, ya que es una de las lluvias de estrellas más importantes del año (con una tasa de hasta 100-120 meteoros/hora).
El radiante de esta lluvia de estrellas está en la constelación de Gemini (de la que toma el nombre), que se encuentra justo al lado de la siempre imponente constelación de Orión.

El artículo, del blog Pirulo Cósmico, se puede leer aquí.
13/12/2011, 20:24 -

Re: FORO-CIENCIA

#759
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nuevo método para eliminar la basura espacial


Los investigadores desarrollan un sistema de deorbitado de residuos espaciales. (Imagen: UPM)


Un sistema de deorbitado de residuos espaciales es el objetivo de un proyecto de investigación desarrollado en la ETSI de Aeronáuticos de la Universidad Politécnica de Madrid y financiado por la Agencia Espacial Europea. La iniciativa se suma a otras para evitar que las misiones espaciales colisionen contra los “escombros espaciales”.
Actualmente existen en el espacio más de 19.000 objetos de más de 10 centímetros y unos 500.000 entre uno y 10 centímetros, todos ellos procedentes de misiones espaciales anteriores puestas en órbita y que cuando dejan de tener una utilidad pasan a formar parte del censo de basura espacial. La mayoría se encuentran en órbita baja (LEO) entre 800 y 1000 km de la superficie de la Tierra, aunque también se concentran en torno a la altura geoestacionaria (GEO).
El coste de la eliminación de la basura espacial, principalmente trozos de lanzadores y satélites “muertos”, es muy elevado, pero su eliminación resulta necesaria para el futuro del espacio; las agencias espaciales son conscientes de la necesidad de atajar directamente este inconveniente y han comenzado a tomar medidas al respecto.
El proyecto Ion Beam Shepherd for Contactless Space Debris Removal (Eliminación de Basura Espacial con Chorros de Iones) pretende, mediante una apuesta ambiciosa pero potencialmente eficaz, resolver el acuciante problema de la basura espacial.
Al frente del proyecto se encuentran investigadores de la Universidad Politécnica de Madrid. Los grupos de investigación: el Grupo de Dinámica Espacial y el Equipo de Propulsión Espacial y Plasmas, ambos adscritos a la Escuela Técnica Superior de Ingenieros Aeronáuticos (ETSIA), han unido sus conocimientos para desarrollar una idea innovadora para el deorbitado activo de basura espacial, que ha sido financiada por la Agencia Espacial Europea (ESA), a través del Advanced Concepts Team, dentro del programa de proyectos ARIADNA.
Cada nueva misión espacial se enfrenta al peligro de colisión con estos “escombros espaciales”. “Aunque la probabilidad de impacto es aún suficientemente baja como para impedir la explotación del espacio como recurso, el verdadero problema está en el futuro, debido a la posibilidad de que los escombros colisionen entre sí y se descompongan en millares de trozos más pequeños, lo que puede iniciar una reacción en cadena que deje las órbitas comercialmente más atractivas completamente inutilizables durante décadas o siglos, efecto conocido como síndrome de Kessler”, explica Claudio Bombardelli, investigador principal del proyecto.
El síndrome de Kessler dibuja un escenario donde la sucesiva descomposición por colisión de los residuos más grandes da lugar a una nube de pequeños residuos que bombardearía hasta la destrucción a cualquier objeto que se sitúe en esa órbita. Un panorama desalentador, que cada vez preocupa más a quiénes tienen en el espacio su campo de investigación.
Junto al doctor Claudio Bombardelli completan el equipo investigador los catedráticos Jesús Peláez y Eduardo Ahedo, y los egresados de la UPM Mario Merino y Hodei Urrutxua. Su objetivo es conocer las actuaciones y la viabilidad de un sistema de deorbitado de objetos de gran tamaño mediante el empleo de un chorro de iones, eyectado desde una “nave pastor”.
Se trata de ejercer de forma continua una pequeña fuerza deorbitante sobre el residuo y acompañarlo en su trayectoria hasta la reentrada atmosférica o una “órbita cementerio” al final de su vida útil. “El empleo de un chorro de iones para transmitir un empuje axial constituye un uso alternativo y atractivo de los cohetes eléctricos, una tecnología emergente en propulsión espacial”, comenta el profesor Ahedo.
La baza de su sistema se encuentra en que permite transmitir el empuje necesario desde varios metros de distancia y con bajo riesgo de colisión con el objeto cuya órbita se quiere modificar. “Nuestro proyecto plantea la posibilidad de actuar sobre el residuo sin necesidad de entrar en contacto directo con él, evitando así el problema de la captura física de un cuerpo en estado de rotación incontrolado”, sostiene el profesor Peláez.
Otra de las ventajas que plantean es que el desarrollo del sistema es viable tecnológicamente hoy en día. Sus elementos primarios son propulsores iónicos que ya han sido probados en misiones espaciales científicas y en satélites comerciales. "La eliminación de residuos espaciales en órbita siempre ha sido considerada un reto excesivo para la tecnología actual. Uno de los objetivos de nuestro proyecto es  reducir la complejidad de esta operación, de manera que se pueda llevar a cabo una primera misión demostrativa de deorbitado en un plazo de 10 años", avalan los investigadores.
Las investigaciones de la UPM incluyen el modelado físico y la simulación de la interacción del cuerpo libre con el chorro de plasma. En palabras de Claudio Bombardelli “hemos alcanzado resultados positivos, pero todavía queda mucho por hacer; mientras que los aspectos teóricos fundamentales han sido aclarados, queda pensar en el desarrollo ingenieril de nuestras ideas”. (Fuente: UPM)
13/12/2011, 20:26 -

Re: FORO-CIENCIA

#760
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Una tesis busca alternativas al modelo cosmológico aceptado basado en la materia oscura


Julio Jesús Fernández, del Departemento de Física Teórica, Atómica y Óptica. (Foto: Carlos Barrena)


La materia oscura es, en cosmología, aquella cuya existencia no puede ser detectada de forma directa con los medios técnicos actuales (al no emitir ni absorber suficiente radiación electromagnética), pero cuya existencia se hace evidente a través de sus efectos gravitacionales sobre otros cuerpos celestes. Es, por tanto, una hipótesis que sirve para encajar el modelo cosmológico aceptado basado en la Teoría de la Relatividad General de Einstein. Desde la Facultad de Ciencias de la Universidad de Valladolid, el doctorando Julio Jesús Fernández trata de dar una vuelta de tuerca a este modelo estándar, buscando alternativas que obvien la existencia de materia oscura.
Como ha detallado a DiCYT, se trata básicamente de realizar “un estudio de la alternativa que hay en cosmología a la energía oscura, es decir, qué tipo de módulos matemáticos se pueden llegar a construir sin necesidad de recurrir a una sustancia que hasta el momento no está validada ni reproducida en un laboratorio para tener la total seguridad de que existe”.
Fernández explica que el modelo aceptado se centra, de forma general, en tres hipótesis. La primera es la aceptación de que la Relatividad General es la teoría “matemáticamente correcta tanto a nivel macroscópico como a nivel cosmológico para dar cuenta efectiva de la gravedad”. “Es una suposición con la que tenemos que trabajar, porque no hay otra teoría, pero es una conjetura el pensar que a escalas tan grandes la gravedad seguiría funcionando tal cual funciona”, añade.
La segunda hipótesis está basada en lo que se llama principio cosmológico, por el cual “las observaciones que podemos hacer en el universo no dependen ni de la dirección ni del punto de observación”. “Todas las observaciones astronómicas están referenciadas en el planeta Tierra, que es nuestro único campo de observación, y pensar que aquí puede observarse independientemente del punto de observación y de la dirección es algo que se postula y que condiciona todo el modelo”. Por último, como estas hipótesis “restringen” el modelo matemático, es necesario introducir a mayores una componente como es la energía oscura para que el modelo aceptado “cuadre”.
“Estamos en la primera fase del proyecto. Hasta el momento tenemos un boceto de las líneas que queremos sacar adelante porque el trabajo que realizamos se apoya en las investigaciones de otros grupos científicos que han dejado alternativas, y estamos intentando ver hasta qué puntos esas alternativas tienen a su vez otras mayores que se pueden ir incorporando en un modelo más matemático alternativo”. No obstante, una de las premisas principales es que la investigación “se tratará de mantener siempre en el contexto físico de la observación”, o lo que es lo mismo, en la “validación” de las observaciones, lo que supone la parte más complicada del proyecto.
Julio Jesús Fernández inició su doctorado hace dos años y medio en temas de gravedad a nivel cuántico, aunque finalmente lo dirigió hacia la cosmología hace casi un año. Para la realización de la tesis cuenta con el apoyo del profesor del Departamento de Matemática Aplicada Fernando Pascual Sánchez, así como de los profesores del Departamento de Física Teórica, Atómica y Óptica José Manuel Izquierdo, Mariano Santander y Mariano del Olmo.
Durante la V Reunión de Jóvenes Investigadores que se celebra anualmente en el Centro de Relaciones con Iberoamérica de la Universidad de Valladolid, ubicado en las Casas del Tratado de Tordesillas, el investigador obtuvo uno de los premios del primer concurso de póster, al que se presentaron un total de 25 trabajos. El encuentro reúne a alumnos de máster, doctorandos e investigadores de la Institución académica vallisoletana y a otros procedentes del otro lado del Atlántico que actualmente desarrollan su actividad en la Universidad de Valladolid. (Fuente    :D    iCYT)
13/12/2011, 20:27 -

Re: FORO-CIENCIA

#761
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Materia orgánica compleja creada por estrellas


Espectro del ISO de la nebulosa de Orión. (Foto: NASA/Rice U.)


Compuestos orgánicos de complejidad inesperada existen en todo el Universo, gracias a ciertas estrellas. Así lo sugieren los resultados de un reciente estudio.
Sun Kwok y Yong Zhang de la Universidad de Hong Kong investigaron el fenómeno de ciertas emisiones infrarrojas detectadas en estrellas, en el espacio interestelar y en las galaxias. Estas emisiones poseen en su espectro "firmas" no identificadas. Durante más de dos décadas, la teoría más aceptada sobre el origen de estas firmas ha sido que proceden de hidrocarburos aromáticos policíclicos, moléculas orgánicas simples hechas de átomos de hidrógeno y carbono.
A partir de observaciones hechas por el ISO (Infrared Space Observatory, u Observatorio Espacial Infrarrojo) y el Telescopio Espacial Spitzer, Kwok y Zhang han constatado que los espectros astronómicos tienen características que no pueden ser explicadas mediante moléculas de hidrocarburos aromáticos policíclicos. En su lugar, el equipo propone que las sustancias generadoras de estas emisiones infrarrojas tienen estructuras químicas que son mucho más complejas. Mediante el análisis de los espectros del polvo estelar formado en determinadas explosiones estelares, Kwok y Zhang han mostrado que ciertas estrellas fabrican estos compuestos orgánicos complejos en periodos de tiempo asombrosamente cortos en la escala astronómica: en cuestión de semanas.
Las estrellas no sólo están produciendo esta materia orgánica compleja, sino que también la están expulsando al espacio interestelar. El trabajo parece apoyar una hipótesis propuesta anteriormente por Kwok que señala que las estrellas viejas son fábricas moleculares capaces de generar compuestos orgánicos.
14/12/2011, 17:41 -

Re: FORO-CIENCIA

#762
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Descubierto un superplaneta habitable

Artículo, del blog Bitnavegantes, que recomendamos por su interés.
La misión Kepler de la NASA ha descubierto la primera superTierra orbitando en la zona habitable de una estrella similar al Sol. El equipo de investigadores, entre ellos Alan Boss, de Carnegie, ha descubierto lo que podría ser un planeta grande y rocoso, con una temperatura superficial de unos 22,2 grados centígrados, comparable a un día confortable de primavera en la Tierra.
La estrella se encuentra a unos 600 años-luz de distancia de la Tierra. La estrella, de tipo G5, tiene una masa y un radio sólo un poco menores que nuestro Sol, una estrella G2. Como resultado, la estrella es aproximadamente un 25 por ciento menos luminosa que el Sol.
El planeta orbita a su estrella con un período orbital de 290 días, más breve que el de 365 días de la Tierra, y a una distancia que es aproximadamente un 15 por ciento menor que la existente entre la Tierra y el Sol.

El artículo, del blog Bitnavegantes, se puede leer aquí.
14/12/2011, 17:43 -

Re: FORO-CIENCIA

#763
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La capacidad olfativa de los primeros ‘Homo sapiens’ era evolutivamente superior a la de sus antepasados


Los investigadores del CSIC Antonio Rosas, con gafas, y Markus Bastir, del Grupo de Paleoantropología MNCN-CSIC. (Imagen: CSIC)


El lóbulo temporal y el bulbo olfativo de los primeros Homo sapiens eran de mayor tamaño que los de H. neanderthalensis, según una investigación internacional liderada por el Consejo Superior de Investigaciones Científicas (CSIC). El trabajo, publicado en la revista Nature Communications, sugiere la evolución de un uso combinado de funciones cognitivas y del olfato en humanos modernos. A través de análisis morfométricos en 3D, se han medido las impresiones que deja el cerebro en la base interior del cráneo.
Los resultados indican que la estructura que recibe la información olfativa es aproximadamente un 12% mayor en los sapiens. Asimismo, el tamaño de los lóbulos temporales, relacionados con el lenguaje, la memoria y las funciones sociales también es mayor en esta especie humana. El investigador del CSIC en el Museo Nacional de Ciencias Naturales, responsable del trabajo, Markus Bastir, explica: “El aumento del tamaño del cerebro está íntimamente vinculado con la evolución de la humanidad”. Aunque sapiens y neandertales pertenecen a dos linajes evolutivos diferentes, ambos presentan cerebros grandes y de tamaño parecido.
Por ello, “el análisis de la forma cerebral podría reflejar diferencias en su reorganización evolutiva”, añade Bastir. La información olfativa se proyecta a regiones cerebrales directamente responsables del procesado de la emoción, la motivación, el miedo, la memoria, el placer y la atracción entre las personas. Según el segundo autor del artículo, el investigador del CSIC en el mismo centro, Antonio Rosas, “las funciones olfativas superiores son aquellas que combinan el olfato y los procesos cognitivos como la percepción, la motivación, la intuición, el juicio y la decisión”. Rosas opina: “El hecho de que el H. sapiens tenga bulbos olfativos más grandes que cualquier otra especie humana, podría indicar mayor y distinto sentido del olfato, posiblemente involucrado en el desarrollo de aspectos relacionados con funciones sociales”.
Estas diferencias podrían tener sentido evolutivo en un contexto social y contribuir al reconocimiento de individuos del grupo, a la cohesión y al aprendizaje social. El olfato es el sentido más antiguo de los vertebrados y el único canal con el que el cerebro conecta directamente con el medio ambiente. Además, según Rosas, “nunca duerme porque el cuerpo siempre respira”. El circuito neural del olfato está muy vinculado con el material neurológico de la memoria y de las emociones. En palabras del investigador del CSIC: “esto explica la enorme intensidad emocional que se experimenta al recordar cualquier vivencia asociada al olfato”. Bastir concluye: “Aunque el sentido del olor en humanos y primates ha sido tradicionalmente considerado como uno de los menos importantes, el presente estudio refleja una reciente tendencia en la investigación que reevalúa su potencial significado para la evolución de la humanidad”. (Fuente: SINC)
14/12/2011, 17:46 -

Re: FORO-CIENCIA

#764
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los científicos acorralan al bosón de Higgs


Simulación del bosón de Higgs. (Imagen: CERN/CPAN)


Si existe el esquivo bosón de Higgs, una partícula que los científicos se afanan en descubrir para completar el Modelo Estándar de Física de Partículas, su rango de masas está entre unos 115 y 130 gigaelectronvoltios (GeV). Esto supone un avance “significativo” en la búsqueda, según los investigadores de los experimentos CMS y ATLAS que acaban de presentar los datos en la sede de la Organización Europea para la Investigación Nuclear (CERN). La comunidad científica confía en que a finales de 2012 quede aclarado si existe o no el bosón de Higgs.
"Las colaboraciones ATLAS y CMS (los dos mayores experimentos del Gran Colisionador de Hadrones o LHC) han conseguido excluir con los datos coleccionados en 2011 masas del Higgs en el modelo estándar por encima de unos 127 GeV, lo cual representa un gran avance en esta búsqueda", explica a SINC Juan Alcaraz, investigador principal del CIEMAT en el CMS.
Cintíficos de los experimentos ATLAS y CMS han presentado en un seminario en el CERN el estado de su búsqueda del bosón de Higgs que predice el Modelo Estándar de Física de Partículas. Sus resultados se basan en el análisis de una cantidad de datos considerablemente mayor que la de los resultados que se presentaron en las conferencias del pasado verano, cantidad suficiente para hacer progresos significativos en la búsqueda del bosón de Higgs, pero no para hacer una afirmación rotunda sobre la existencia o no de esta elusiva partícula.
"En el intervalo de masas 114-127 GeV, ambas colaboraciones ven ligeros excesos, particularmente en el canal de desintegración de dos fotones y para masas en la zona 124-126 GeV, pero la cantidad de datos recogidos hasta la fecha no es suficiente para poder determinar si se trata realmente de la partícula Higgs o de simples fluctuaciones estadísticas algo superiores a lo esperado", aclara Alcaraz.
El investigador contextualiza el avance: "Estas fluctuaciones son del orden de unas 2-3 desviaciones estándar, y la práctica común en el caso de descubrimiento de nuevas partículas dicta la observación de al menos 5 desviaciones estándar, lo que aseguraría que se trata de un exceso estable. Cabe destacar que hay pocas diferencias entre las capacidades de ATLAS y CMS en cuanto a la detección del Higgs se refiere. Las fluctuaciones estadísticas en esta búsqueda son en este momento más importantes que pequeñas diferencias en las características de cada experimento".
De momento, la principal conclusión es que si existe el bosón de Higgs su rango de masas más probable está entre 116 y 130 GeV, según el experimento ATLAS, y entre 115 y 127 GeV, según CMS. Ambos experimentos han visto indicios en la misma región de masas, pero no lo bastante sólidos para ser considerados un descubrimiento.
El bosón de Higgs, de existir, tiene una duración muy breve y se desintegra en muchas formas distintas. Su descubrimiento se basa en observar las partículas en las que se desintegra más que el propio bosón de Higgs. Tanto ATLAS como CMS han analizado varios canales de desintegración, y han visto pequeños excesos en la región de baja masa donde la presencia del bosón de Higgs aún no había sido excluida.
Por separado, ninguno de estos excesos es más significativo estadísticamente que lanzar un dado y sacar dos seis consecutivos. Lo interesante es que hay diferentes medidas independientes que señalan a la región entre 124 y 126 GeV. Es aún muy pronto para decir si ATLAS y CMS han descubierto el bosón de Higgs, pero estos resultados actualizados están generando un gran interés en la comunidad científica de física de partículas.
“Hemos restringido la región de masas más probable para el bosón de Higgs de 116 a 130 GeV, y en las últimas semanas hemos empezado a ver un fascinante exceso de eventos en el rango de masas alrededor de 125 GeV”, explica la portavoz del experimento ATLAS Fabiola Gianotti. “Este exceso puede deberse a una fluctuación, pero también podría ser algo más interesante. En este punto no podemos concluir nada. Necesitamos estudiar más datos. Dado el excepcional funcionamiento del LHC este año, no tendremos que esperar mucho para tener datos suficientes y esperamos resolver este puzle en 2012”.
“No podemos excluir la presencia del bosón de Higgs del Modelo Estándar entre 115 y 127 GeV debido a un modesto exceso de eventos en esta región de masa que aparece, bastante consistentemente, en cinco canales de desintegración diferentes”, señala el portavoz de CMS, Guido Tonelli. “El exceso es más compatible con un bosón de Higgs del Modelo Estándar en la proximidad de los 124 GeV y por debajo, pero la significancia estadística no es lo suficientemente grande como para decir algo concluyente. Lo que vemos hoy es consistente tanto con una fluctuación de fondo o con la presencia del bosón. Análisis más refinados y los datos adicionales que aporte el LHC en 2012 darán definitivamente una respuesta”.
En los próximos meses, ambos experimentos refinarán aún más sus análisis de cara a las conferencias de invierno de física de partículas previstas para marzo. Sin embargo, una declaración definitiva sobre la existencia o no del bosón de Higgs requerirá más datos, y no es probable que se produzca hasta el final del año que viene.
"El próximo paso es el análisis de los datos que el LHC proporcionará en 2012, entre 10 y 20 femtobarn inversos, esto es, de dos a cuatro veces la cantidad de datos actual, y esta nueva muestra debería permitir confirmar o refutar la existencia de este exceso", adelanta Alcaraz. "En el caso de confirmarse la existencia de una señal, el paso siguiente sería determinar con mayor precisión si la cantidad de sucesos es consistente con lo predicho por el Modelo Estándar, cuál es su masa y otras propiedades (¿es realmente su espín cero?). Pero si se confirma que se trata de una simple fluctuación estadística, la búsqueda proseguiría hasta la masa más baja posible (114 GeV)".
Si no se observara el bosón de Higgs, se continuaría la búsqueda en otros modelos. En muchos de los modelos populares que lo extienden, se espera no ya un sólo campo de Higgs, sino al menos dos, con una posible reducción de la cantidad de sucesos esperados. El Higgs podría tener también acoplos diferentes a otras partículas, de tal forma que los canales considerados como más probables pudieran no serlo en realidad.
Incluso bajo la hipótesis de una ausencia completa de señal en el intervalo de masas 114-600 GeV, es ineludible la presencia de algo con propiedades semejantes al bosón de Higgs. Su ausencia a baja masa se manifestaría entonces en el LHC como un incremento detectable de la producción de pares de bosones a altas energías de colisión y posiblemente daría lugar a nuevas estructuras en el espectro de masas en la zona de los miles de GeV.
El Modelo Estándar es la teoría que los físicos usan para describir el comportamiento de las partículas fundamentales y las fuerzas que actúan entre ellas. Describe la materia ordinaria de la cual estamos compuestos nosotros y todo lo observable. Sin embargo, no describe el 96% del universo, que es invisible. Uno de los objetivos principales del programa de investigación del LHC es ir más allá de este modelo, y el bosón de Higgs podría ser la llave.
Este bosón confirmaría esta teoría, presentada por primera vez en la década de los sesenta, pero podría tomar otras formas relacionadas con teorías que van más allá. Un bosón de Higgs dentro del Modelo Estándar podría seguir señalando a nueva física mediante sutilezas en su comportamiento que sólo surgirían después de estudiar un gran número de desintegraciones de esta partícula.
Pero si estuviera fuera, la ausencia del bosón de Higgs del Modelo Estándar señalaría enormemente la presencia de nueva física en el rango de energía para el que está diseñado el LHC, 14 TeV (teraelectronvoltios), que se espera alcanzar después de 2014. Tanto si ATLAS y CMS muestran en los próximos meses que el bosón de Higgs del Modelo Estándar existe o no, el programa del LHC está abriendo el camino a una nueva física.
"Sea cual sea la continuación, no cabe duda que el LHC representará un gran gran primer paso en la comprensión de ese concepto tan natural pero a la vez tan oscuro: la masa", concluye Juan Alcaraz.
El bosón de Higgs es la única partícula aún no descubierta del denominado modelo estándar. Es una partícula sumamente especial, esencial en el Modelo Estandar para explicar la unificación entre fuerzas electromagnéticas y débiles, así como la existencia de partículas con masa, tal y como observamos en el universo que nos rodea. Su búsqueda en el LHC se ha focalizado en la región de masas comprendida entre 114 y 600 giga-electrón voltios (GeV), siendo 1 GeV aproximadamente la masa de un protón. La masa de 114 GeV corresponde al límite inferior establecido por los experimentos de LEP, el gran colisionador electrón-positrón del CERN, que ocupó en el pasado el túnel que ahora ocupa el LHC. La masa de 600 GeV corresponde al límite a partir del cual se considera que el Higgs no se puede tratar como una partícula propiamente dicha, al tener una probabilidad de desintegración excesivamente elevada, así como la masa a partir de la cual aparecerían dificultades de interpretación dentro del modelo estándar. La luminosidad integrada que han coleccionado los experimentos ATLAS y CMS, cercana a los 5 femtobarn inversos, ya es suficiente para realizar una búsqueda eficiente del bosón de Higgs en el intervalo de masas citado. (Para hacernos una idea, un femtobarn inverso representa algo cercano a unos 300 millones de sucesos analizados en un detector como CMS.)
El Higgs es una partícula inestable, que se desintegra inmediatamente en otras partículas en el mismo punto de colisión de protones. Dependiendo de la hipótesis de masa estudiada, hay canales de desintegración más convenientes que otros. En el intervalo de masas por encima de 130-140 GeV, los canales más eficaces par la búsqueda corresponden a la desintegración del Higgs en pares de bosones W ó Z, con posterior descomposición en cuatro leptones o dos leptones y dos quarks.
En el intervalo de baja masa, 114-130 GeV, el canal más prometedor es la desintegración del Higgs en un par de fotones que, si bien es una canal poco probable, está mucho menos afectado por procesos de fondo que otros. Hay que destacar que estos análisis buscan señales de unas decenas de sucesos sobre un total de millones y que, incluso después de aplicar criterios de selección estrictos, se termina buscando un pequeño exceso sobre un fondo de centenas o miles de sucesos.
Desde la puesta en marcha del detector ATLAS, donde participan 3.000 científicos de 174 instituciones procedentes de 38 países, investigadores del Instituto de Física Corpuscular (IFIC), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València; el Institut de Fisica d'Altes Energies (IFAE), consorcio entre la Generalitat de Catalunya y la Universitat Autònoma de Barcelona; el Instituto de Microelectrónica de Barcelona (CNM‐IMB‐CSIC); y la Universidad Autónoma de Madrid (UAM), participan activamente en la operación y mantenimiento de los detectores, con una fuerte presencia en las actividades de alineamiento y calibración.
Dentro del amplio programa de investigación del LHC, los grupos españoles en ATLAS participan en  un gran número de líneas de investigación en el análisis de los datos, que cubren muchos de los temas a priori más interesantes del programa del LHC. En particular, en el caso de la búsqueda del bosón de Higgs del Modelo Estándar, los grupos han estudiado diferentes estados finales resultado de la desintegración de la partícula de Higgs en dos fotones, dos leptones taus, y dos bosones Z o W.
Por su parte, en CMS, donde participan 3.000 científicos de 172 institutos en 40 países, están presentes grupos experimentales del Instituto de Física de Cantabria (IFCA), centro mixto CSIC-Universidad de Cantabria; la Universidad de Oviedo; el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT); y la Universidad Autónoma de Madrid (UAM), que participan en la búsqueda del bosón de Higgs. Destaca la relevante participación de los investigadores de la Universidad de Oviedo y del IFCA en el análisis del canal de desintegración del bosón de Higgs en bosones WW, y de los investigadores del CIEMAT en el canal de desintegración en bosones ZZ, ambos muy relevantes en esta búsqueda y que han sido claves para excluir que su masa se encuentre entre 127 y 600 GeV.
La participación de los grupos de investigación españoles en el LHC cuenta con el apoyo del Ministerio de Ciencia e Innovación a través del Programa Nacional de Física de Partículas y del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), proyecto Consolider-Ingenio 2010 cuyos principales objetivos son la promoción y coordinación científica de la participación española en proyectos internacionales, el desarrollo de actividades comunes de I+D y la formación e incorporación a los grupos de nuevos investigadores y técnicos. El CPAN pretende consolidar estas actuaciones mediante la constitución de un centro en red de carácter permanente, análogo a los existentes en otros países de nuestro entorno. (Fuente: CERN/CPAN)

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO