PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 857812 veces)

10/02/2012, 17:49 -

Re: FORO-CIENCIA

#1035
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Participación de España en el lanzador Vega


(Foto: ESA - J. Huart, 2012)

El nuevo cohete Vega, que debutará pronto, es la respuesta europea a la necesidad de un lanzador pequeño, económico y versátil, capaz de colocar satélites de entre 300 y 2.000 Kg en las órbitas baja y polar que emplean numerosos satélites científicos y de observación de la Tierra.
Vega mide 30 metros de altura y pesa 137 toneladas en el despegue, frente a los más de 50 metros de altura y cerca de 800 toneladas de peso de Ariane 5. A diferencia de otros pequeños lanzadores, Vega puede lanzar varios satélites a la vez. Su desarrollo empezó en 1998, y el primer lanzamiento está previsto para el 13 de febrero de 2012 desde el Puerto Espacial Europeo, en Kourou, en la Guayana Francesa.
En este primer lanzamiento de certificación Vega llevará un satélite principal, LARES, de la Agencia Espacial Italiana (ASI); el microsatélite ALMASat-1; y seis picosatélites CubeSat, desarrollados por universidades europeas.
Vega es un programa opcional y de retorno garantizado en el que participan Siete Estados Miembros de la ESA: Italia, Francia, España, Bélgica, Países Bajos, Suiza y Suecia.
España contribuye con un 5,68% de una envolvente presupuestaria de 377 millones de euros (condiciones económicas de 1997).
En el programa VERTA (Acompañamiento de Investigación y Tecnología para Vega), España contribuye con el 6,36% -25 millones de euros- de una envolvente financiera de 396 millones de euros (condiciones económicas de 2006). 
El contratista principal de Vega es ELV SpA. Vitrociset es el contratista principal para la infraestructura de tierra. Siete compañías españolas han tenido una importante participación en Vega: Crisa; EADS CASA Espacio; GMV; GTD Sistemas de Información; INDRA; RYMSA; y SENER.
Crisa ha diseñado y fabricado la Unidad MultiFunción, un equipo electrónico complejo de 17 kilos que agrupa en una sola unidad la electrónica secuencial, la unidad de distribución de potencia y las funciones de conmutación. Crisa también ha sido responsable de la integración del módulo de aviónica (AAM) del lanzador. Un equipo de personas ha formado parte del equipo integrado de ELV, el contratista principal del lanzador, para llevar a cabo la integración y validación de una decena de equipos electrónicos que conforman el módulo de aviónica.
EADS CASA Espacio es responsable del diseño y la producción de la estructura de la tercera etapa, denominada AVUM (Attitude Vernier Upper Module) de bi-propergol líquido. Asimismo, es el suministrador de los adaptadores de carga útil, estructuras cónicas que sirven de interfaz con los satélites y que incluyen el sistema de separación, un elemento crítico de la misión debido a que no puede llevar redundancia, lo que se denomina en inglés "single point failure".También para este primer vuelo, se ha suministrado una maqueta que simula un satélite típico de este lanzador en términos de tamaño y peso.
GMV es responsable del Guiado y Navegación, participa en el RACS (Sistema de Control de Actitud y Alabeo) un componente crítico del Sistema de Control de Actitud de VEGA, y es responsable del PA/QA del nuevo sistema de GNC (Guiado, Navegación y Control) así como de análisis RAMS.
GTD Sistemas de Información ha realizado el software embarcado del lanzador y ha sido responsable íntegramente del sistema de emergencia encargado de poner en modo seguro los sistemas eléctricos, los sistemas de fluidos y el propio cohete Vega. GTD también ha participado en el banco de test utilizado en Europa para Vega y también ha realizado la extensión del actual banco de control del lanzador Ariane 5 para cubrir las necesidades del nuevo lanzador. Otro aspecto muy importante ha sido la adaptación de los sistemas de localización, trayectografía y telemedida que se utilizan para la seguridad de personas y de bienes durante el lanzamiento. Por último, GTD ha realizado la especificación del software aplicativo para el banco de control operacional de VEGA. En cuanto a la fase actual de preparación al lanzamiento, GTD participa en las fases de ensayos integrados y tests combinados de los diferentes bancos de control de VEGA.
INDRA ha desarrollado un conjunto de elementos del subsistema EGSE, el cual ha permitido realizar en tierra diferentes baterías de tests eléctricos y funcionales al lanzador. En concreto, INDRA ha sido responsable de un conjunto de simuladores (Pyro simulator, Telemetry simulator, MFU simulator, Upper Composite Simulation Box), Power Supplier SCOEs para la alimentación eléctrica de los equipos de verificación y varias Unidades de Conmutación.
RYMSA es responsable del diseño, fabricación y pruebas de las Antenas de Telemedida y Telecomando “TTC” embarcadas en Vega. El diseño de la antena corresponde a una hélice cónica que trabaja con polarización circular y permite las comunicaciones entre el lanzador Vega y su control en tierra. Cada lanzador necesita dos antenas.
SENER ha llevado a cabo en su primera etapa, y continúa ahora en la segunda, la Verificación y Validación Independiente del Software (ISVV), que consiste en asegurar el buen funcionamiento y diseño de este software de vuelo considerado crítico para la misión. SENER participa como empresa independiente del sector, que no lleva a cabo el desarrollo, sino la verificación externa.

Fuente: ESA
10/02/2012, 18:05 -

Re: FORO-CIENCIA

#1036
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Vibraciones atrapadas, pero sin ser absorbidas ni reflejadas


Se ha logrado demostrar por primera vez una capa de invisibilidad para ondas elásticas. (Foto: AP, KIT)

El progreso de los metamateriales en la nanotecnología ha hecho que la capa de invisibilidad, un concepto que pertenecía exclusivamente al género fantástico y a la ciencia-ficción, se convierta en realidad: Se puede hacer que las ondas de luz bordeen el objeto que se quiere ocultar, de tal manera que este objeto parece no existir.
Este concepto no sólo es aplicable a las ondas electromagnéticas; también puede ser trasladado a otros tipos de ondas, como las del sonido.
Ahora se ha logrado demostrar por primera vez una capa de invisibilidad para ondas elásticas. Estas ondas aparecen, entre muchos otros sitios, en las cuerdas de una guitarra y en las membranas de los tambores.
En su experimento pionero, el equipo de Nicolas Stenger, del Instituto de Física Aplicada, y Martin Wegener y Martin Wilhelm, del Instituto Tecnológico de Karlsruhe, en Alemania ambas instituciones, ha usado un material con una microestructura especialmente diseñada, compuesto por dos polímeros, concretamente un plástico blando y otro duro, en una placa delgada.
Las vibraciones de esta placa están en el rango de las frecuencias acústicas, en este caso unos 100 Hz, y pueden ser observadas directamente desde arriba.
Los científicos han constatado que las ondas sonoras bordean un área circular en la placa delgada de tal manera que las vibraciones no pueden ni entrar ni salir de esta zona.
A diferencia de otros medios conocidos de protección contra el ruido, las ondas sonoras no son ni absorbidas ni reflejadas. Es como si allí no hubiera nada, en palabras de Wegener.
10/02/2012, 18:07 -

Re: FORO-CIENCIA

#1037
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nueva gama de materiales para capturar dióxido de carbono con gran eficacia


Las chimeneas lanzan grandes cantidades de CO2. (Foto: NERSC)

Se ha descubierto un modo eficaz de capturar el dióxido de carbono (CO2), en las chimeneas de las fábricas, los tubos de escape de vehículos y en otras fuentes, incluyendo la propia atmósfera. El CO2 es el principal gas de efecto invernadero que impulsa al cambio climático.
El nuevo proceso logra la más alta capacidad de captura de carbono en condiciones reales de la que se tenga noticia hasta hoy, y es capaz de trabajar eficientemente en presencia de aire húmedo.
Este proceso ha sido presentado en la principal revista académica de la ACS (American Chemical Society, o Sociedad Química Estadounidense).
Uno de los más grandes desafíos que afronta la humanidad en el siglo XXI es controlar las emisiones de dióxido de carbono. Los métodos existentes para capturar el dióxido de carbono de las chimeneas de las fábricas, los tubos de escape de los vehículos y otras fuentes, así como directamente en el aire del exterior, consumen mucha energía, tienen una eficacia modesta y presentan otros problemas.
En un esfuerzo por superar tales obstáculos, el equipo de Alain Goeppert, G. K. Surya Prakash, George A. Olah (galardonado en 1994 con un Premio Nobel de Química) y sus colegas recurrieron a materiales sólidos basados en la polietilenimina, un polímero abundante y barato.
Las pruebas realizadas en la investigación muestran que estos materiales son capaces de lograr un alto rendimiento, y una de las más elevadas tasas de extracción de dióxido de carbono con aire húmedo de las que se tenga conocimiento, bajo condiciones que entorpecen seriamente la acción de otros materiales. Después de su captura, al CO2 se le puede extraer con facilidad de los materiales de esta gama, de modo tal que puede ser utilizado luego para obtener otras sustancias, o ser aislado del medio ambiente de forma permanente.
Otra ventaja es que los materiales de esta nueva gama pueden reciclarse y reutilizarse muchas veces sin perder eficacia.
10/02/2012, 18:10 -

Re: FORO-CIENCIA

#1038
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nuevo compuesto químico que sabotea la reproducción de ciertos virus


Parte de la estructura de un virus de la viruela (cepa Variola major). (Imagen    :D    avid Waugh / MCL / NCI)

Se ha conseguido identificar un novedoso compuesto que inhibe la reproducción en los virus. El hallazgo podría conducir al desarrollo de compuestos altamente específicos para bloquear la reproducción de virus de la familia del de la viruela, como por ejemplo el de la viruela del simio, una enfermedad infecciosa en auge.
La investigación básica fue realizada por el equipo de los microbiólogos Ken Dower y John Connor de la Escuela de Medicina de la Universidad de Boston, y el químico Scott Schaus de la misma universidad estadounidense.
Los virus de la familia Poxviridae, que incluye a los de la viruela, la vaccinia y la viruela del simio, invaden las células del organismo atacado y se reproducen, enfermándole.
La viruela, un virus que mató a cientos de millones de personas en todo el mundo, fue declarada como erradicada por la Organización Mundial de la Salud en 1979, después de exitosas campañas de vacunación.
En cambio, hay datos recientes que muestran que la cantidad de personas infectadas por la viruela del simio en el ámbito mundial es cada vez mayor.
La viruela del simio se conoce con este nombre debido a que los primeros casos conocidos se dieron en simios. Pero también afecta a otros animales, incluyendo el Ser Humano. El primer caso conocido de viruela del simio en seres humanos data de 1970.
El virus vaccinia está lo bastante relacionado con el virus de la viruela como para ser utilizado en vacunas contra éste último.
Usando modernas técnicas de análisis, la vaccinia y una gran biblioteca de sustancias químicas, Dower y sus colegas buscaron compuestos que pudieran hacer que la vaccinia no se reprodujese en las células humanas, y consiguieron identificar varios. Cuando estudiaban cómo actúa uno de estos compuestos, descubrieron que el virus podía penetrar en una célula en su presencia, pero una vez que el virus estaba dentro, el compuesto desactivaba un parte esencial de la maquinaria del virus.
Los investigadores entonces probaron la eficacia del compuesto químico en el virus de la viruela del simio. Sus experimentos demostraron resultados similares, mostrando que este compuesto químico es capaz de combatir a distintas variedades de virus de la familia del de la viruela.
10/02/2012, 18:11 -

Re: FORO-CIENCIA

#1039
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los chimpancés son conscientes del peligro al que sus compañeros se enfrentan por desconocer una amenaza


Este chimpancé se refugió al ver una serpiente. (Foto: © R. Wittig/MPI f. Evolutionary Anthropology)

Bastantes animales son capaces de intercambiar con sus congéneres comunicaciones acústicas que avisan de un peligro inminente, como por ejemplo la presencia de un depredador, e incluso se cree que algunos tienen una "palabra" distinta para clase de depredador.
También se sabe que los animales intercambian más avisos acústicos de peligro cuando están con su pareja o con otros miembros de su familia, que ante otros congéneres.
Sin embargo, hasta ahora no estaba claro si tenían o no en cuenta la circunstancia de que sus compañeros ya estuvieran enterados del peligro.
Unos investigadores han realizado un estudio con chimpancés salvajes en la zona de Budongo, Uganda, y han descubierto que los chimpancés observados son más propensos a emitir un aviso acústico de alarma ante la cercanía de una serpiente cuando sus compañeros de grupo no están enterados de este hecho que cuando sí lo están. Esto parece demostrar que los chimpancés son capaces de darse cuenta de que saben algo que sus compañeros ignoran, y que comprenden que produciendo una vocalización específica pueden comunicar a los demás esa información crucial.
Algunos científicos sugieren que la capacidad del individuo para deducir si sus compañeros saben o no algo que él sí sabe, y por tanto poder aportarles información importante por medio de la comunicación, es una etapa crucial en la evolución del lenguaje. Sin embargo, hasta ahora no estaba claro en qué punto de la evolución de los homínidos u hominoides se desarrolló esta etapa. Se suponía que era más probable que fuera durante la evolución de los homínidos. El nuevo estudio sugiere que dicha capacidad ya había aparecido cuando nuestro antepasado común se separó evolutivamente de los chimpancés hace 6 millones de años.
La investigación ha sido llevada a cabo por el equipo de Catherine Crockford, de la Universidad de St. Andrews, en Escocia, Reino Unido, y Roman Wittig del Instituto Max Planck de Antropología Evolutiva, en Leipzig, Alemania.
10/02/2012, 18:13 -

Re: FORO-CIENCIA

#1040
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Comunicación acústica y ecolocalización, la capacidad multitarea de los murciélagos con el sonido


Un murciélago en pleno vuelo. (Foto: Ivan Kuzmin)

Imagine escuchar música mientras está conversando con unos amigos. Este tipo de multitarea es bastante fácil de hacer, ¿verdad? Eso es porque nuestro cerebro separa de modo efectivo y eficiente las señales auditivas: la música hacia el lado derecho y la conversación hacia el izquierdo.
Pero lo que los científicos no habían podido hacer en humanos o animales es ver la separación entre las tareas a escala de neuronas individuales; hasta ahora.
Jagmeet Kanwal, renombrado experto en murciélagos y profesor del Departamento de Neurología del Centro Médico de la Universidad de Georgetown, Estados Unidos, ha averiguado cómo y en cuál de los hemisferios del cerebro los murciélagos procesan las señales sensoriales que les permiten orientarse y volar a la vez que comprenden lo que otros murciélagos tratan de decirles.
Para profundizar en el conocimiento sobre cómo funciona la maquinaria auditiva del cerebro, los murciélagos son animales especialmente interesantes de estudiar, ya que procesan sonidos en el marco de la ecolocalización, que es una especie de sónar biológico. Los murciélagos emiten breves chillidos ultrasónicos y luego escuchan los ecos producidos por estos chillidos cuando rebotan contra objetos cercanos. Y se basan en la ecolocalización para navegar y cazar mientras vuelan.
El cerebro de los murciélagos no sólo tiene que procesar un flujo constante de pulsos y ecos, sino que también tiene que procesar simultáneamente las comunicaciones sociales con sus congéneres. Los murciélagos emiten señales de comunicación bastante variadas, desde amenazas coléricas traducibles como "¡Fuera de aquí!", avisos de alerta como "¡Cuidado!", súplicas como "¡Por favor no me hagas daño!", y declaraciones de amor como "¡Te quiero!".
En su estudio, Kanwal ha mostrado que hay circuitos neurales en las dos mitades del cerebro que le permiten a un murciélago navegar o "ver" su entorno y al mismo tiempo mantener una "conversación". Las neuronas de la corteza cerebral derecha responden con más intensidad a la ecolocalización que a los sonidos de comunicación. En el hemisferio izquierdo, las neuronas son más sensibles a cambios en la intensidad de un sonido de comunicación.
En los experimentos del estudio, las neuronas de ambos lados del cerebro respondieron intensamente a la combinación entre el chillido emitido y el eco que regresa, en la función de ecolocalización. En cambio, respondieron más débilmente a cada uno de esos dos componentes cuando se presentaban por separado. Esto indica una especialización funcional para la ecolocalización. Las neuronas del lado izquierdo del cerebro, pero no las del derecho, mostraron una especialización similar para el procesamiento de señales de comunicación emitidas por otros murciélagos.
Parece que las dos mitades de la corteza cerebral están "cableadas" de modo diferente, lo que permite que un lado, generalmente el izquierdo, procese con mayor eficacia que el otro lado los sonidos de comunicación. La mitad derecha procesa pequeños cambios en el tono de las señales de navegación, comparable a la percepción de las notas musicales en los humanos.
Conocer a fondo las bases neurológicas del procesamiento de la música y el del habla es fundamental para mitigar déficits de comunicación en los niños (problemas auditivos, y del lenguaje, como la dislexia), y para reparar daños en áreas del lenguaje después de un derrame cerebral.
10/02/2012, 18:15 -

Re: FORO-CIENCIA

#1041
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Manipular las comunicaciones entre bacterias, un modo de controlar los biofilms


Un biofilm bacteriano (en verde) sobre una superficie. (Foto: Janice Haney Carr / CDC / Leah Lowrey, Michael Smith)

Manipulando la manera en que las bacterias "hablan" entre sí, un equipo de investigadores ha logrado un grado de control sin precedentes sobre la formación y dispersión de biofilms.
Este hallazgo promete tener importantes aplicaciones industriales y para la salud, en particular para la tecnología de biorreactores.
Trabajando con bacterias E. coli, el equipo de los profesores Thomas K. Wood y Arul Jayaraman, del Departamento de Ingeniería Química en la Universidad A&M de Texas, ha empleado señales específicas que se envían y reciben entre sí las bacterias para iniciar la dispersión del biofilm.
El hallazgo es importante porque los biofilms son muy difíciles de eliminar. Un biofilm, que constituye una comunidad de bacterias que viven juntas, es un limo protector y adhesivo que presenta una mayor resistencia a amenazas externas, como por ejemplo los antibióticos, que la ejercida por los mismos microorganismos cuando no están agrupados de este modo. La película puede crecer sobre una notable diversidad de superficies, vivas o inertes, como dientes (el biofilm conocido como placa dental), rocas sumergidas, alimentos, y ciertos implantes biomédicos.
Aunque los biofilms pueden representar serios riesgos de salud, su uso en aplicaciones industriales como biorreactores está ofreciendo vías posibles para lograr grandes avances en el terreno de los combustibles alternativos.
Con las debidas modificaciones genéticas, los biofilms que se hagan crecer en estos biorreactores pueden ser usados para producir diversos productos químicos, como propanol y butanol.
Estos biorreactores también se benefician de la naturaleza robusta de los biofilms, un rasgo que los hace ideales para su uso.
El objetivo final de esta línea de investigación es conseguir hacer con bacterias muchos de los procesos que en la actualidad se llevan a cabo por métodos convencionales en las refinerías.
12/02/2012, 09:09 -

Re: FORO-CIENCIA

#1042
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Descifran los componentes pictóricos de dos cuevas asturianas del Paleolítico



Motivo pictórico de la cueva de El Buxu. (Imagen: Antonio Hernanz)

Técnicas químicas al servicio del arte. Investigadores de la UNED han analizado pinturas del Paleolítico en las cuevas de Tito Bustillo y El Buxu (Asturias) para averiguar su composición. El estudio revela que su principal componente es el mineral hematites y que el grano de los pigmentos es tan fino como el que se usa en nuestros días.
“Resulta sorprendente que el tamaño del grano de pigmento encontrado en algunas pinturas de la cueva de Tito Bustillo sea similar al usado hoy en día”, explica Antonio Hernanz, investigador del Departamento de Ciencias y Técnicas Fisicoquímicas de la UNED y autor principal del estudio.
Científicos de la UNED, de la Universidad de Castilla la Mancha y de la Universidad de Alcalá de Henares han analizado la composición de diferentes pinturas rupestres paleolíticas localizadas en las cuevas asturianas de Tito Bustillo y El Buxu.
El principal componente que han hallado es el mineral hematites, con tres tamaños granulares: inferior a una micra, a 10 micras y a 30 micras. “Son tamaños muy pequeños, y cuanto más fino es el grano, mayor es el poder de la pintura para cubrir una superficie”, indica Hernanz.
El estudio, publicado en la revista Journal of Raman Spectroscopy, revela que las representaciones más antiguas (pertenecientes a la cultura auriñaciense, y con una antigüedad estimada de unos 30.000 años) tienen un grano más pequeño que el resto, inferior a una micra. Este tamaño sugiere que “en las pinturas más antiguas se ha usado una técnica más elaborada para preparar el pigmento”, añade el investigador.
El estudio ha sido posible gracias a la utilización de diferentes técnicas microscópicas y espectroscópicas. Así se obtienen, además de imágenes de las micropartículas que constituyen los materiales pictóricos, conjuntos de señales (espectros) que permiten identificar su composición química y mineralógica.
Con estas herramientas, los expertos han podido confirmar que el color rojo de las pinturas fue producido con hematites, un mineral constituido por una de las formas de óxido de hierro. También hallaron hidroxiapatito, otro mineral del que están compuestos los huesos, lo que sugiere que a la pintura se añadieron pequeñas cantidades de huesos calcinados, relacionado quizá con algún tipo de ritual.
Los motivos más oscuros se consiguieron sumando a la pintura pigmentos como el mineral wüstita (otro óxido de hierro), carbón vegetal y compuestos de manganeso. Como materiales de carga (complementarios), los artistas del Paleolítico usaron calcita, cuarzo y minerales arcillosos. También se encontró anatasa (un óxido de titanio) en dos de las pictografías.
Se da la circunstancia de que en la cueva de Tito Bustillo existe un yacimiento de ocre, un material arcilloso rico en hematites. Sin embargo, según el estudio, este ocre no se utilizó para realizar las pinturas. “Se debieron usar otras vetas o yacimientos de pigmento rojo distintos a los que afloran en la propia cueva”, sugiere el investigador de la UNED.
El descubrimiento de las pinturas de Altamira en 1879 fue la primera prueba de la existencia de arte Paleolítico en el área cantábrica. Hasta la actualidad, se han catalogado más de cien cuevas con pinturas de este amplio período, entre las que se encuentran Tito Bustillo y El Buxu, localizadas en los municipios asturianos de Ribadesella y Cardes respectivamente. Los pobladores de esas zonas dibujaban signos abstractos o animales de la era glacial.
Tito Bustillo, descubierta en 1968, se considera una de las joyas de este tipo de arte, solo superada por Altamira. Sus muros están decorados por cientos de representaciones de animales y símbolos. El Panel Principal es el más importante de la cueva y alberga superposiciones de las que se puede extraer una secuencia diacrónica. Por ejemplo, hay representaciones de caballos en diferentes tonos de negro, rojo y púrpura. La datación de estos motivos se sitúa en una horquilla entre hace 14.000 y 10.000 años.
La cueva de El Buxu, descubierta en 1916, muestra en sus paredes grabados de un bisonte, cabras salvajes, caballos, signos esquemáticos y ciervos (pintados, además de grabados). Según Mario Menéndez, investigador de la UNED y coautor de este estudio, las citadas representaciones pudieron haberse realizado entre hace 17.000 y 14.000 años.

Fuente: divulgaUNED
14/02/2012, 18:07 -

Re: FORO-CIENCIA

#1043
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Aclaran la enigmática meteorología de Titán


Imagen artística de Titán. (Foto: NASA)

Titán, la luna más grande de Saturno, es un mundo exótico e intrigante, provisto de una densa atmósfera rica en metano. Con una temperatura promedio de 183 grados centígrados bajo cero en su superficie, y un diámetro de algo menos que la mitad del de la Tierra, Titán cuenta con nieblas y nubes de metano, así como tormentas de lluvia y abundantes lagos de metano líquido. Aparte de la Tierra, es el único astro del sistema solar que posee grandes masas líquidas en su superficie.
Los orígenes de muchas de estas características, sin embargo, siguen siendo un enigma para los científicos.
Ahora, un grupo de investigadores del Instituto Tecnológico de California (Caltech) ha desarrollado un modelo informático de la atmósfera de Titán y su ciclo del metano que, por primera vez, explica muchos de estos fenómenos de una manera relativamente simple y coherente.
En particular, el nuevo modelo explica tres desconcertantes observaciones de Titán.
La primera de estas rarezas es que los lagos de metano de Titán tienden a agruparse alrededor de sus polos, y que hay más lagos en el hemisferio norte que en el sur.
En segundo lugar, se sabe que las áreas en latitudes bajas, cerca del ecuador de Titán, son secas, sin lagos ni precipitaciones regulares. Pero cuando la sonda Huygens aterrizó en Titán en 2005, captó canales excavados por el paso de flujos líquidos, posiblemente por escurrimiento de lluvia. Y en 2009, los investigadores del Caltech descubrieron fuertes tormentas que podrían haber traído lluvias a esta región supuestamente seca.
Finalmente, los científicos se toparon con un tercer misterio, cuando se dieron cuenta de que las nubes observadas en la última década, durante el verano en el hemisferio sur de Titán, se congregaron en las latitudes medias y altas del sur.
Los científicos han propuesto varias ideas para explicar estas características, pero sus modelos no podían explicar todas las observaciones o lo hacían mediante procesos exóticos, como los volcanes criogénicos que expulsan vapor de metano para formar las nubes.
Los investigadores del Caltech creen que su nuevo modelo digital puede explicar de manera satisfactoria todas estas observaciones, y lo hace utilizando principios relativamente sencillos y fundamentales de circulación atmosférica.
Las simulaciones ejecutadas por Tapio Schneider, Sonja Graves, Emily Schaller y Mike Brown, fueron capaces de reproducir la distribución de las nubes que se ha observado, a diferencia de los modelos anteriores.
El nuevo modelo también reproduce la correcta distribución de los lagos. El metano tiende a acumularse en lagos en torno a los polos debido a que allí, en promedio, la luz del Sol es más débil. La energía del Sol normalmente evapora el metano líquido en la superficie, pero, como por regla general en los polos hay menos luz solar, es más fácil que el metano líquido se acumule formando lagos.
Acerca del motivo de que se hayan encontrado más lagos en el hemisferio norte, el modelo indica que se debe esencialmente a una combinación de factores orbitales y de inclinación, que hizo que en la época observada el verano del hemisferio norte de Titán fuera más largo que su verano austral. Puesto que el verano es la temporada de lluvias en las regiones polares de Titán, la temporada de lluvias duró más en el norte. Aún cuando las lluvias de verano en el hemisferio sur fueron más intensas, hubo más lluvias durante el verano del norte gracias a su mayor duración, llenándose así más lagos.
14/02/2012, 18:09 -

Re: FORO-CIENCIA

#1044
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Todas las estrellas de fuera del plano galáctico parecen ser muy antiguas


Medidas del contenido de metales en estrellas del disco galáctico. (Foto: Judy Cheng y Connie Rockosi (UCSC) y el 2MASS Survey.)

Un nuevo análisis de datos sobre más de 118.000 estrellas de nuestra galaxia reunidos en el rastreo del proyecto SDSS (Sloan Digital Sky Survey) revela que las estrellas que orbitan fuera del plano galáctico son raras también por otra razón.
Bastantes estrellas de nuestra galaxia circulan dentro del disco galáctico. Las estrellas de este disco orbitan alrededor del centro de la galaxia. La mayoría de las órbitas están alineadas en un plano, como lo están alrededor del Sol los planetas de nuestro sistema solar. Sin embargo, algunas estrellas orbitan siguiendo rumbos que las llevan por muy encima y por debajo del plano de nuestra galaxia, la Vía Láctea.
El equipo de las astrónomas Judy Cheng y Connie Rockosi, de la Universidad de California en Santa Cruz, se propuso averiguar qué clase de estrellas son éstas, dónde se forman, y cómo han llegado a sus actuales ubicaciones.
Las órbitas de estas estrellas las hacen notoriamente diferentes de las principales estrellas de la Vía Láctea, pero una nueva investigación muestra que también su composición química las hace únicas.
La primera generación de estrellas, la que se forjó a partir de la materia creada directamente por el Big Bang, estaba formada enteramente por hidrógeno y helio. Con el paso del tiempo, esas primeras estrellas convirtieron algo de su hidrógeno y helio en elementos más pesados, como el calcio o el hierro, y cuando murieron, sus elementos pesados pasaron a formar parte de la siguiente generación de estrellas. A medida que iban naciendo nuevas estrellas y crecía el disco de la Vía Láctea, cada generación de estrellas tuvo más calcio, hierro y otros elementos pesados. Por lo tanto, se puede averiguar qué partes de nuestra galaxia han visto varias generaciones de estrellas, simplemente examinando la abundancia de elementos pesados en las estrellas de cada parte de la galaxia.
El equipo de Cheng y Rockosi evaluó el contenido de elementos pesados en miles de estrellas del disco. Cerca del plano del disco galáctico, hogar de las estrellas comunes del disco, las estrellas más cercanas al centro de la galaxia tenían mayor contenido de elementos pesados que las más lejanas. Eso implica que la parte más externa del disco de nuestra galaxia está formada por menos generaciones de estrellas que la parte interior del disco, lo que significa que la Vía Láctea creció desde dentro hacia fuera.
Sin embargo, el análisis de las estrellas que son claramente parte del disco de la Vía Láctea pero que están muy por encima o por debajo del plano del disco, ha revelado que la cantidad de elementos pesados en esas estrellas no sigue la misma tendencia. En cualquier parte fuera de ese plano galáctico donde el equipo de Cheng observaba, las estrellas tenían un bajo contenido de elementos pesados.
No se sabe si estas intrigantes estrellas nacieron con esas órbitas inusuales, o si fueron desplazadas a ellas por algo que ocurrió en el pasado. Lo que sí parece estar claro es que se trata de estrellas muy antiguas.
14/02/2012, 18:11 -

Re: FORO-CIENCIA

#1045
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El mecanismo que hace desarrollar la musculatura a partir del esfuerzo físico



Fibra muscular humana. (Foto: NASA-MSFC)

No solemos pensar en ello, pero el hecho de que nuestros músculos crezcan cuando los ejercitamos los hace ser bastante únicos. Ahora, unos investigadores han identificado un ingrediente clave necesario para que se produzca ese crecimiento.
Se trata de un factor producido en las fibras musculares ejercitadas, que al parecer indica a las células madre de músculo circundantes que es momento de multiplicarse y agregarse, según los resultados de un estudio reciente.
En otras palabras, este factor (Srf) traduce la señal mecánica del esfuerzo físico en una señal química.
El hallazgo también podría conducir a nuevos modos de combatir la atrofia muscular.
El equipo de la investigadora Athanassia Sotiropoulos, del INSERM en Francia, se interesó en el papel del Srf en los músculos debido en parte a que estudios anteriores suyos realizados en ratones y humanos mostraron que las concentraciones de Srf disminuyen con la edad. Eso les llevó a pensar a ella y a sus colaboradores que el Srf podría estar implicado en la atrofia muscular, la cual es muy común al envejecer.
Los nuevos hallazgos apoyan esta idea, pero el Srf no actúa del modo que pensaban los investigadores. Ya se sabía que el Srf controla muchos otros genes dentro de las fibras musculares, pero lo que el equipo de Sotiropoulos ha descubierto es que el Srf influye en las actividades de las células madre satélite.
La nueva investigación indica que los ratones cuyas fibras musculares carecen del Srf ya no pueden desarrollarse cuando se les sobrecarga de ejercicio físico experimentalmente. Eso es consecuencia de que las células satélite no reciben el mensaje de multiplicarse y agregarse a las preexistentes.
Los tratamientos diseñados para controlar del modo apropiado esta red de factores se podrían usar para activar células madre de músculo y mejorar el crecimiento muscular en circunstancias tales como después de largos períodos de reposo en cama o al envejecer.
14/02/2012, 18:14 -

Re: FORO-CIENCIA

#1046
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Gran éxito del primer vuelo del cohete europeo Vega


(Foto: ESA - S. Corvaja, 2012)

Europa dispone desde ahora de un nuevo cohete de pequeño tamaño. El 13 de febrero, despegó desde Kourou el primer vector Vega. A bordo transportó nueve satélites, que fueron colocados en sus órbitas previstas.
La primera misión del Vega, denominada VV01, contó con una ventana de lanzamiento de dos horas, de 10:00 a 12:00 UTC (11:00-13:00 CET; 07:00-09:00 hora local), pero el lanzamiento ocurrió con toda puntualidad, a las 10:00 UTC.
Este primer vuelo debía permitir certificar el sistema Vega al completo: el lanzador, la infraestructura de tierra y sus operaciones, que abarcan desde la campaña de lanzamiento hasta la separación de los satélites y la desactivación de la última etapa. Todo ello se desarrolló perfectamente.
El ascenso se inició con la ignición de la primera etapa sólida, el motor P80, cuyo gran empuje permitió superar rápidamente la torre de despegue. Medio minuto después, había alcanzado la velocidad del sonido, finalizando su trabajo a 1 minuto y 55 segundos de la partida. El encendido de la segunda etapa (Zefiro 23) se efectuó también normalmente, para un funcionamiento de 87 segundos. Entre su separación y el encendido de la tercera etapa (Zefiro 9) pasaron 16 segundos, como estaba programado. Este motor actuó durante 129 segundos más, durante los cuales se expulsó la cofia que protegía a los satélites. La tercera etapa se separó a los 5 minutos y 47 segundos del lanzamiento, dejando paso unos segundos después a la activación del cuarto escalón, el módulo de propulsión AVUM (Attitude and Vernier Module), que está equipado con un motor RD-869 proporcionado por Ucrania y que actuaría en varias ocasiones. Su primera parada ocurrió a los 8 minutos y 45 segundos, con la carga ya en órbita. Seguiría entonces un período de unos 40 minutos de espera, que posibilitaría alcanzar el punto de la órbita adecuado para un segundo encendido, que la convertiría en circular, a 1.450 km de altitud, y con una inclinación de 70 grados.
El próximo paso sería la separación de la carga principal, el satélite LARES, hacia los 55 minutos de misión. Se trata de un ingenio italiano llamado Laser Relativity Satellite, pasivo y equipado con varios espejos, lo que permitirá usarlo para reflejar rayos láser emitidos desde tierra. El LARES, una esfera de 37 cm, dispone de 92 espejos y pesa 400 kg. Con él se efectuarán estudios sobre la teoría de la Relatividad de Einstein, entre otros objetivos relacionados con el campo gravitatorio y la geodesia. El LARES ha sido construido por la empresa Carlo Gavazzi Space para la Agencia Espacial Italiana.
Tras la salida del LARES, la etapa AVUM volvió a maniobrar, encendiéndose una hora y 6 minutos después del despegue. El objetivo sería reducir drásticamente la órbita, hasta los 350 km, punto de destino de los siguientes satélites. Su motor actuó durante algo más de 4 minutos. Su tercer encendido sería el último, si bien el sistema está diseñado para hasta un número de cinco.
Por fin, 1 hora y 10 minutos después del lanzamiento, se liberó el resto de la carga de la misión. El ALMASat (ALma MAter SATellite) es otro satélite italiano, proporcionado por la universidad de Bolonia. Pesa 12,5 kg, tiene aspecto cúbico y 30 cm de lado, y servirá para estudios tecnológicos relacionados con la captura de datos de forma remota. También incluye un sistema experimental pasivo electrodinámico para reingreso controlado en la atmósfera.
Los restantes pasajeros fueron siete nanosatélites, cada uno de 1 kg de peso, desarrollados por otras tantas universidades europeas: Xatcobeo (España), Robusta (Francia), MaSat-1 (Hungría), e-St@r (Italia), UniCubeSat GG (Italia), PW-Sat (Polonia) y Goliat (Rumanía).
El e-st@r ha sido desarrollado por estudiantes del instituto Politecnico di Torino y ensayará un sistema de control de orientación, así como algunos componentes y materiales comerciales.
Goliat, por su parte, ha sido construido por la universidad de Bucarest, de Rumania. Lleva una cámara y un detector de micrometeoritos, así como un medidor de radiación.
Hungría participa en la misión con el MaSat 1 (Magyar Satellite 1), de la universidad de Budapest, con el cual ensayará elementos de aviónica.
El PW-Sat 1 es un satélite polaco que desplegará un pequeño panel solar flexible.
En cuanto a ROBUSTA (Radiation on Bipolar Test for University Satellite Application), propiedad de la universidad francesa de Montpellier II, analizará el comportamiento de varios componentes electrónicos en el ambiente de radiación espacial.
Italia también ha proporcionado otro Cubesat, llamado UniCubeSat-GG (University CubeSat - Gravity Gradient), construido por la universidad de Roma (La Sapienza). Desplegará dos pértigas simétricas para generar electricidad y para estudios de orientación por gradiente gravitatorio.
Por último, el satélite español XaTcobeo, de 10 cm de lado, es propiedad de la universidad de Vigo y transporta una radio, un sensor de radiación ionizante y un experimento tecnológico sobre la apertura de paneles solares. En el proyecto ha participado el INTA.
Completado con gran éxito, este primer vuelo del Vega (VV01) marca el fin de nueve años de desarrollo por parte de la ESA, de la agencia espacial italiana (ASI) y del contratista principal del vehículo, ELV SpA. Vega es un programa opcional de la ESA en el que participan siete de sus Estados miembros: Bélgica, España, Francia, Italia, los Países Bajos, Suecia y Suiza. Ha sido diseñado para dotar a Europa de una capacidad segura, fiable y competitiva para poner en órbita satélites científicos y de observación de la Tierra de entre 300 y 2500 kg, en función de la altitud y del tipo de órbita requerido para cada misión. Este nuevo lanzador permitirá ampliar el rango de servicios de lanzamiento desde el Puerto Espacial Europeo, uniéndose a la flota formada por el lanzador pesado Ariane 5 y por Soyuz, que comenzó sus operaciones en la Guayana en octubre de 2011.
Tras este vuelo de certificación, el sistema Vega será transferido a Arianespace, encargada de sus operaciones. Esta compañía también será la responsable de introducirlo en el mercado internacional de servicios de lanzamiento, con un objetivo de al menos dos misiones por año. La ESA será uno de sus primeros clientes, con un pedido en firme de cinco lanzamientos.

[youtube]http://www.youtube.com/watch?v=661stn8c4hc&feature=player_embedded[/youtube]
[youtube]http://www.youtube.com/watch?v=Pc0opzSRH9k&feature=player_embedded[/youtube]
14/02/2012, 18:17 -

Re: FORO-CIENCIA

#1047
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El LHC incrementará la energía de las colisiones en 2012


Ingenieros trabajando en el detector ATLAS del LHC. (Foto: CERN)

El CERN acaba de anunciar que el Gran Colisionador de Hadrones (LHC) funcionará con una energía en cada haz de partículas de 4 TeV (teraelectronvoltios), 0.5 más que en 2010 y 2011, y un espacio de 50 nanosegundos entre haces. El objetivo para 2012 es conseguir 15 femtobarns inversos de datos, tres veces más que en 2011, con lo que a final de año se espera poder resolver la incógnita de la existencia del bosón de Higgs. En noviembre se iniciará una parada técnica de unos 20 meses.
Esta decisión fue tomada por la dirección del CERN siguiendo las recomendaciones establecidas en un seminario sobre el funcionamiento del LHC que se celebró la semana pasada en Chamonix (Francia), y en un informe emitido por un comité externo.
Este incremento en la energía está acompañado de una estrategia para optimizar el funcionamiento del LHC para que proporcione la máxima cantidad posible de datos en 2012, antes de que el acelerador entre en una larga parada para preparar su funcionamiento a una energía mayor. El objetivo para 2012 es conseguir 15 femtobarns inversos de datos para ATLAS y CMS, un factor tres mayor de lo alcanzado en 2011. El espacio entre los paquetes de partículas inyectados en el LHC se mantendrá en 50 nanosegundos.
“Cuando empezamos a operar el LHC en 2010 escogimos el rango de energía seguro más bajo acorde con la física que queríamos hacer”, dijo el director de Aceleradores y Tecnología del CERN, Steve Myers. “Dos buenos años de experiencia en la operación de los haces y muchas medidas adicionales realizadas en 2011 nos dan la confianza para subir con seguridad una muesca más, y por tanto extender el alcance de los experimentos antes de que el LHC entre en su primer apagón largo”.
El excelente funcionamiento del LHC en 2010 y 2011 ha traído indicios prometedores de “nueva física”, estrechando notablemente el rango de masas para detectar la partícula de Higgs en una ventana de sólo 16 GeV (gigaelectronvoltios). Dentro de este rango, tanto el experimento ATLAS como CMS han visto indicios de que el bosón de Higgs podría existir en un intervalo entre 124 y 126 GeV (más de 100 veces la masa de un protón).
Sin embargo, para transformar estos indicios en un descubrimiento, o para descartar por completo la partícula de Higgs propuesta por el Modelo Estándar de Física de Partículas, se requiere un año más de datos válidos. Está programado que el LHC entre en una larga parada técnica al final de este año para prepararse para el funcionamiento a la energía máxima para la que está diseñado, 7 TeV por haz.
“Para cuando el LHC entre en su primera parada larga al final de este año sabremos tanto si existe la partícula de Higgs o se descarta su existencia tal y como la predice el Modelo Estándar”, dijo el director de Investigación del CERN, Sergio Bertolucci. “Ambas situaciones serían un avance muy importante en nuestra exploración de la naturaleza, acercándonos al entendimiento de cómo las partículas fundamentales adquieren sus masas y marcando el comienzo de un nuevo capítulo en física de partículas”.
El calendario anunciado prevé que los haces de partículas vuelvan a circular por el LHC el próximo mes de marzo y lo hagan hasta noviembre. Será entonces cuando se inicie una parada técnica de alrededor de 20 meses, tras la cual se prevé que el LHC vuelva a funcionar a su energía de diseño completa a finales de 2014, y opere para la investigación a su nueva energía a principios de 2015.
La participación de los grupos de investigación españoles en el LHC cuenta con el apoyo del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), proyecto Consolider-Ingenio 2010 formado por 26 grupos de investigación entre los que se encuentran varias universidades españolas, el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT) y el Consejo Superior de Investigaciones Científicas (CSIC), que es su entidad gestora.
Entre los principales objetivos del CPAN está la promoción y coordinación científica de la participación española en proyectos internacionales, el desarrollo de actividades comunes de I+D y la formación e incorporación a los grupos de nuevos investigadores y técnicos. El CPAN pretende consolidar estas actuaciones mediante la constitución de un centro en red de carácter permanente, análogo a los existentes en otros países de nuestro entorno.

Fuente: CPAN
14/02/2012, 18:18 -

Re: FORO-CIENCIA

#1048
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Posible existencia de fases exóticas del agua que no existen en la Tierra


Estructura cristalina de hielo sometido a 2 terapascales. (Foto: U. Cornell)

El agua es químicamente simple, pero su física es compleja. El rasgo más llamativo del agua en los estados con que la conocemos en la Tierra es que, al solidificarse y adquirir la forma de hielo, aumenta de volumen.
Un grupo de investigación, usando computación de alta potencia para ejecutar cálculos y efectuar simulaciones, ha llegado a la conclusión de que existen fases del agua hasta ahora desconocidas. Estas fases sólo se dan en hielo sometido a presiones altísimas, una situación que no puede encontrarse en la Tierra pero que probablemente sea común en otros astros del sistema solar.
La investigación la ha realizado el equipo del físico Neil Ashcroft, Roald Hoffmann (Premio Nobel de Química en 1981) y el físico Andreas Hermann, los tres de la Universidad de Cornell, Estados Unidos.
Los investigadores predicen una secuencia de estructuras estables de hielo, de las que no se tenía conocimiento, en la franja de entre 1 y 5 terapascales de presión. Un terapascal equivale a 10 millones de veces la presión atmosférica estándar de la Tierra.
Esa franja de presiones colosales que permite la existencia de tales hielos exóticos está mucho más allá de lo que se puede conseguir en un laboratorio actual. Sin embargo, está dentro de la gama de presiones existentes dentro de Urano y Neptuno, planetas entre cuyos principales componentes está el hielo. Esto significa que esas extrañas fases del hielo podrían ser no sólo alcanzables, sino existir además de manera natural en el centro de esos dos planetas o de otros parecidos fuera de nuestro sistema solar.
Una característica llamativa de algunos de esos hielos exóticos es que su estructura les convierte en metales. Según los nuevos cálculos, eso ocurriría más allá de los 4,8 terapascales.
A presiones más bajas, pero por encima de 1 terapascal, cabe esperar hielos aislantes, no metálicos, y que tendrían una gran estabilidad.
Más llamativa aún es otra de las conclusiones del estudio: Según los cálculos, a las presiones más extremas, el hielo podría quedar prensado hasta el punto de transformarse en un líquido cuántico.
14/02/2012, 18:20 -

Re: FORO-CIENCIA

#1049
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Elevación del terreno por la dilatación térmica de una antigua explosión nuclear subterránea


Explosión nuclear en el área de pruebas de Nevada, Estados Unidos. (Foto: Cortesía de Nevada Division of Environmental Protection - Bureau of Federal Facilities)

Un nuevo análisis de datos satelitales de finales de la década de 1990, es el primero en documentar la elevación por dilatación térmica de un terreno ubicado sobre una zona subterránea de pruebas nucleares, en China.
La técnica usada para este estudio puede ser de utilidad para la comunidad científica a la hora de analizar la fuerza de una detonación nuclear.
En el pasado, los satélites han sido utilizados para buscar hundimientos de terrenos como señales reveladoras de la realización de pruebas nucleares. Ésta es la primera vez que la elevación del terreno se ha correlacionado con una prueba nuclear. Las condiciones para que dicha elevación se produzca en los términos tratados en el nuevo estudio tienen que ser muy específicas, y el método usado en el estudio no funciona en cualquier ubicación.
El objetivo del estudio fue Lop Nor, una zona de pruebas nucleares en China, utilizada con ese propósito en tres ocasiones: 21 de Mayo de 1992, 15 de Mayo de 1995, y 17 de Agosto de 1995. El equipo de Paul Vincent, geofísico en la Universidad Estatal de Oregón, Estados Unidos, analizó las imágenes obtenidas mediante radar de apertura sintética interferométrica (InSAR, por sus siglas en inglés) durante varios años, detectando un cambio en la superficie que empezó cuatro años después de las pruebas.
La elevación fue menor de 5 centímetros.
En anteriores estudios, los investigadores ya comprobaron que el calor de una detonación nuclear subterránea se propaga lentamente hacia la superficie. En la mayoría de los sitios, incluyendo un polígono de pruebas en Nevada, Estados Unidos, esa señal de calor se disipa lateralmente cuando alcanza el nivel freático, que suele estar a bastante profundidad bajo la superficie.
En Lop Nor, sin embargo, la capa freática está sólo a unos tres metros bajo la superficie. Debido a ello, la columna de agua subterránea calentada tarda cuatro años en llegar a esa altura. Cuando la alcanza, eleva ligeramente el terreno sobre el punto subterráneo de la detonación, lo suficiente como para ser detectado a través de las imágenes de radar InSAR.
En la investigación también han trabajado Sean Buckley del Laboratorio de Propulsión a Chorro de la NASA, Dochul Yang de la Universidad de Texas en Austin, y Steve Carle del Laboratorio Nacional Lawrence Livermore, ubicado en Livermore, Estados Unidos.

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO