PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 859565 veces)

20/11/2013, 19:50 -

Re: FORO-CIENCIA

#2865
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Lanzados 29 satélites a un tiempo

ASTRONÁUTICA



Aprovechando el lanzamiento de una misión tecnológica militar (ORS-3), un cohete Minotaur-I lanzó el 20 de noviembre, desde la isla de Wallops, un total de 29 satélites, lo que constituye todo un récord. El lanzamiento ocurrió a las 01:15 UTC, y supuso la colocación en órbita baja de la carga principal, el STPSAT-3, y numerosos ingenios de pequeño tamaño y peso.
La misión ORS-3 (Operationally Responsive Space 3) fue pensada para ensayar un nuevo tipo de aviónica para el cohete. Dicha tecnología debería facilitar la preparación de los vehículos y aumentar la rapidez con que éstos pueden ser lanzados. Uno de los problemas ha sido hasta ahora la necesidad de usar radares para el seguimiento de los cohetes, lo que añade un elemento más que puede no estar listo para un despegue. En cambio, la ORS-3 debía ensayar el uso de sistemas GPS, que prescindan de los radares, y de métodos para detectar una desviación terminal de la trayectoria que obligue a la autodestrucción del vehículo (Autonomous Flight Safety System). Esta carga útil, junto con otra para aumentar el ritmo de caída atmosférica (SoM/DoM), estaría instalada la etapa superior del cohete.
El resto de la capacidad de lanzamiento del vector sería aprovechada por la inclusión del satélite STPSAT-3 y del resto de vehículos. El STPSAT-3, de la USAF, pesó 180 Kg y transporta cinco experimentos científicos y tecnológicos (básicamente sensores), así como un sistema para propiciar su reentrada atmosférica acelerada. El satélite lo construyó Ball Aerospace sobre una plataforma Astro-200 suministrada por AeroAstro.
Debido al bajo peso del STPSAT-3, la misión incluye un total de 28 Cubesats de varios orígenes, que han sido distribuidos entre 16 plataformas de despliegue PPOD. Once forman parte del programa ElaNa de la NASA, que propicia el lanzamiento de nanosatélites con carácter educativo. Los cubesat embarcados a bordo del cohete Minotaur son los siguientes: TJ3Sat, DragonSat, COPPER, ChargerSat 1, SwampSat, Ho'oponopono 2, KySat-2, CAPE 2, Trailblazer, Vermont Lunar Cubesat, PhoneSat-2.4, NPS-SCAT, Black Knight 1, Firefly, Horus/STARE-B, SENSE-A y B, ORSES, ORS Tech 1 y 2, y 8 Prometheus, aunque las identidades de los Cubesats no están todas confirmadas. Sus masas varían de 1 a 5 Kg, y todos son estadounidenses.
A esta lluvia de cubesats enviados al espacio, hay que añadir otros tres (PicoDragon, Ardusat-1 y Ardusat-X), que fueron lanzados desde la estación espacial internacional a las 12:18 UTC el 19 de noviembre.
El récord del Minotaur, sin embargo, podría durar poco, ya que se prepara de forma inmediata una misión de un cohete Dnepr que enviará al espacio más de 30 satélites.


[youtube]http://www.youtube.com/watch?v=QHHLvLQxA4k[/youtube]
20/11/2013, 19:57 -

Re: FORO-CIENCIA

#2866
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Profundizando en el revolucionario proyecto Hyperloop

INGENIERÍA

Es difícil pronosticar si llegará a buen puerto el ambicioso proyecto de transporte terrestre de altísima velocidad conocido como Hyperloop, que poco tiempo atrás habría sido exclusivo de la ciencia-ficción, o si se convertirá en una de tantas ideas tecnológicas atrevidas que no se llevan a la práctica por sus costes faraónicos. En cualquier caso, el proyecto impulsado por Elon Musk, cofundador de PayPal, de SpaceX, de Tesla Motors, y de SolarCity, está generando muchas expectativas.
Al propio Elon Musk se le está comenzando a considerar como un nuevo Howard Hughes, por su combinación de empresario exitoso con toques aventureros, adolescente prodigio, y emprendedor polifacético con ideas visionarias que al principio pueden parecer locuras. Y ahora el Departamento de Arquitectura y Diseño Urbano de la Universidad de California en Los Ángeles (UCLA), Estados Unidos, ha anunciado que llevará a cabo una colaboración con los responsables del proyecto Hyperloop encaminada a estudiar el impacto ambiental que tendría en dicho país la construcción de ese revolucionario sistema.
Algunos expertos opinan que antes incluso de plantearse la viabilidad de construir el Hyperloop, hay que tener ciertas garantías de que su impacto en el entorno será aceptable. "Aunque las cuestiones de ingeniería y física de este proyecto son de suma importancia, una primera evaluación del impacto ambiental en la comunidad urbana y sus alrededores también es muy importante", argumenta Hitoshi Abe, catedrático de la facultad de Arquitectura y Diseño Urbano de la UCLA. "Al igual que con todas las innovaciones de esta magnitud, no es la tecnología en sí lo más importante, sino cómo cambian las ciudades y la vida cotidiana de las personas a consecuencia de la aplicación de dicha tecnología".


Representación artística de una cápsula del sistema Hyperloop viajando por el interior de un tubo. (Imagen: Hyperloop Transportation Technologies / SpaceX / Tesla Motors)
La nueva compañía Hyperloop Transportation Technologies es el marco empresarial en el que se intentará hacer realidad el concepto del Hyperloop ideado por Elon Musk: Un sistema de cápsulas discurriendo por el interior de un tubo con muy poco aire, que permitiría trasladar pasajeros entre Los Ángeles y San Francisco en poco más de 30 minutos, y a una velocidad de hasta unos 1.200 kilómetros por hora. Los ingenieros Marco Villa, antiguo Jefe de Operaciones de Misiones en SpaceX, y Patricia Galloway, la primera mujer en ocupar el cargo de presidencia de la Sociedad Estadounidense de Ingenieros Civiles (American Society of Civil Engineers), encabezan la puesta en marcha del desarrollo de la tecnología del Hyperloop.
Bajo la dirección de Craig Hodgetts, profesor de arquitectura y diseño urbano, los estudiantes de Máster postprofesional en el curso 2014-15 del programa SUPRASTUDIO de la UCLA evaluarán los emplazamientos más adecuados de las estaciones del Hyperloop en las principales ciudades por las que pasará el recorrido y emitirán sus conclusiones al respecto. También se harán pronósticos sobre cómo podría ser la planificación urbana en torno a esas áreas, qué soluciones de diseño podrían mejorar el servicio a los viajeros (en cuestiones tales como el diseño de las estaciones, el del vehículo a bordo del cual viajarán los pasajeros, y las opciones de transporte local desde y hacia cada estación del Hyperloop), además de, por supuesto, la cuestión principal: ¿Cómo podría ser llevado a la práctica un proyecto con estas dimensiones titánicas?
Hodgetts, conocido por el rediseño acústico del anfiteatro Hollywood Bowl y el auditorio Wild Beast Pavilion en el Instituto de Artes de California, es un arquitecto vanguardista especializado en aplicar nuevas tecnologías a proyectos prácticos pero al mismo tiempo con miras futuristas, y ha recibido diversos galardones por su actividad.
El programa SUPRASTUDIO es una plataforma de investigación en arquitectura, desde el sector educativo pero que promueve la experimentación y la colaboración interdisciplinaria entre profesores, estudiantes y empresas colaboradoras, para ampliar las fronteras de la práctica arquitectónica. El programa consta de un curso postprofesional de un año de duración que conduce a un Máster en Arquitectura. A lo largo del año, los estudiantes trabajan en un tema de investigación de manera muy detallada y profunda.
SUPRASTUDIO 2014-15, que comienza en agosto de 2014, formará parte de la plataforma IDEAS (por las siglas del inglés Improving Dreams, Equality, Access, and Success) de la facultad de Arquitectura y Diseño Urbano de la UCLA. IDEAS es un marco para la investigación interdisciplinaria y la colaboración entre estudiantes, profesores y empresas colaboradoras, que cuestiona, desafía y amplía los parámetros actuales de la práctica arquitectónica. En una coincidencia anecdótica que resalta aún más las similitudes entre Elon Musk y Howard Hughes expuestas al principio de este artículo, el espacio para la plataforma IDEAS se encuentra en el Campus Hércules de Playa Vista, California, el lugar histórico donde Howard Hughes y su equipo construyeron en la década de 1940 el Hughes H-4 Hercules (conocido también como "Spruce Goose"), el hidroavión más grande que ha existido, el avión de mayor envergadura (distancia entre los extremos de sus alas) que ha existido, y también un buen ejemplo de proyecto tecnológicamente muy ambicioso y rodeado de muchas dudas y controversias.
A efectos prácticos, podemos ver al Hyperloop como una combinación de avión y tren, ya que posee características de ambos y se enfrenta también a problemas típicos del uno y del otro. Con su diseño se ha pretendido obtener un medio de transporte veloz y barato. El Hyperloop es también único por cuanto se trata de un concepto de diseño abierto, comparable en ese sentido al popular sistema operativo Linux. El proyecto está abierto a las aportaciones de cualquiera. Para contribuir al progreso del proyecto se ha recurrido también a JumpStartFund, una plataforma de crowdfunding y crowdsourcing, en la que los proyectos presentados pueden obtener ayuda del público en general, ya sea en forma de ayudas económicas, o aportando ideas o realizando otros trabajos que sirvan para mejorar el proyecto y llevarlo a buen término.
El sistema Hyperloop consta de un tubo a baja presión con cápsulas que circulan por su interior sustentadas sobre un cojín de aire. Las cápsulas serán aceleradas mediante un acelerador lineal magnético instalado en las zonas de las estaciones. Los pasajeros podrán entrar y salir del Hyperloop en estaciones ubicadas en los extremos del tubo o en estaciones intermedias al final de ramales que se bifurcan del tubo principal.
La primera línea propuesta para el Hyperloop uniría Los Ángeles con San Francisco. Ambas ciudades estadounidenses están en California, pero separadas por cerca de 600 kilómetros. Tradicionalmente la población local ha echado en falta un medio rápido y barato de viajar de una a otra ciudad. Situaciones parecidas se dan en muchas otras partes del mundo. Las cápsulas del Hyperloop tardarían solo 35 minutos en hacer el trayecto entre Los Ángeles y San Francisco, viajando para ello a una velocidad impresionante, de hasta 1.220 kilómetros por hora (760 millas por hora), o sea a Mach 0,99 (a una temperatura de 20 grados centígrados ó 68 grados Fahrenheit), muy cerca de la barrera del sonido. Las cápsulas para pasajeros partirían de cada terminal a intervalos de 2 minutos, transportando cada una de ellas 28 personas. Los intervalos serían cada 30 segundos en las horas punta, y bastante más espaciados en horario nocturno. Las cápsulas estarían separadas dentro del tubo por una distancia promedio de unos 37 kilómetros (23 millas) durante sus trayectos.
Las características que se han decidido para el diseño de los tubos, las cápsulas y el método de propulsión, están orientadas a lograr buenos resultados sin que se disparen los costos de fabricación y mantenimiento.
El tubo está hecho de acero. El sistema tendrá dos tubos paralelos para poder desplazar cápsulas en ambas direcciones. Buena parte del trazado aprovechará el de la autopista interestatal 5.
La parte superior de los tubos se cubrirá con paneles solares a fin de que estos proporcionen energía al sistema.
Obviamente a velocidades tan altas, no es factible usar el sistema de eje y rueda debido a la tremenda fricción y a la inestabilidad dinámica. Una solución tecnológicamente viable es la levitación magnética; sin embargo, el coste asociado al material y a la construcción es prohibitivo. Una alternativa a estas opciones convencionales es una suspensión sobre rodamientos de aire, que es la solución adoptada para el Hyperloop. Los rodamientos de aire ofrecen estabilidad y una resistencia al avance muy baja, a un costo viable, mediante el aprovechamiento de la atmósfera en el tubo.


Cápsula de Hyperloop mostrada en el interior del tubo, el cual tiene paneles solares encima. (Imagen: Hyperloop Transportation Technologies / SpaceX / Tesla Motors)
Por tanto, las cápsulas se sostienen mediante rodamientos de aire que funcionan usando una reserva de aire comprimido y sustentación aerodinámica. El compresor de a bordo permite a la cápsula surcar a gran velocidad el estrecho tubo y sin el problema del aire que viaja entre la cápsula y las paredes del tubo, que haría que se acumulase en la parte frontal de la cápsula y aumentase la resistencia al avance. El problema se evita al aspirar aire, comprimirlo y transmitirlo a los puntos idóneos a través de un conducto de la cápsula. El compresor de a bordo también suministra aire a los rodamientos de aire que soportan el peso de la cápsula durante todo el viaje.
Con el fin de propulsar el vehículo a la velocidad requerida, se usa un avanzado sistema de aceleradores lineales, construido a lo largo del tubo en varios lugares para acelerar las cápsulas. El elemento móvil (rotor) del motor eléctrico de inducción lineal se encuentra en el vehículo, mientras que el tubo incorpora el elemento fijo del motor (estátor). El estátor está colocado en la parte inferior del tubo a lo largo de los tramos de varios kilómetros dedicados a acelerar y desacelerar las cápsulas.
El motor de inducción lineal, gracias al campo magnético que tiene en su interior, se encarga de acelerar y desacelerar la cápsula en los momentos necesarios del trayecto. Acelera la cápsula de 0 a 480 kilómetros por hora (300 millas por hora) para un recorrido a velocidad relativamente baja en zonas urbanas. Mantiene la cápsula a dicha velocidad incluso durante ascensos en las montañas de los alrededores de Los Ángeles y San Francisco. Acelera la cápsula de 480 a 1.220 kilómetros por hora (de 300 a 760 millas por hora), a un máximo de 1 g (una aceleración tan intensa como la fuerza de gravedad terrestre) para comodidad de los pasajeros, al comienzo del tramo principal del viaje, que discurre por el mismo trazado que la autopista interestatal 5. Y desacelera de igual modo la cápsula hasta 480 kilómetros por hora (300 millas por hora) al final del recorrido por el trazado de esa autopista. La cápsula cubre la mayor parte de la distancia sin tener el motor en marcha, gracias a la elevadísima velocidad que alcanza en el acelerón inicial por el tramo principal. No se necesita propulsión durante más del 90 por ciento del viaje.
Vencer la resistencia del aire a la enorme velocidad de las cápsulas exigiría un altísimo consumo de energía propulsora y agregar características de diseño que encarecerían demasiado al sistema. Al igual que un avión asciende a gran altura para viajar a través de una masa de aire menos densa, las cápsulas del Hyperloop viajan por un tubo a presión reducida. La presión del aire en el Hyperloop es de aproximadamente la sexta parte de la presión atmosférica en Marte. Se trata de una presión de trabajo de 100 pascales, lo cual reduce 1.000 veces la fuerza de resistencia al avance ejercida por el aire, con respecto a las condiciones reinantes en el exterior a nivel del mar, y sería equivalente a volar por encima de los 45 kilómetros de altitud (150.000 pies). De todas formas, el sistema cuenta con una buena refrigeración.
Se evita depender de un vacío extremo ya que estos vacíos son caros y difíciles de mantener en comparación con las soluciones técnicas que sólo usan una presión baja. Además, algunas de las características de diseño del Hyperloop no serían posibles en un vacío extremo.


La cápsula de transporte de pasajeros de Hyperloop, en un esquema conceptual de diseño. (Imagen: Elon Musk / Hyperloop Transportation Technologies / SpaceX / Tesla Motors)
Cerca de las ciudades, donde sería más difícil mantener un trazado muy rectilíneo del tubo, las cápsulas viajarían a una velocidad bastante más baja que en el tramo de mayor velocidad del recorrido. El descenso de velocidad evita que los pasajeros sientan un fuerte "tirón" con cada cambio de dirección.
El vehículo tiene características aerodinámicas para reducir la resistencia al avance ejercida por el aire, y cuenta con un compresor en la parte delantera para usar el que choca contra el vehículo para levitación y, en menor medida, para como complemento para la propulsión.
La cápsula de pasajeros del Hyperloop tiene un ancho máximo de 1,35 metros (4,43 pies) y una altura máxima de 1,10 metros (3,61 pies). Se estima que el peso total de la estructura será de varias toneladas.
Se contempla también un modelo adicional de cápsula, para pasajeros y automóviles.
Ante un vehículo que circula a la velocidad de un avión, por el interior de un tubo cerrado en el que además no se puede respirar, resulta comprensible que bastante gente pueda sentir aprensión a hacer un viaje en él. Por las especiales características del Hyperloop, sus medidas de seguridad incluyen algunas típicas de los aviones (mascarillas de oxígeno) y otras propias de los trenes (frenos de emergencia).
Si una cápsula se detuviera por alguna razón dentro del tubo, las cápsulas delante de ella continuarían su viaje hacia su destino sin ningún problema. A las cápsulas detrás de ella se las haría desplegar automáticamente sus sistemas mecánicos de frenado de emergencia. Una vez que todas las cápsulas situadas detrás de la cápsula parada se hubieran detenido con seguridad, circularían hasta un lugar seguro usando ruedas desplegables, a modo del tren de aterrizaje de un avión, accionadas por pequeños motores eléctricos presentes a bordo.
Todas las cápsulas irán equipadas con una reserva de aire lo bastante grande como para garantizar la seguridad de todos los pasajeros en el peor de los escenarios posibles.


Interior de una cápsula de pasajeros del Hyperloop. (Imagen: Elon Musk / Hyperloop Transportation Technologies / SpaceX / Tesla Motors / P. Grimmel)
Una despresurización pequeña del tubo es poco probable que afecte a las cápsulas o a los pasajeros del Hyperloop, y probablemente sería compensada mediante un aumento de la potencia de aspiración de aire. Cualquier fuga pequeña en el tubo podría ser reparada durante los trabajos de mantenimiento estándar.
En el caso de una despresurización a gran escala, los sensores de presión situados a lo largo del tubo se comunicarían automáticamente con todas las cápsulas para que éstas desplegaran sus sistemas mecánicos de frenado de emergencia.
En principio, el sistema Hyperloop es inmune al viento y la lluvia. Al circular las cápsulas por el interior de un tubo, ni la lluvia ni el viento del exterior pueden actuar directamente sobre ellas. Para el caso de un terremoto, algo que, por desgracia, no es inusual en California, el diseño del Hyperloop cuenta con los mismos rasgos de seguridad de otros sistemas de transporte. Por ejemplo, todo el trazado del tubo cuenta con la flexibilidad necesaria para resistir los movimientos generados por el terremoto y mantener al mismo tiempo un alineamiento aceptable del tubo. En cualquier caso, ante un terremoto severo es probable que se activase por control remoto en las cápsulas su sistema de frenado de emergencia.
Por supuesto, la seguridad total no existe en nada, y ciertamente podría ocurrir un accidente con víctimas mortales pese a todas las medidas de seguridad, pero las estimaciones indican que el riesgo de accidente durante un viaje en Hyperloop no sería mayor que, por ejemplo, el de un trayecto en automóvil.
La idea del Hyperloop es muy atrevida. Solo el tiempo dirá si demasiado. En cualquier caso, el enorme bagaje con que ya cuenta Elon Musk y las expectativas sobre sus logros futuros derivadas de que aún es joven (nació en 1971), otorgan a su proyecto Hyperloop un nivel de credibilidad razonablemente bueno. Desde los 12 años de edad, cuando, habiendo aprendido de forma autodidacta a programar, vendió su primer programa (un videojuego de temática espacial), hasta el momento presente, son muchos los logros tecnológicos que ha cosechado.
En SpaceX, Musk es director ejecutivo y diseñador jefe. Él diseñó el Falcon 1, el primer cohete de combustible líquido desarrollado por el sector privado que alcanzó la órbita terrestre, así como el cohete Falcon 9 y la nave espacial Dragon. Ésta última se convirtió en el primer vehículo comercial en la historia que se acopló con éxito a la Estación Espacial Internacional, el 25 de mayo de 2012. En 2008, la NASA adjudicó a SpaceX un contrato por 1.600 millones de dólares para 12 vuelos de carga hacia y desde la Estación Espacial Internacional. En 2011, la compañía comenzó a trabajar en el acondicionamiento de la nave para hacerla capaz de transportar astronautas, bajo un contrato adjudicado por la NASA. Se espera que los primeros vuelos tripulados se realicen en 2015.
Como director ejecutivo y jefe de diseño de producto en Tesla Motors, Musk supervisa las estrategias para esta empresa de automóviles eléctricos y componentes para los mismos. La labor de investigación y desarrollo que se realiza en Tesla Motors sobre motores eléctricos busca hacer realidad diseños muy avanzados, y esta labor podría ser de gran utilidad para el proyecto Hyperloop.
La compañía SolarCity, de la cual Musk es presidente, está dedicada mayormente a la energía solar.
Entre los numerosos premios y reconocimientos públicos que Musk ha recibido por sus logros tecnológicos, figura, por ejemplo, la Medalla Espacial de Oro de la Federación Aeronáutica Internacional, por diseñar el primer cohete desarrollado por el sector privado que alcanzó la órbita terrestre.
20/11/2013, 20:00 -

Re: FORO-CIENCIA

#2867
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Hacia las prótesis de mano con capacidad sensorial táctil

INGENIERÍA


Una nueva investigación está poniendo los cimientos para la creación de prótesis de extremidades con capacidad sensorial táctil que algún día podrían ofrecerles información sensorial en tiempo real a las personas con una extremidad amputada. (Imagen: PNAS, 2013)

Una nueva investigación está poniendo los cimientos para la creación de prótesis de extremidades con capacidad sensorial táctil que algún día podrían ofrecer información sensorial en tiempo real a las personas con una extremidad amputada. Esa información sensorial reemplazaría a la natural del miembro perdido y llegaría al cerebro a través de una interfaz entre éste y la extremidad protésica.
La investigación, a cargo del equipo del profesor Sliman Bensmaia de la Universidad de Chicago en Illinois, Estados Unidos, marca un importante paso en el desarrollo de una nueva tecnología que, si se consigue traducir en modelos lo bastante duraderos y prácticos de usar, incrementaría la destreza y la viabilidad clínica de prótesis de mano robotizadas controladas por el cerebro.
Para restaurar las funciones sensoriomotoras de un brazo, no solo hay que reemplazar las señales motoras naturales que el cerebro envía al brazo para moverlo, sino que también hay que reemplazar las señales sensoriales naturales que el brazo le envía al cerebro mientras está ejecutando la orden motora de éste.
Bensmaia y sus colegas creen que la clave está en valerse de lo que la ciencia sabe sobre cómo el cerebro en un cuerpo humano intacto procesa información sensorial, y luego intentar reproducir esos patrones de actividad neural a través de una estimulación adecuada del cerebro.
La investigación de Bensmaia es parte de un proyecto impulsado por la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), dependiente del Departamento de Defensa de Estados Unidos. Dicho proyecto va encaminado a crear una extremidad superior (un brazo o parte del mismo), artificial, modular, y capaz de restaurar el control motor natural y la percepción sensorial táctil en las personas con amputación de extremidad. Coordinado por el Laboratorio de Física Aplicada de la Universidad Johns Hopkins, en Laurel, Maryland, Estados Unidos, el proyecto ha reunido un equipo interdisciplinario de expertos de instituciones académicas, agencias gubernamentales estadounidenses y compañías privadas.
Bensmaia y sus colegas de la Universidad de Chicago están trabajando específicamente en los aspectos sensoriales de dichos miembros artificiales. En una serie de experimentos con simios, cuyos sistemas sensoriales se parecen mucho a los de los humanos, los científicos identificaron patrones de actividad neural que se manifiestan durante la manipulación natural de objetos y luego consiguieron introducir con éxito esos patrones a través de medios artificiales.
El resultado de estos experimentos es un conjunto de instrucciones que pueden ser incorporadas en el sistema informático de un brazo protésico robotizado, a fin de dotar de percepción sensorial táctil a la persona mediante una interfaz que traduzca a señales enviables al cerebro los valores de diversos parámetros físicos relativos a los objetos con los que interactúe una extremidad protésica, típicamente una mano.
El último paso, si todo va bien, será realizar ensayos clínicos en personas con amputaciones.
Con Bensmaia han colaborado Gregg Tabot, John Dammann, Joshua Berg y Jessica Boback, de la Universidad de Chicago, así como Francesco Tenore y R. Jacob Vogelstein del Laboratorio de Física Aplicada de la Universidad Johns Hopkins.
Los detalles técnicos de este trabajo de investigación y desarrollo aparecen en la revista académica PNAS (Proceedings of the National Academy of Sciences, o Actas de la Academia Nacional de Ciencias, de Estados Unidos).
20/11/2013, 20:03 -

Re: FORO-CIENCIA

#2868
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
El sonido potencia la captura de CO2

INGENIERÍA


La aplicación de sonido mejora la captura de CO2 en una técnica que usa caliza natural. (Imagen: US)

El grupo de Electrohidrodinámica y Medios Granulares Cohesivos de la Universidad de Sevilla (US), en España, ha comprobado que si se aplican ondas sonoras de baja frecuencia y alta intensidad (130-140 decibelios) se produce una mejora de la eficiencia de captura de CO2 en el proceso tecnológico conocido con el nombre Ca-looping.
Este proceso se utiliza para la reducción de emisiones de CO2 en poscombustión. Una de sus principales ventajas es que puede ser directamente implementado en centrales térmicas ya existentes. Además, utiliza la caliza natural como precursor del sorbente de CO2, un material abundante en la naturaleza (el 2º después del agua) y de muy bajo coste económico.
En un primer reactor a alta temperatura, el óxido de calcio, obtenido de la calcinación de la caliza, captura el CO2 presente en baja concentración en los gases de poscombustión. El material parcialmente carbonatado es transportado a un segundo reactor donde el óxido de calcio es regenerado por calcinación, obteniéndose una corriente de CO2 de alta concentración que posteriormente ha de ser almacenado en yacimientos geológicos.
La calcinación-carbonatación se repite de manera cíclica de manera que el material es reutilizable como vehículo de captura de CO2 en sucesivos ciclos. Los detalles de la técnica se publican en la revista Applied Energy. También ha sido seleccionado como key scientific article por la web Renewable Energy Global Innovations, que destaca trabajos de investigación de especial relevancia relacionados con el medio ambiente.
El catedrático de la US José Manuel Valverde Millán, explica que uno de los problemas del Ca-looping es que el material pierde capacidad de captura en cada ciclo por lo que es necesario añadir caliza fresca y purgar el sorbente desactivado de manera periódica en el proceso. Además, debido al tiempo reducido de contacto entre el gas y el sorbente es necesario que la transferencia de masa/calor sea altamente efectiva.
Los expertos de la US han demostrado a escala de laboratorio que la aplicación de sonido a alta intensidad incrementa la eficacia de transferencia de masa y calor en el proceso. “Aplicando sonido conseguimos capturar una mayor cantidad de dióxido de carbono de manera limpia y económica sin tener que recurrir a ningún otro aditivo”, indica Valverde.
En pocos años todas las centrales térmicas estarán obligadas por ley a capturar el CO2 que generan para evitar que este gas sea emitido a la atmósfera y siga provocando el calentamiento global de nuestro planeta.
El Ca-looping es una tecnología barata y cuyo desarrollo es liderado por España. En Oviedo se ha construido la planta piloto de mayor potencia a escala mundial que actualmente opera con éxito. De este modo “es muy importante que en España se siga favoreciendo la investigación en esta línea ya que cualquier avance supondrá un gran paso en el desarrollo y comercialización de la tecnología a nivel internacional”, asegura Valverde.

Fuente: Vicerrectorado de Investigación de la Universidad de Sevilla
20/11/2013, 20:04 -

Re: FORO-CIENCIA

#2869
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Aprovechan la fuerza de gravedad para generar electricidad

INGENIERÍA


Emprendedores mexicanos desarrollan un sistema que aprovechará el flujo vehicular para generar energía eléctrica. (Foto: DICYT)

Emprendedores mexicanos desarrollan un sistema que aprovechará el flujo vehicular para generar energía eléctrica. Ese desarrollo tiene la potencialidad de producir la electricidad necesaria para alimentar un hogar a través de un dispositivo que “atrapa” la fuerza de los automóviles en movimiento.
“Se trata de una tecnología que provee energía sustentable y podría resultar bastante económica, pues es un complemento de infraestructura ya existente: el concreto de las calles y avenidas”, destacó Héctor Ricardo Macías Hernández, desarrollador del sistema. Agregó que a nivel mundial no existen antecedentes de proyectos similares, con excepción de una patente inglesa, pero con la diferencia de que en ese país europeo se emplean pisos piezoeléctricos, que resultan demasiado costosos para países en desarrollo.
La tecnología consiste en un sistema que integra una rampa-escalón (elaborada a partir de material polimérico similar al de las llantas) que se eleva a cinco centímetros sobre el nivel del concreto. Al recibir el impacto provocado tanto por el tonelaje como por la inercia del vehículo, esa rampa ejerce presión sobre un fuelle.
Este artefacto, al contener aire, lo expele a cierta presión a través de una manguera; posteriormente, ese elemento viaja hacia un tanque que lo comprime y lo relanza a una turbina generadora de electricidad. Macías Hernández comentó que la acumulación de energía eléctrica es proporcional al flujo de automóviles que existe sobre determinado lugar; sin embargo, expresó que en un lugar con poca afluencia vehicular podrían ser colocadas varias rampas-escalón para multiplicar el impacto del paso del vehículo.
El desarrollador agregó que la tecnología también podría ser implementada en lugares con alto flujo peatonal. De esa forma, los pasos de las personas estarían generando electricidad con base en las leyes de la energía gravitacional, y ese principio podría implementarse en lugares recurrentes como el Sistema de Transporte Colectivo.
De acuerdo con Macías Hernández, este desarrollo se traduce en una fuente energética sustentable que implicaría un bajo costo de implementación. El emprendedor aseguró que el apoyo del Instituto Mexicano de la Propiedad Industrial fue fundamental para lograr el desarrollo tecnológico pues la institución elaboró un estudio previó acerca de la viabilidad del proyecto y brindó asesoría para estructurar las patentes necesarias en el invento. (Fuente: AGENCIA ID/DICYT)
20/11/2013, 20:06 -

Re: FORO-CIENCIA

#2870
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Software para aprovechar el potencial de los chips inexactos

COMPUTACIÓN


El nuevo modo de programar permitirá a los desarrolladores de software especificar cuándo los errores de cálculo en un ordenador pueden ser tolerables. (Imagen: Amazings / NCYT / JMC)

Un nuevo modo de programar permitirá combinar mejor la fidelidad de ejecución y los ahorros de tiempo y de energía en los ordenadores del futuro.
A medida que los transistores se hacen más pequeños, también se vuelven menos fiables. Hasta ahora, los diseñadores de chips han podido solucionar ese problema, pero en el futuro esa tendencia a la inestabilidad podría hacer que los ordenadores dejen de mejorar al paso al que estamos acostumbrados.
Una tercera posibilidad, que algunos investigadores han comenzado a valorar, es simplemente dejar que nuestros ordenadores cometan más errores, en tareas para las que la total exactitud no sea imprescindible. Si, por ejemplo, se descodifican incorrectamente algunos píxeles en cada fotograma de un vídeo de alta definición, los espectadores probablemente no lo notarán, y en cambio esa relajación de la exigencia de una decodificación perfecta podría generar ganancias en velocidad o eficiencia energética.
En anticipación a las necesidades que surgirán cuando se inicie esa era de los chips inexactos, el equipo de Martin Rinard, Michael Carbin y Sasa Misailovic, en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL), dependiente del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha desarrollado un nuevo marco de programación que permite a los desarrolladores de software especificar cuándo los errores pueden ser tolerables.
Es probable que los fabricantes de chips usen componentes que no sean del todo fiables en precisión para algunas aplicaciones en el futuro cercano. Resulta muy tentador aumentar por esa vía la eficiencia global en el hardware.
21/11/2013, 20:21 -

Re: FORO-CIENCIA

#2871
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La misión Swarm viaja al campo magnético de la Tierra

ASTRONÁUTICA


Las tres naves gemelas de Swarm estudiarán el campo magnético terrestre. (Foto: ESA-AOES Medialab)

Las señales magnéticas que emiten el núcleo, el manto, la corteza, los océanos, la ionosfera y la magnetosfera de la Tierra se van a analizar con un nivel de detalle sin precedentes gracias a la misión Swarm de la Agencia Espacial Europea (ESA).
Su lanzamiento está previsto para mañana a las 13:02h (hora peninsular española) desde el cosmódromo de Plesetsk, a unos 800 km al nordeste de Moscú (Rusia). Los tres satélites idénticos que componen la misión viajarán a bordo de un cohete Rockot, que los pondrá en órbita a unos 490 km de altitud.
Tras una fase de tres meses de puesta en servicio, dos de las naves orbitarán en paralelo, decayendo desde los 460 km a 300 km a lo largo de cuatro años. La tercera se mantendrá a una altitud de 530 km. Los tres satélites –construidos por Astrium–, tienen 9,1 m de envergadura, incluyendo una pértiga desplegable de 4 m, y miden 1,5 m de ancho.
Juntos registrarán desde el espacio la dinámica del núcleo terrestre, los procesos de la geodinamo y la interacción núcleo-manto. El estudio del escudo magnético de la Tierra permite analizar y modelizar los procesos que tienen lugar en su interior, ayudando a los científicos a  comprender mejor la ‘dinamo’ de nuestro planeta, que parece estar ralentizando su actividad.
El magnetismo de la litosfera –la capa sólida superficial terrestre–, la conductividad eléctrica del manto en tres dimensiones y la huella magnética de la circulación de los océanos también serán objeto de estudio de la misión.
Por otra parte, para analizar la influencia del Sol sobre la Tierra, Swarm medirá las corrientes eléctricas en la magnetosfera y en la ionosfera, así como el impacto del viento solar sobre la dinámica de la atmósfera superior.
Los datos de las naves llegarán a través de la estación de seguimiento de Kiruna (Suecia), pero la misión se controlará desde el Centro Europeo de Operaciones Espaciales (ESOC) que la ESA tiene en Darmstadt (Alemania). Los datos científicos se procesarán, distribuirán y archivarán en el Centro para la Observación de la Tierra (ESRIN) de la ESA en Frascati (Italia).
Aunque no se puedan observar a simple vista, el campo magnético y las corrientes eléctricas en el interior y en el entorno de nuestro planeta generan una serie de fuerzas que tienen un gran impacto en nuestra vida cotidiana.
El campo magnético es como una enorme burbuja que nos protege de la radiación cósmica y de las partículas cargadas que bombardean la Tierra a través del viento solar. Sin este escudo protector, la atmósfera no existiría como tal, y la vida en el planeta sería prácticamente imposible.
Aún bajo la protección del campo magnético, las tormentas solares pueden provocar apagones e interrupciones en las comunicaciones, o dañar los satélites artificiales. Una buena muestra de lo que ocurre cuando las partículas cargadas del viento solar chocan con los átomos y con las moléculas de nuestra atmósfera superior son las auroras boreales y australes.
El campo magnético terrestre se encuentra en un estado de continua evolución. El polo norte magnético se desplaza de forma acelerada, y cada pocos cientos de miles de años se invierte la polaridad del campo, lo que provocaría que las brújulas empezasen a apuntar hacia el sur. Además, la intensidad del campo magnético también varía constantemente y, según los últimos datos, parece estar debilitándose de forma considerable.

Fuente: ESA/SINC
21/11/2013, 20:23 -

Re: FORO-CIENCIA

#2872
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Investigan inundaciones y deslizamientos gigantes en el desierto de Atacama

GEOLOGÍA


Rocas ignimbritas del desierto de Atacama. (Foto: Jacek Wierzchos-MNCN)

La Dra. Anne Mather de la Universidad de Plymouth, visitó el Instituto de Geografía de la Pontificia Universidad Católica de Chile (UC) donde compartió con los estudiantes su trabajo sobre las mega inundaciones y deslizamientos en el desierto de Atacama.
El desierto de Atacama es el más árido del mundo, con una precipitación promedio anual de apenas 0.5 mm al año. Sin embargo, existe evidencia de que esta zona tuvo un clima bastante más húmedo, como por ejemplo los mega depósitos aluviales, los que son muy frecuentes hacia el interior. Un caso emblemático fue el del 18 de junio de 1991, cuando en Antofagasta una enorme inundación arrasó con buena parte de esta zona, dejando un saldo de 130 muertos y 400 casas destruidas. En esa ocasión, cayeron 42 mm en apenas 3 horas; 96% de esa agua correspondió solo a la primera hora de lluvia.
Averiguar las causas y características de estos eventos es precisamente el objetivo del trabajo de la Dra. Anne Mather, académica de la Universidad de Plymouth, Reino Unido, de visita en el Instituto de Geografía UC. “El desierto de Atacama es asombroso. Aún hay muchas cosas que no conocemos y que todavía no logramos comprender”, dijo la investigadora al comenzar su exposición en el marco del ciclo “Diálogos con la Geografía”. Precisamente, los mega deslizamientos e inundaciones gigantes que se han producido en la región durante su historia geológica reciente es uno de esos enigmas.
Como explicó la experta, el fenómeno se debe a que en la cordillera de Los Andes hay zonas muy profundas, donde se acumula gran cantidad de material (sedimentos, rocas, etc); como se encuentra en una zona muy árida, cuando cae más agua de lo normal este material se reblandece, provocando estas enormes inundaciones y deslizamientos.
Si bien en la actualidad estos aluviones ya no se producen, sí ocurre otra clase de fenómenos: deslizamientos costeros, los que están asociados a eventos sísmicos. Algunos casos son los ocurridos en Lluta, en el año 2010, donde se desplazaron nada menos que 26 kilómetros cúbicos de sedimentos y otros materiales; y Latagualla, con 5,4 kilómetros cúbicos de material desplazado.
¿Cuáles son las implicaciones para Chile? Como explicó la investigadora, la necesidad de generar respuestas a estos deslizamientos gigantes, contar con información nueva respecto de este fenómeno (ubicación, mecanismos, peligros), destacar el rol del clima controlando la efectividad de los procesos geomorfológicos, e identificar los principales mecanismos de transferencia de sedimentos.
En la oportunidad, la investigadora Laura Evenstar de la Universidad de Bristol, también hizo una presentación de los avances de su trabajo de postdoctorado respecto de la geología de Los Andes, denotando la importancia y factibilidad de la datación a través de la técnica de exposición a los rayos cosmogénicos para entender la variabilidad ambiental del desierto.

Fuente: UC/DICYT
21/11/2013, 20:25 -

Re: FORO-CIENCIA

#2873
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Carreras de espermatozoides en las que seleccionar a los mejores para la fecundación in vitro

BIOLOGÍA


Erkan Tüzel, a la izquierda, y James Kingsley examinan un componente de un clúster de ordenadores de alto rendimiento que se ha usado para ejecutar las simulaciones digitales. (Foto: WPI)

La Organización Mundial de la Salud estima que más de 70 millones de parejas por año en todo el mundo son incapaces de concebir, con cerca de un tercio de estos casos atribuible exclusivamente a problemas de fertilidad masculina, incluyendo un conteo bajo de espermatozoides y una baja motilidad (capacidad natatoria pobre).
Ahora, tras los alentadores resultados obtenidos por una nueva técnica, en fase de desarrollo, un equipo de investigadores del Instituto Politécnico de Worcester (WPI), en Massachusetts, Estados Unidos, ha recibido una subvención de la Fundación Nacional estadounidense de Ciencia (NSF) para perfeccionar un nuevo dispositivo que, dicho de forma simple, pone a los espermatozoides a competir en una carrera de obstáculos para seleccionar a los que más probablemente puedan fertilizar un óvulo.
La fertilización in vitro es la técnica de reproducción asistida más ampliamente utilizada y puede ser de gran ayuda para superar problemas de fertilidad masculina. Su potencial de éxito se incrementa significativamente cuando los espermatozoides pueden ser seleccionados de modo que sólo se usen los que ostenten la mayor salud y sean mejores nadadores. Desafortunadamente, las técnicas clínicas actuales para seleccionar espermatozoides son ineficientes o tienen bastantes probabilidades de dañar al ADN del espermatozoide.
Para resolver este problema de selección, se ha desarrollado un nuevo método que utiliza modelos matemáticos avanzados y simulaciones en clústeres de ordenadores de alto rendimiento para analizar y predecir cómo nadarán los espermatozoides bajo condiciones variables. La técnica es el resultado de la labor interdisciplinaria del equipo del físico Erkan Tüzel del WPI, y el Dr. Utkan Demirci, del BWH (Brigham and Women's Hospital) de Boston, en Massachusetts, Estados Unidos.
El laboratorio de Demirci está desarrollando dispositivos microfluídicos (del tipo a menudo referido como "laboratorio en un chip" por su óptima combinación de tamaño minúsculo y prestaciones enormes) para ensayar nuevos modos de clasificar y seleccionar espermatozoides.
A fin de representar de manera precisa y fiable en modelos digitales cómo se mueven los espermatozoides a través de los canales angostos de un dispositivo microfluídico, Tüzel y su equipo se valen de la dinámica de fluidos y de algoritmos desarrollados especialmente para este trabajo.
Tüzel utilizará las simulaciones para optimizar el diseño del chip seleccionador de espermatozoides. A medida que las simulaciones y el modelado computacional progresen, el laboratorio de Demirci probará los nuevos chips microfluídicos mejorados.
21/11/2013, 20:27 -

Re: FORO-CIENCIA

#2874
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Alterar los relojes biológicos de microalgas puede aumentar de modo espectacular su productividad

BIOLOGÍA


Cianobacterias antárticas. (Imagen: Cortesía del Instituto de Botánica de la Academia de Ciencias de la República Checa)

En una serie reveladora de experimentos, se ha comprobado que manipulando de modo adecuado los genes de los relojes biológicos de ciertas cianobacterias usadas en biotecnología se puede incrementar de manera espectacular su producción de sustancias con valor comercial.
Las cianobacterias (popularmente conocidas como algas verde-azules) con las que se experimentó habían sido alteradas genéticamente para que produjeran varias sustancias de interés.
Cuando los relojes biológicos de estas cianobacterias fueron detenidos de manera que permanecieran fijos en su franja temporal diurna, o sea la correspondiente a cuando el ambiente está iluminado por la luz solar, la cantidad producida de dichas sustancias se incrementó hasta en un 700 por ciento cuando se las cultivaba en un ambiente permanentemente iluminado.
En los últimos 10 años, el equipo de Carl Johnson, profesor de ciencias biológicas en la Universidad Vanderbilt, en Nashville, Tennessee, Estados Unidos, ha averiguado cómo detener los relojes circadianos en la mayoría de las especies de algas y en muchas plantas superiores. Todo apunta a que la técnica empleada debe ser aplicable a muchas especies.
Si se cumplen las expectativas, la detención del reloj biológico podría tener importantes beneficios económicos: Las microalgas se utilizan para una amplia gama de aplicaciones comerciales que van desde medicamentos contra el cáncer a cosméticos, pasando por bioplásticos, biocombustibles y nutracéuticos.
Además, las empresas de biotecnología se están apresurando a establecer "biofábricas" que utilizan microorganismos para crear una amplia gama de sustancias que son demasiado difíciles o costosas de sintetizar mediante métodos químicos convencionales. Muchas de esas biofábricas se basan en microorganismos que tienen relojes biológicos con funciones claras.
Con Johnson han colaborado Yao Xu, Ximing Qin y Jing Xiong, de la Universidad Vanderbilt, Philip Weyman y Qing Xu del Instituto J. Craig Venter en Rockville, Maryland, Estados Unidos, así como Hideo Iwasaki y Miki Umetani de la Universidad Waseda en Tokio, Japón.
21/11/2013, 20:29 -

Re: FORO-CIENCIA

#2875
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Descubrimiento en murciélagos de un coronavirus parecido al del temible SARS y transmisible a humanos

VIROLOGÍA


Los murciélagos de la especie Rhinolophus sinicus son receptores de un coronavirus recién descubierto, del mismo tipo que el del SARS. (Foto: Libiao Zhang, Instituto Entomológico de Guangdong / Instituto de China Meridional para Animales en Peligro de Extinción)

Diez años después del tristemente célebre brote epidémico del Síndrome Respiratorio Agudo Severo (SARS, por sus siglas en inglés) que surgió en Asia en 2002-2003, un grupo de investigadores cree haber hallado pruebas definitivas de transmisión directa de murciélago a humano.
EcoHealth Alliance, una organización sin ánimo de lucro dedicada a la conservación de la naturaleza y a cuestiones de salud global, y un grupo internacional de colaboradores, han anunciado el descubrimiento de un nuevo coronavirus parecido al del SARS, en la familia de murciélagos rinolófidos (Rhinolophidae), conocidos con nombres populares como murciélagos de herradura. El coronavirus descubierto en murciélagos de esa familia, particularmente en la especie Rhinolophus sinicus, se puede transmitir directamente al ser humano. Los autores del hallazgo, de instituciones de China, Australia, Singapur, y Estados Unidos, han publicado un informe sobre el hallazgo en la prestigiosa revista académica Nature.
El equipo de investigadores aisló y cultivó un virus vivo que se enlaza al ACE-2, un receptor celular humano utilizado por el coronavirus causante del SARS. Por tanto, queda bastante claro que es posible la transmisión vírica directa desde murciélagos a humanos.
Durante el brote original del SARS iniciado en los húmedos mercados de la provincia de Guangdong en China hace más de 10 años, se pensó que el virus presente en murciélagos infectó primero a civetas, y luego evolucionó para infectar a los seres humanos a través de ellas. El nuevo descubrimiento sugiere que el SARS pudo originarse directamente a partir de uno de estos virus de los murciélagos, lo que descarta a las civetas como implicadas en el proceso de transmisión.
"Desde el 2003, ha habido un desacuerdo en cuanto al origen del virus que evolucionó directamente hasta el coronavirus del SARS humano, el agente causante de la primera amenaza de pandemia emergente del siglo XXI. Aunque en 2005 nuestro equipo reportó que los murciélagos son reservorios naturales de los coronavirus del tipo del SARS, hemos estado buscando el eslabón perdido durante 10 años, y finalmente lo hemos encontrado" explica la Dra. Zhengli Shi, coautora del nuevo estudio, y Directora del Departamento de Enfermedades Infecciosas Emergentes del Instituto de Virología de Wuhan, dependiente de la Academia China de Ciencias.
21/11/2013, 20:31 -

Re: FORO-CIENCIA

#2876
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Supercomputadoras IBM Blue Gene resuelven un enigma de la física pendiente desde medio siglo atrás

FÍSICA


Las supercomputadoras empleadas para los cálculos de desintegración del kaón han sido de la célebre familia Blue Gene de IBM. (Foto: Laboratorio Nacional de Brookhaven)

Casi 50 años ha permanecido sin solución una importante cuestión de la física: ¿Por qué el universo está hecho de materia? Se supone que en el Big Bang, la explosión colosal con la que se formó el universo, se generaron cantidades iguales de materia y antimateria. Sin embargo, sin nada que hubiera inclinado la balanza a favor de la materia, ésta y la antimateria se habrían aniquilado entre sí, sin dejar nada de ellas. En vez de eso, el Big Bang condujo a un universo observable hecho principalmente de materia, con escasas y fugaces apariciones de partículas de antimateria. ¿Por qué?
Una posible explicación es un fenómeno subatómico que ejerce ese papel de balanza inclinada a favor de la materia, y del que se detectaron las primeras evidencias en 1964. Lo que se observó fue la desintegración de una partícula subatómica conocida como kaón, dando lugar a dos partículas llamadas piones. Los kaones y los piones (como muchas otras partículas) están compuestos de quarks. Comprender la desintegración del kaón por medio de su composición en quarks ha representado un difícil problema para la física teórica. Eso ha dificultado el desarrollo, y sobre todo la validación, de una teoría para explicar este proceso, o en otras palabras, la búsqueda de una descripción matemática que se pueda usar para calcular con qué frecuencia ocurre este fenómeno, así como para estimar hasta qué punto el fenómeno habría podido inclinar la balanza a favor de la materia en el universo temprano, explicando así quizás el desequilibrio que existe entre la materia y la antimateria en el universo.
Las ecuaciones matemáticas de la teoría que describe cómo los quarks y los gluones interactúan tienen una multitud de variables y de posibles valores para esas variables. Era inviable para la mente humana realizar esta cantidad ingente de cálculos. Ni una legión de científicos humanos lo habría conseguido. Por lo que no quedó más remedio que esperar a que el desarrollo de las supercomputadoras alcanzase el nivel de potencia suficiente y que entonces los científicos retomaran esa colosal tarea matemática. Unos físicos diseñaron los complejos algoritmos necesarios y escribieron el software que algunas de las supercomputadoras más potentes del mundo han usado ahora para describir la conducta de los quarks y resolver el problema.
En el software de los físicos, las partículas se colocan en una retícula de espacio-tiempo cuatridimensional imaginaria que consiste en las tres dimensiones espaciales más una para el tiempo. A un extremo del eje o dimensión que corresponde al tiempo se coloca el kaón, formado por dos tipos de quarks: un quark Strange y un quark Anti-Down, unidos gracias a la acción de los gluones. En el extremo contrario, los científicos colocaron los productos finales, lo que se traduce en los cuatro quarks que constituyen los dos piones. Entonces la supercomputadora calcula cómo el kaón se transforma en los dos piones a medida que avanza a través del espacio-tiempo.
Las supercomputadoras introdujeron decenas de miles de millones de números en la ecuación que describe esta parte del proceso para encontrar el resultado que debería reproducir los patrones de comportamiento y frecuencias observadas de la partícula en desintegración durante los experimentos.
El equipo de científicos que ha trabajado estrechamente con las supercomputadoras incluye a Taku Izubuchi, Christoph Lehner, Amarjit Soni, Christopher Kelly, Chulwoo Jung, Eigo Shintani, Hyung-Jin Kim, Ethan Neil, Taichi Kawanai y Tomomi Ishikawa.
Las supercomputadoras a las que se recurrió fueron de la célebre familia Blue Gene de IBM, alojadas en varias instituciones, entre ellas el Laboratorio Nacional de Brookhaven, en Upton, Nueva York, y el Laboratorio Nacional de Argonne en Illinois, ambos centros en Estados Unidos.
21/11/2013, 20:33 -

Re: FORO-CIENCIA

#2877
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Otros 33 satélites enviados al espacio en un solo vuelo

ASTRONÁUTICA


El Humsat-D. (Foto: U. de Vigo)

Mientras desde la estación espacial internacional se soltaba otro pequeño satélite, llamado TechEdSat-3p, a las 07:58 UTC del 20 de noviembre, un cohete Dnepr despegaba desde el cosmódromo de Dombarovsky (Yasniy, Rusia), el 21 de noviembre, llevando a bordo un total de 33 vehículos, superando el récord establecido 24 horas antes por un vector estadounidense Minotaur.
El despegue ocurrió a las 07:10 UTC y aún es pronto para saber si todos los viajeros lograrán evolucionar por separado como está previsto. La carga principal de la misión es el Dubaisat-2, un ingenio de unos 300 Kg de peso propiedad de los Emiratos Árabes, que estará dedicado a la observación de la Tierra. En el programa ha colaborado también Corea del Sur. Su principal función será la toma de imágenes mediante su cámara EOS-D.
Aprovechando la capacidad de carga del cohete Dnepr, se incluyeron a bordo otros 23 satélites, entre los cuales, uno, el Unisat-5, transportaría a su vez otros nueve aparatos. El total de la misión, por tanto, serían 33 satélites, quedando pendiente la confirmación de que todos se hayan podido separar conforme a lo previsto desde sus plataformas. El mayor de los vehículos secundarios es el STSat-3, de 150 Kg, de Corea del Sur, que también observará la Tierra. El resto son cubesats o minisatélites cuyas masas varían entre 1 y 100 Kg, con funciones diversas que van desde la astronomía a la meteorología, pasando por la tecnología y la ciencia. Son los siguientes: SkySat-1 (EEUU, de 100 Kg), AprizeSat-7 y 8 (EEUU, de 12 Kg cada uno), WNISAT-1 (Japón, 10 Kg), Lem (Polonia y Canadá, 10 Kg), GOMX-1 (Dinamarca, 2 Kg), Dove-3 (EEUU, 5 Kg), Delfi-3nXt (Holanda, 3 Kg), Triton-1 (Gran Bretaña, 3 Kg), KHUSAT-1 y 2 (EEUU, Gran Bretaña y Corea del Sur, 4 Kg cada uno), OPTOS (España, 3 Kg), Manolito (Argentina), Krysaor (Ecuador, 1 Kg), UWE-3 (Alemania, 1 Kg), VELOX-P2 (Singapur, 1 Kg), First-MOVE (Alemania, 1 Kg), FUNcube-1 (Gran Bretaña, 1 Kg), HINCube-1 (Noruega, 1 Kg), Tshepiso (Sudáfrica, 1 Kg), BPA-3 (Ucrania, forma parte del cohete), Unisat-5 (Italia, de 28 Kg), Dove-4 (EEUU, 5 Kg), ICUBESat-1 (Pakistán, 1 Kg), PUCPSat-1 (Perú, 1 Kg), Pocket-PUCP (Perú, 0,1 Kg), HUMSAT-D (España, 1 Kg), QBScout-1 (EEUU, 0,4 Kg), BeakerSat-1 (EEUU, 0,4 Kg), $50SAT (EEUU) y WREN (Alemania, 0,5 Kg).
Registrado:
30/04/2010
Gracias:
10/5
Mensajes
2085
BIOLOGIA Y CIENCIA

Las personas que juegan videojuegos muestran un crecimiento de la materia gris del cerebro

Los efectos de los videojuegos en las personas han sido ampliamente discutidos prácticamente desde que la popularidad de los primeros extendió su aparición en la vida diaria. Sin embargo, mientras detractores y partidarios dividen opiniones y cada quien expone sus puntos de vista con todo tipo de argumentos, ahora una investigación realizada por científicos alemanes puso en evidencia la relación entre ciertos juegos de video y el desarrollo del cerebro.

La investigación realizada por el Instituto Max Planck del Desarrollo Humano y la Universidad de Medicina St. Hedwig-Krankenhau en Berlín, demostró así la manera en la que los videojuegos hacen que crezcan ciertas partes del cerebro, sobre todo aquellas relacionadas con orientación espacial, la formación de la memoria y la planeación estratégica.

“Ciertas zonas del cerebro pueden ser entrenadas a través de videojuegos”, dijo Simone Küh, líder del experimento.

De esta manera, se demostró que las personas que juegan 30 minutos al día durante dos meses el título Super Mario 64 DS de Nintendo muestran un crecimiento de la materia gris, publicó la revista científica Molecular Psychiatry.

El estudio, por su parte, se realizó con un grupo de 23 adultos de 24 años de edad en promedio, al cual se le asignó la obligación de jugar media hora al día, durante un mes, las aventuras del fontanero más famoso del mundo en la consola portátil Nintendo DS. Mientras tanto, los resultados fueron comparados con los de un grupo de control que pasó el mismo tiempo sin jugar el título que Nintendo lanzó al mercado en 2004.

Después de los dos meses, los investigadores midieron el volumen del cerebro haciendo resonancias magnéticas. Así, en comparación con el grupo de control, los que jugaron videojuegos resultaron con mayor cantidad de materia gris.

Los cambios se notaron de manera más evidente en el hipocampo derecho, la corteza prefrontal derecha y el cerebelo. Estas zonas están involucradas en varias funciones del órgano, entre las que destaca el manejo de las manos. Por otra parte, entre más interés mostraban las personas de jugar, más desarrollo se veía.

Dicha correlación es explicada por los científicos como un sistema de recompensa del cerebro. Al disfrutar de una actividad como los juegos de video, el cerebro humano libera dopamina, un neurotransmisor que podría ser el responsable de causar el aumento de la materia gris y de crear un circuito de retroalimentación, despertando el deseo de jugar más.

Por otra parte, el hipocampo -una de las principales estructuras del cerebro humano, responsable de la formación de la memoria, así como de la conexión de la información sensorial a los recuerdos- podría desarrollarse junto con la corteza prefrontal debido a las asociaciones del jugador con su personaje.

Así, cuando el jugador dirige a un personaje del juego en un espacio tridimensional, activa las zonas correspondientes del cerebro para posicionarse en el mapa como si lo jugara en primera persona.

Sin embargo, lo más importante de los resultados de la investigación es el efecto de los videojuegos sobre ciertas zonas del cerebro. Basados en esto, los científicos y médicos podrán desarrollar juegos y actividades para desarrollar zonas específicas de este órgano y así tratar personas con problemas mentales.

De esta manera, problemas tales como desorden de estrés postraumático, esquizofrenia y enfermedades degenerativas, podrían ser tratadas de una manera revolucionaria y, sobre todo, bastante entretenida para los pacientes que presenten estos padecimientos.

No es la primera investigación que demuestra el vínculo entre el desarrollo del cerebro y los videojuegos. Meses antes ya habían sido dadas a conocer las ventajas de ser un jugador dedicado a Starcraft. Sin embargo, esta se trata de la primera vez que se puede ver cómo se produce y específicamente qué áreas del órgano son afectadas

Registrado:
30/04/2010
Gracias:
10/5
Mensajes
2085
CIENCIA Y BIOLOGIA

El nivel educativo de la madre moldea el cerebro del hijo.



El nivel educativo de la madre moldea el cerebro del hijo

El procesamiento deficiente de la información auditiva en el cerebro de adolescentes está vinculado con el bajo nivel educativo de la madre, según un estudio de la Universidad Nosthwestern (UN) en Illinois (E.U.).

Los adolescentes con madres de bajo nivel educativo “mostraron una actividad neural más ‘ruidosa’ que sus compañeros de clase aún cuando no había sonidos”, indicó Nina Kraus, profesora de ciencias de neurobiología, fisiología y comunicación en la UN y autora del estudio.

Asimismo, la respuesta neural de estos adolescentes cuando se les hablaba fue errática aún ante el estímulo repetido, y con una fidelidad más baja al sonido que recibían.

“Imagínese el ‘ruido’ neural como las interferencias en la radio que hacen casi inaudible la voz del locutor”, explicó Kraus.

El nivel educativo maternal se tomó como indicador del estatus socioeconómico para este estudio.

A los adolescentes se les dividió en dos grupos dependiendo de que sus madres tuvieran una educación completa de escuela secundaria o menos, o que hubiesen completado algunos estudios postsecundarios.

Los adolescentes cuyas madres tenían bajo nivel educativo mostraron respuestas neurales con más “ruido” cuando se les hablaba, y además su desempeño en las pruebas de lectura y trabajo de memoria fue deficiente.

El estudio tomó como antecedente una investigación de 1995 que mostró que los niños en familias de altos ingresos están expuestos a 30 millones de palabras más que los niños de familias que viven amparados por la asistencia social.

La reducción en la calidad y cantidad de lenguaje aportado, junto con una mayor exposición al sonido no estructurado, como el ruido ambiental, puede afectar la manera en que el cerebro representa la información auditiva.

Los científicos han indicado que los ambientes ruidosos incrementan el “ruido” neural y el nuevo estudio, que se publicará en la revista Journal of Neuroscience este miércoles, encontró que los adolescentes cuyas madres tienen bajo nivel educativo muestran un incremento de la actividad neural en ausencia de sonidos ambientales.

“Los modelos neurales indican que, cuando la información que llega a una neurona es más ruidosa, la tasa de activación se torna más variable lo cual, en última instancia, limita la información sensorial que puede transmitirse”, señaló el estudio.

Para este estudio se evaluó la actividad cerebral de adolescentes en las Escuelas Públicas de Chicago, casi todos ellos alumnos de noveno grado, en respuesta al estímulo auditivo y en ausencia del mismo
Fuente: laflecha.net

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO