PadreDeFamilia

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

Chincheta Autor Tema: FORO-CIENCIA  (Leído 862154 veces)

01/04/2013, 20:51 -

Re: FORO-CIENCIA

#2370
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Memorresistores, ¿sinapsis artificiales para una computadora capaz de pensar como un cerebro viviente?

COMPUTACIÓN


Un nanocomponente que es capaz de aprender: El memorresistor de la Universidad de Bielefeld, integrado en un chip, es 600 veces más delgado que un cabello humano. (Foto: Universidad de Bielefeld)

Los científicos llevan mucho tiempo soñando con construir una supercomputadora que funcione como un cerebro. Ello se debe a que un cerebro puede aprender por sí mismo, no necesita programación alguna, y consume una cantidad de energía muy inferior a la gastada por un ordenador.
Andy Thomas, de la Facultad de Física de la Universidad de Bielefeld, en Alemania, está experimentando con memorresistores. Estos son microcomponentes electrónicos que imitan a los nervios naturales. Thomas y sus colegas construyeron un año atrás un memorresistor capaz de aprender, en relación a las características de un impulso eléctrico. Thomas ahora está usando sus memorresistores como componentes clave del diseño de un cerebro artificial.
Los memorresistores están hechos de capas de materiales con un grosor nanométrico y pueden ser utilizados para conectar circuitos eléctricos. Al memorresistor se le considera cada vez más como el mejor equivalente electrónico de una sinapsis. Las sinapsis son, por así decirlo, los cables que conectan a unas neuronas con otras. Cuanto más se usa una conexión, más se fortalece.
Al igual que las sinapsis, los memorresistores aprenden a partir de impulsos anteriores. En su caso, estas señales son impulsos eléctricos que (todavía) no provienen de células nerviosas, sino de los circuitos eléctricos a los que están conectados. La cantidad de corriente que un memorresistor permite pasar depende de cuán fuerte fue la corriente que circuló anteriormente a través de él y de cuánto tiempo estuvo expuesto a ella.
Debido a su similitud con las sinapsis, los memorresistores son especialmente adecuados para la construcción de un cerebro artificial, una computadora con la misma arquitectura lógica de un cerebro viviente, lo que abriría una nueva y fascinante era en la computación y acaso volvería confusa la frontera entre la psique de un ser viviente y el pensamiento artificial.
En el aspecto práctico, un cerebro artificial sería una supercomputadora capaz de aprender sola.
Basándose en sus propios experimentos y en resultados de otras investigaciones en el campo de la biología y en el de la física, Thomas ha confeccionado un sumario de los principios tomados de la naturaleza que conviene transferir a sistemas tecnológicos para lograr que sea funcional esa computadora neuromórfica. (Se le llama neuromórfico a un ordenador hipotético que posea una arquitectura como la neuronal de un cerebro.) Uno de los requerimientos principales es que los memorresistores, al igual que las sinapsis, tienen que "recordar" impulsos anteriores. Otra propiedad destacada es que las neuronas reaccionan a un impulso sólo cuando éste supera cierto umbral.
Gracias a estas y otras características, es factible usar las sinapsis artificiales para reconstruir el proceso cerebral responsable del aprendizaje, en opinión de Thomas. Él expone como ejemplo el experimento psicológico clásico con el perro de Pavlov. Este experimento muestra cómo una reacción natural determinada se puede asociar con un estímulo que inicialmente es neutral pero que al presentarse siempre acompañado del estímulo que provoca la reacción, también acaba provocándola por sí solo; éste es el mecanismo que permite el aprendizaje. Si el perro ve comida, reacciona produciendo saliva. Si el perro escucha sonar una campana cada vez que ve comida, llegará un día en que el perro también producirá saliva cuando oiga sonar la campana, aunque no tenga comida a la vista. El mecanismo que permite esta asociación se reduce en última instancia a conexiones sinápticas entre neuronas.
Un circuito para lograr algo parecido se puede fabricar con memorresistores, y ese es el primer paso hacia un procesador neuromórfico, en opinión de Thomas.
Él argumenta que todo esto es posible gracias a que un memorresistor puede almacenar información con mayor precisión que los bits en los que se han basado los procesadores convencionales. Tanto un memorresistor como un bit trabajan con impulsos eléctricos. Sin embargo, un bit no admite pequeños ajustes; sólo puede estar en "1" o en "0". En cambio, un memorresistor puede aumentar o disminuir su resistencia de forma continua. "Así es cómo los memorresistores aportan una base para el aprendizaje y el olvido graduales en un cerebro artificial", dictamina Thomas.
02/04/2013, 19:08 -

Re: FORO-CIENCIA

#2371
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Un modelo predice que la población mundial dejará de crecer en 2050


DEMOGRAFÍA



Según las estimaciones de la Organización de las Naciones Unidas, la población mundial en 2100 se moverá en un horquilla entre los 15.800 millones de personas para la estimación más alta, y los 6.200 millones para la más baja, una cifra incluso por debajo de los 7.000 millones actuales.
Un modelo matemático desarrollado por un equipo de las universidades Autónoma de Madrid (UAM) y CEU-San Pablo (España) parece confirmar la estimación más baja, así como un descenso en el número de habitantes de la Tierra a partir de mediados de este siglo XXI.
Para realizar el estudio, que publica la revista Simulation, se han utilizado las series de población que ofrece la ONU entre los años 1950 y 2100. Después se han aplicado ecuaciones matemáticas que se usan en ámbitos científicos como la física de la materia condensada.
“Se trata de un modelo que describe la evolución de un sistema de dos niveles en el que hay una probabilidad de paso de uno a otro”, explica a SINC Félix F. Muñoz, investigador de la UAM y coautor del trabajo.
El equipo ha considerado la Tierra como un sistema cerrado y finito, donde no afecta que haya migraciones de personas en su interior, y donde se cumple el principio fundamental de conservación de la masa –biomasa en este caso– y la energía.
“Dentro de este principio general, las variables que limitan la zona superior e inferior de los dos niveles del sistema son las tasas de natalidad y de mortalidad”, señala Muñoz, quien recuerda el cambio que ha habido en la relación entre las dos variables a lo largo del último siglo.
“Partimos de una situación general de alta natalidad y alta mortalidad, con un crecimiento lento a favor de la primera –añade–, pero de pronto cae la mortalidad en la segunda mitad del siglo XX por las mejoras sanitarias y el aumento de la esperanza de vida, y parece que la población va a crecer mucho. Sin embargo en las tres últimas décadas también desciende mucho el número de niños que nacen en el mundo”.
La curva sigmoidea –en forma de S– del modelo refleja esta situación, con un punto de inflexión a mediados de los 80 del siglo pasado, donde la población comienza reducir su velocidad de crecimiento hasta llegar a estabilizarse en torno al año 2050.
Los datos también reflejan la tendencia a la baja en la serie de previsiones de la ONU. “La sobrepoblación era un fantasma en los 60 y 70, pero históricamente se han ido cumpliendo las previsiones de la variante de baja fertilidad de Naciones Unidas”, destaca Muñoz.
En una fecha tan cercana como 1992 se preveía que para 2010 habría 7.170 millones de habitantes en la Tierra, en lugar de los 6.800 millones reales. De hecho, la tasa de fertilidad ha caído más de un 40% desde 1950.
“Este trabajo es un elemento más de juicio para el debate, aunque nosotros no entramos en las importantes consecuencias económicas, demográficas y políticas que puede suponer la estabilización y envejecimiento de la población mundial”, concluye el investigador.

Fuente: SINC
02/04/2013, 19:10 -

Re: FORO-CIENCIA

#2372
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Onda de Rossby en la atmósfera de Júpiter

ASTRONOMÍA


El oscuro punto caliente en esta imagen con colores falsos tomada por la sonda espacial Cassini es una ventana hacia capas profundas de la atmósfera de Júpiter. Alrededor de él hay nubes más altas, con colores que indican a qué capa de la atmósfera pertenecen. (Imagen: NASA/JPL-Caltech/SSI/GSFC)

En la turbulenta atmósfera de Júpiter, los espacios vacíos sin nubes son tan excepcionales que los más grandes reciben el nombre especial de "puntos calientes". Cómo se forman exactamente estos claros o calveros y por qué se encuentran sólo en las proximidades del ecuador del planeta, han sido misterios muy debatidos por la comunidad científica. Ahora, valiéndose de imágenes captadas por la sonda espacial Cassini de la NASA, los científicos han encontrado nuevas evidencias respaldando la idea de que los puntos calientes en la atmósfera de Júpiter son creados por una Onda de Rossby, un patrón que en la Tierra interviene en la dinámica de la atmósfera y en la del mar.
Ésta es la primera vez que la forma de múltiples puntos calientes ha podido ser rastreada detalladamente durante un tiempo sustancial.
El equipo de Ashwin Vasavada, del Laboratorio de Propulsión a Chorro de la NASA, en Pasadena, California, y David Choi, del Centro Goddard de Vuelos Espaciales de la NASA, en Greenbelt, Maryland, Estados Unidos, generó filmaciones aceleradas, mediante la técnica de tomar una foto cada cierto periodo de tiempo y luego usarlas a modo de fotogramas, a partir de cientos de observaciones tomadas a fines del año 2000 por la sonda espacial Cassini cuando, en su viaje hacia Saturno, pasó muy cerca de Júpiter.
Abarcando un período de aproximadamente dos meses de observación, en el estudio se han examinado los cambios diarios y semanales en el tamaño y la forma de los puntos calientes, cada uno de los cuales ocupa un área más grande que América del Norte, por término medio.
La mayor parte de lo que se conocía sobre los puntos calientes se obtuvo a partir de la misión de la sonda espacial Galileo de la NASA. Dicha misión incluyó la liberación de una cápsula de descenso que se internó dentro de un punto caliente en 1995. Ésta ha sido la primera, y hasta ahora la única, investigación in situ de la atmósfera de Júpiter.
Como los puntos calientes son espacios sin nubes, proporcionan ventanas a través de las cuales es factible observar capas más internas de la atmósfera que normalmente no pueden ser observadas, incluyendo quizá la capa donde se forman nubes de agua. En las fotografías con luz visible, los puntos calientes aparecen oscuros, pero dado que las capas más profundas son más cálidas, en las fotos tomadas con luz infrarroja esos mismos puntos aparecen como zonas muy luminosas; de hecho, se les llama puntos calientes en un sentido bastante literal.
Una hipótesis para explicar su existencia es que los puntos calientes se forman cuando grandes masas gaseosas se hunden en la atmósfera y se calientan o pierden su humedad en el proceso. Pero la llamativa regularidad de los puntos calientes ha llevado a algunos investigadores a sospechar que hay una onda atmosférica involucrada en el proceso. Ciertos patrones de posicionamiento de los puntos calientes se podrían explicar por una onda que empuja el aire frío hacia abajo, despedazando las nubes locales, y haciendo ascender aire cálido. El trabajo con modelos digitales ha respaldado esta hipótesis.
Los investigadores han podido observar que los movimientos de los puntos calientes encajan con el patrón de una Onda de Rossby en la atmósfera. En la Tierra, las Ondas de Rossby desempeñan un papel importante en la meteorología. Una onda de este tipo viaja alrededor de nuestro planeta, pero periódicamente se desvía al norte y al sur.
En el caso de Júpiter, la onda responsable de la formación de los puntos calientes también circunvala al planeta de oeste a este, pero en vez de oscilar al norte y al sur, oscila hacia arriba y hacia abajo en la atmósfera. Los investigadores estiman que esta onda puede tener una amplitud entre el pico más alto y su valle más bajo de entre 24 y 50 kilómetros de altitud (entre 15 y 30 millas) aproximadamente.
La misión Cassini-Huygens es fruto de la cooperación entre la NASA, la Agencia Espacial Europea (ESA) y la Agencia Espacial Italiana.
02/04/2013, 19:14 -

Re: FORO-CIENCIA

#2373
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Reemplazar fecha de caducidad por un sensor ultrabarato que informe del estado real del alimento

INGENIERÍA


El dispositivo, en una versión todavía un tanto grande, pero que en su forma final será más pequeño. (Foto: Universidad Tecnológica de Eindhoven / Bart van Overbeeke)

Millones de toneladas de alimentos se desechan cada año por haber rebasado su fecha de caducidad o incluso la de consumo preferente. Pero esta fecha es siempre una estimación, relativamente conservadora porque está movida por la prudencia, lo que significa que mucha comida todavía en buen estado, se arroja a la basura. Por supuesto, aventurarse a comer productos caducados es arriesgado, y a veces puede no estar claro para el paladar humano si un alimento presenta o no indicios de riesgo de intoxicación alimentaria.
¿No sería útil si el propio envase pudiera analizar el contenido para informar de si todavía es apto y seguro para el consumo humano? Unos investigadores de la Universidad Tecnológica de Eindhoven en los Países Bajos, la Universidad de Catania en Italia, el Laboratorio de Innovación para las Tecnologías de Nuevas Energías y Nanomateriales (CEA-Liten) en Francia, y la compañía STMicroelectronics, han inventado un circuito que lo hace posible.
Este minúsculo dispositivo, que lleva sensores hechos de plástico, cuesta menos de un centavo de euro. Aparte de para vigilar el estado de alimentos, estos circuitos de plástico y costo ultrabajo tienen numerosos usos potenciales, incluyendo a los productos farmacéuticos.
Consumidores, supermercados y demás empresas del sector alimentario en los países desarrollados desechan una enorme cantidad de comida cada año, llegando a unos 100 kilogramos de alimentos por persona, principalmente porque se ha rebasado la fecha de consumo en el envase. Ese desperdicio es malo para los bolsillos de los consumidores y para el medio ambiente. Gran parte del origen de este despilfarro radica en la dificultad de estimar cuánto tiempo el alimento será realmente consumible. Para minimizar cualquier riesgo al vender alimentos a los consumidores, los productores tienden a recortar bastante la vida útil oficial del alimento, lo que se refleja en fechas de consumo preferente más cercanas que las hechas mediante estimaciones quizá más realistas.
Para combatir el desperdicio de alimentos envasados en buen estado, los fabricantes podrían incluir un chip sensor en el envase, capaz de medir, por ejemplo, el nivel de acidez de los alimentos. La información del sensor podría leerse con un escáner o con un teléfono móvil. Dicha información indicaría el grado de frescura del alimento contenido en el envase, o si un alimento congelado fue descongelado y luego recongelado.
En principio, en la actualidad esto ya es posible, usando dispositivos estándar basados en el silicio. El problema es que son demasiado caros. Fácilmente costarían diez céntimos de euro, un costo elevado para, por ejemplo, un sobre de embutido que se vende al público a medio euro.
El equipo de Eugenio Cantatore de Universidad Tecnológica de Eindhoven está ahora desarrollando dispositivos electrónicos hechos de plástico en vez de silicio. La ventaja es que estos nuevos sensores se pueden incluir fácilmente en los envases de plástico. El semiconductor de plástico puede incluso agregarse por impresión, como si fuera una tinta, sobre todo tipo de superficies flexibles, resultando así más barato de utilizar. Y es factible fabricar sensores con un costo inferior a un céntimo de euro.
02/04/2013, 19:16 -

Re: FORO-CIENCIA

#2374
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Nuevo y avanzado purificador de aire

INGENIERÍA


Virus. (Foto: CDC)

Un equipo de ingenieros ha culminado con éxito una serie de pruebas de la eficiencia de una nueva clase de tecnología de purificación de aire que podría proteger mejor a nuestros pulmones contra alérgenos, virus y partículas ultrafinas presentes en el aire.
Esta tecnología podría ayudar a prevenir infecciones respiratorias y virales, así como reacciones alérgicas provocadas por la inhalación de alérgenos, de manera más eficiente que lo conseguible mediante los sistemas actuales basados en filtros convencionales.
El dispositivo, conocido como SXC ESP, fue creado por un equipo dirigido por Pratim Biswas, de la Universidad Washington en San Luis, Misuri, Estados Unidos.
El nuevo dispositivo incorpora irradiación con rayos X de baja potencia como componente del proceso de precipitación electrostática que actualmente se usa para eliminar partículas grandes de los flujos de aire. Al incorporar la tecnología de precipitación electrostática mejorada con rayos X de baja potencia, se logra que las partículas con una gama amplia de tamaños adquieran carga eléctrica de manera muy eficiente y puedan ser capturadas en el SXC ESP.
El equipo de investigación expuso ratones con sistemas inmunitarios débiles a una corriente de aire que pasaba por un módulo donde dicho aire adquiría virus, alérgenos, gérmenes del ántrax maligno (carbunclo), de la viruela, y otras partículas. Estos ratones sensibles sobrevivieron, lo que indica que la eficacia del SXC ESP para eliminar estos agentes biológicos del aire fue muy alta.
Los purificadores de aire tradicionales son capaces de atrapar virus u otras partículas tóxicas en el filtro, pero en dicho filtro a menudo pueden sobrevivir y hasta crecer. El nuevo dispositivo atrapa al virus, partícula tóxica o agente de bioterrorismo, y lo inactiva en una sola aplicación.
A la postre, esta tecnología podría ser incorporada a purificadores de aire independientes, o usada en sistemas más grandes de regulación del aire en cabinas de aviones, edificios de oficinas y otros ambientes relativamente cerrados. La tecnología también podría ser incorporada en sistemas de calefacción, ventilación y aire acondicionado, a fin de añadirles esa interesante función de purificar el aire con una eficacia mayor de lo habitual.
La nueva tecnología podría ser usada además para filtrar los humos de los tubos de escape de motores diésel o de las chimeneas de algunas centrales eléctricas.
Michael Gidding y Daniel García, de la misma universidad, están trabajando en un prototipo que será puesto a prueba como sustituto de filtro de partículas para motores diésel.
03/04/2013, 19:58 -

Re: FORO-CIENCIA

#2375
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Los homínidos del norte de África ya actuaban como carniceros hace 1’8 millones de años

PALEOANTROPOLOGÍA


Marcas de corte sobre un fragmento de costilla de un hipopótamo. (Foto cedida por Mohamed Sahnouni)

Investigadores del Centro Nacional de Investigación sobre la Evolución Humana (Cenieh) de Burgos (España)  han hallado las primeras evidencias de uso de herramientas de piedra para extraer la carne animal de los huesos, tal y como lo realizan los carniceros actuales, en el yacimiento más antiguo del norte de África, el de El-Kherba (Ain Hanech), en Argelia, hace aproximadamente 1’8 millones de años. El trabajo ha sido publicado en la revista Journal of human evolution y se enmarca en un proyecto más amplio de investigación paleoantropológica, el Ain Hanech Paleoanthropological Project.
Mohamed Sahnouni, investigador del Cenieh y primer firmante del artículo, explica a DiCYT que este proyecto analiza las primeras ocupaciones humanas del norte de África y las adaptaciones de estos homínidos. El de El-Kherba es un yacimiento clave en este sentido, ya que cuenta con una rica cuenca sedimentaria con depósitos desde el Mioceno medio (hace unos 14 millones de años), hasta el Pleistoceno y el Holoceno (hace unos 11.700 años).
Los investigadores del Cenieh, que colaboran en la iniciativa con la Universidad Rovira i Virgili de Tarragona y con colegas argelinos, han hallado en este yacimiento unos extraordinarios depósitos de fósiles de mamíferos, “fauna de tipo sabana africana compuesta por elefantes, rinocerontes, bóvidos grandes y pequeños, carnívoros, y otra fauna que indica la presencia de agua”. El equipo científico ha analizado si existen modificaciones en estos huesos fósiles causadas por los homínidos, para saber si en aquel momento existía un consumo de estos animales, y han obtenido unos interesantes resultados.
“Hemos estudiado la composición anatómica de estos restos y también la composición taxonómica de la fauna, y todo indica que la acumulación de estos huesos fósiles está provocada por los homínidos, que vienen a este lugar donde había agua para la materia prima, para manufacturar artefactos líticos con filos muy eficaces para cortar la carne (hechos de caliza y sílex, como cantos tallados, poliedros, esferoides, lascas y varios fragmentos), un lugar con agua que atrae también a los animales”, detalla Sahnouni.
Tras observar al microscopio las superficies de estos huesos fósiles, han encontrado marcas “claras” de cortes que demuestran la utilización de artefactos líticos para extraer la carne animal, en lo que serían las evidencias más antiguas del norte de África. Los investigadores también han hallado pruebas del uso de estos artefactos hechos de caliza y sílex para cortar carne, a través del estudio microscópico de las huellas de trazas sobre las propias herramientas, principalmente las lascas, “un hecho muy raro, ya que hasta ahora no existe ningún yacimiento del que se tengan evidencias de las dos partes, tanto de los huesos como de los utensilios, en lo que reside la importancia de este estudio”, agrega el científico.
Así, “todo indica que los homínidos de este lugar, de hace cerca de 1’8 millones de años, eran capaces de tener acceso a la carne animal”. Los análisis realizados revelan que estos homínidos realizaban varias actividades carniceras como la evisceración, desarticulación, extracción de la carne, y la fractura de los huesos de grandes mamíferos para poder obtener la nutritiva médula.
Por otro lado, al encontrarse estas evidencias en el norte de África el artículo publicado concluye "que todo el continente africano es un lugar de adaptación y desarrollo del comportamiento de los primeros homínidos", y no solo el este del continente.
Además de la adquisición de comida y la forma de subsistencia de estos homínidos, objeto del artículo publicado, el Ain Hanech Paleoanthropological Project abre otras tres líneas de investigación: la cronología de las primeras ocupaciones humanas en esta parte de África, la reconstrucción del paleoambiente de este yacimiento, de hace unos dos millones de años, y el estudio de la tecnología lítica que utilizan estos homínidos así como aspectos de su inteligencia o adaptación al medio.

Fuente: Cristina G. Pedraz/DICYT
03/04/2013, 20:00 -

Re: FORO-CIENCIA

#2376
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Desarrollan biopolímeros de residuos agroindustriales de la yuca y el banano

BIOQUÍMICA


El biopolímero es caracterizado con un microscopio. A la derecha, la imagen microscópica de la bacteria Ralstonia euthopha, acumulando el biopolímero PHA en su estructura celular. (Foto: UDEA)

El hilo empleado para suturar una herida puede ser producido con biopolímero, es decir, una fibra elaborada a partir de microorganismos que actúan sobre residuos agroindustriales como la yuca agria o el banano de rechazo. Así, es más seguro que la costura quirúrgica sea biocompatible por tratarse de un producto biológico y cercano al funcionamiento humano. Por su condición biodegradable será absorbido fácilmente por el organismo.
Aunque parezca irreal, éste es uno de los desarrollos investigativos en los que trabaja el Grupo de Biotransformación de la Escuela de Microbiología de la Universidad de Antioquia, interesado en generar soluciones no solo favorables para el medio ambiente, sino también económicas y efectivas para reemplazar las toneladas de plástico que se usan todos los días en muchos productos de uso cotidiano e industrial.
Un ejemplo es el aprovechamiento de los residuos del banano y de la yuca agria, productos en abundancia en la zona bananera de Antioquia. Allí, gracias al trabajo de maestría de Mariana Cardona, profesora vinculada al Instituto de Microbiología, se ha logrado hacer uso de la bacteria Ralstonia euthopha para producir un biopolímero.
El proyecto, apoyado por el Programa Gestión Tecnológica y la Vicerrectoría de Investigación, incluye aplicar el mismo principio en otros sustratos como vinazas o residuos de la industria del etanol, de uso cotidiano en fábricas de licores. Además, a través de otras investigaciones se busca la producción de biopolímeros a partir de residuos del biodiesel.
“Tratar de reutilizar los residuos de la industria agrícola para producir este tipo de materiales, que tienen múltiples aplicaciones, es un trabajo no sólo promisorio, sino también muy grande”, dijo la doctora en ingeniería y coordinadora de la línea de biopolímeros del Grupo de Biotransformación de la Escuela de Microbiología, Lina María Agudelo Escobar.
Agudelo explicó que algunos microorganismos bajo condiciones específicas, pueden aprovechar una fuente de carbono, como por ejemplo, el azúcar, para transformarlo en un material polimérico y acumularlo en su interior, éste se recupera y se transforma obteniendo un biopolímero, con una aplicación especial porque dependiendo del microorganismo y de la fuente de carbono que se utiliza, se puede obtener una amplia variedad de estos materiales.
De acuerdo con Agudelo, el grupo trabaja en la línea de biopolímeros, buscando la producción de materiales con características como el poliéster, que puedan tener el potencial para ser usados en la fabricación de vasos desechables, bolsas y otros artículos que se producen actualmente con material plástico convencional derivado del petróleo.
“Lo que hacemos es tratar de obtener un material polimérico a través de materias primas renovables y de microorganismos que mediante procesos biotecnológicos como las fermentaciones, pueda tener el potencial de reemplazar el plástico producido a partir del petróleo”. El impacto es enorme si se tiene en cuenta que un vaso elaborado con biopolímero puede degradarse rápidamente en el ambiente, en un lapso inferior a un año; contrasta con el tiempo estimado de 10 a 500 años, que se demora en descomponerse un vaso desechable tradicional.
Esto sin contar con la reducción de riesgos contaminantes y que los biopolímeros pueden incidir favorablemente ante los efectos del cambio climático, especialmente por las características de su producción y su fácil biodegradación.
Cada vez se presenta una mayor exigencia legislativa frente al tema del reciclaje y existe una mayor consciencia de los consumidores frente a los componentes y la capacidad de reciclaje de los productos que compran. En un mundo donde el 50 por ciento de los materiales son plásticos y casi todo lo que existe es plástico “el reto es producir un material que tenga igual versatilidad y ofrezca las mismas ventajas del plástico, pero que sea menos contaminante”, advirtió Agudelo.
Los biopolímeros son productos verdes, pues su ciclo de vida es cerrado, su obtención se inicia potenciando el uso de los recursos naturales renovables de forma ética, tomando sólo los que son residuos para transformarlos y obtener productos útiles que pueden reemplazar muchos de los actuales productos que se encuentran en mercado. Al final de su vida útil, los biopolímeros son degradados y sus componentes son reabsorbidos por la naturaleza.
Este es un universo maravilloso si se tiene en cuenta que existen unos 300 microorganismos con potencial de producir unos 150 tipos de estructuras poliméricas diferentes, y que cada uno es particular y puede ofrecer múltiples alternativas al mercado de los plásticos.
En la Universidad de Antioquia, estos biopolímeros se estudian desde 2009, bajo el enfoque de biotecnología aplicada del grupo de investigación en el que realiza todo el bioproceso. Lo que busca es disminuir costos en la producción del biopolímero, mejorando todas las etapas del proceso. Para ello trabajan con materias primas renovables y menos costosas como los residuos agroindustriales; con cepas más productoras; en condiciones operacionales más favorables de temperatura, aireación, agitación, entre otras y también en la mejora de la recuperación del material.
"Desarrollamos procesos que sean factibles en la industria. El objetivo es mejorar todas estas etapas del proceso para obtener una cantidad suficiente de biopolímero que permita reemplazar en alguna proporción la demanda actual de plásticos”.
La filosofía del Grupo de investigación es el trabajo articulado e interdisciplinario entre microbiólogos, biotecnólogos e ingenieros, para generar desarrollos biotecnológicos aplicados que puedan ser implementados a nivel industrial y que ofrezcan alternativas de solución a problemas de gran impacto social.

Fuente: UDEA/DICYT
03/04/2013, 20:02 -

Re: FORO-CIENCIA

#2377
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
La tarántula utiliza la luz polarizada del cielo para conocer su posición respecto al nido

ZOOLOGÍA


Disposición de los 4 pares de ojos en el cefalotórax de la araña Lycosa tarantula. (Imagen: Joaquín Ortega Escobar, UAM)

Estudios experimentales de la Universidad Autónoma de Madrid (España) han contribuido a determinar el papel que juegan los ocho ojos de la tarántula cuando necesita orientarse para regresar a su nido. Sus resultados evidencian que utiliza la luz polarizada del cielo para resolver el problema de la determinación de su posición en relación con el nido y que captan esta luz solo por uno de los cuatro pares de ojos, los medianos anteriores.
“Estudios análogos de comportamiento guiado visualmente en la vuelta al nido se habían realizado hasta ahora sobre todo en insectos sociales como la abeja de la miel y hormigas del desierto, pero existen pocos análisis realizados en arañas”, explica Joaquin Ortega Escobar, investigador de la UAM especializado en los mecanismos de orientación de la tarántula.
La araña Lycosa tarantula posee cuatro pares de ojos   :o   jos medianos anteriores (OMA), ojos medianos posteriores (OMP), ojos laterales anteriores (OLA) y ojos laterales posteriores (OLP). ¿En el proceso de vuelta a casa, cuáles de los cuatro pares de ojos le sirven a la tarántula para determinar su posición en relación al nido y la distancia que ha recorrido?
Los estudios han evidenciado que, bajo condiciones naturales, la tarántula utiliza la luz polarizada del cielo para resolver el problema de la determinación de su posición respecto al nido. También han aclarado que el patrón de luz polarizada celeste es captado solo por uno de los cuatro pares de ojos con los que cuenta el artrópodo: los ojos medianos anteriores (OMA), que disponen de fotorreceptores adecuados para dicha percepción y su campo visual está dirigido hacia el cenit.
Según añade Ortega Escobar, “en el laboratorio ya habíamos logrado también determinar que era necesaria información lumínica para que el animal pudiera realizar el giro necesario para volver a su nido, y que esa información era captada únicamente por un par de ojos, los ojos laterales anteriores (OLA)”.
En un estudio más reciente, publicado en el Journal of Experimental Biology, el investigador constató un avance. En concreto, logró determinar cuál de los cuatro pares de ojos está implicado en la detección de los cambios visuales del sustrato sobre el que se desplaza el animal cuando vuelve a su nido.
Para determinar lo anterior, los animales fue entrenados a salir de su nido caminando sobre un sustrato consistente en una rejilla de bandas alternantes negras y blancas de una anchura de 3 milímetros, cuya orientación era perpendicular al sentido de desplazamiento de los animales.
Durante el experimento, la rejilla se giraba 90º de tal manera que su orientación quedara paralela a la dirección teórica de vuelta al nido. En los desplazamientos de entrenamiento, la dirección media hacia la que caminaban los animales no era estadísticamente diferente de la del nido. En los desplazamientos del test, la dirección media era estadísticamente diferente de la del nido.
El estudio planteó también la cuestión de a través de qué par de ojos se percibía el cambio de orientación del substrato. Para ello, se realizó el mismo experimento pero con un grupo de animales en el que los únicos ojos destapados eran los OLA, y otro grupo en el que los únicos ojos tapados eran esos mismos.
El resultado fue que el primer grupo no se orientaba con precisión hacia el nido, mientras que en el segundo grupo sí tenía una orientación precisa. Por lo tanto, concluye el investigador en su estudio, los animales que ven solo con los ojos laterales anteriores sí perciben la rotación del substrato, mientras que los que ven con el resto de los ojos se comportan como si no se hubiera rotado el substrato.

Fuente: Universidad Autónoma de Madrid
03/04/2013, 20:05 -

Re: FORO-CIENCIA

#2378
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Virus armado con un sistema inmunitario

MICROBIOLOGÍA


El sector vacío en esta colonia de bacterias, señalado por la flecha, es una "zona muerta" para las bacterias, debido a la presencia en ella de un tipo de virus bacteriófago. Si un bacteriófago puede además adueñarse de un sistema inmunitario para usarlo en su provecho, el resultado puede ser un arma vírica lo bastante potente como para atacar con éxito a bacterias que se han vuelto resistentes a los antibióticos. (Foto: CDC / Megan Mathias / J. Todd Parker)

Se ha comprobado que un virus que ataca a la bacteria del cólera ha "robado" un sistema inmunitario funcional de alguna bacteria y ahora lo está usando contra la bacteria del cólera. Es la primera evidencia de que un virus de esa clase, un bacteriófago, puede apoderarse de un sistema inmunitario adaptativo y plenamente funcional.
El bacteriófago estudiado fue observado usando ese sistema inmunitario para deshabilitar, y así derrotar, el sistema de defensa contra bacteriófagos que poseen las bacterias del cólera. En consecuencia, el bacteriófago así armado puede matar a las bacterias del cólera y multiplicarse para producir más bacteriófagos, los cuales a su vez pueden matar más de estas bacterias.
Lo comprobado en este estudio es de gran trascendencia para la terapia con bacteriófagos, la cual se basa en el uso de virus de este tipo para combatir enfermedades bacterianas. El desarrollo de la terapia con bacteriófagos es particularmente importante debido a que algunas bacterias se han vuelto resistentes a la mayoría o a todos los antibióticos actuales.
Hasta ahora, los científicos pensaban que los bacteriófagos existían sólo como partículas primitivas de ADN o ARN, y por tanto carecían de la sofisticación de un sistema inmunitario adaptativo, el cual es un sistema que puede responder con rapidez a una gama casi ilimitada de nuevos desafíos.
Los bacteriófagos son virus que atacan exclusivamente a bacterias, y cada bacteriófago sólo parasita a un tipo específico de bacterias.
Este nuevo estudio se centró en un bacteriófago que ataca a la Vibrio cholerae, la bacteria responsable de las epidemias de cólera en los humanos.
El equipo de Andrew Camilli, del Instituto Médico Howard Hughes, en Chevy Chase, Maryland, y de la Universidad Tufts en Boston, Massachusetts, ambas instituciones en Estados Unidos, hizo el sorprendente descubrimiento a raíz de la identificación de genes de un sistema inmunitario funcional hallado previamente sólo en algunas bacterias y arqueas (éstas últimas son un dominio separado de microorganismos unicelulares) que hizo la investigadora Kimberley D. Seed cuando estaba analizando secuencias de ADN de bacteriófagos provenientes de pacientes con cólera en Bangladesh.
A fin de comprobar el alcance del hallazgo, los investigadores usaron bacteriófagos, carentes del sistema inmunitario adaptativo, para infectar a una nueva cepa de las bacterias del cólera que es resistente de manera natural a los bacteriófagos. Estos bacteriófagos no pudieron adaptarse y matar a esta cepa bacteriana. Luego, los investigadores infectaron esa misma cepa de bacterias del cólera con bacteriófagos que sí poseían el sistema inmunitario, y observaron que los bacteriófagos se adaptaban rápidamente y así obtenían la capacidad de matar a estas bacterias del cólera.
Esta investigación demuestra que el sistema inmunitario que estos bacteriófagos poseen es plenamente funcional y adaptativo.
Prácticamente todas las bacterias pueden ser infectadas por bacteriófagos. Cerca de la mitad de todas las bacterias conocidas en el mundo tienen este sistema inmunitario adaptativo, llamado CRISPR/Cas, que se utiliza principalmente para proporcionar inmunidad contra bacteriófagos. Aunque este sistema inmunitario fue usurpado por los citados bacteriófagos, su origen sigue siendo un misterio, debido a que la bacteria del cólera carece en la actualidad de este sistema. Lo realmente notable es que el sistema inmunitario está siendo usado por estos bacteriófagos para adaptarse y superar a los sistemas de defensa de las bacterias del cólera. Encontrar un sistema CRISPR/Cas en un bacteriófago demuestra un flujo de genes entre el bacteriófago y alguna bacteria, incluso para algo tan grande y complejo como el conjunto de los genes que codifican para un sistema inmunitario adaptativo.
Este estudio da credibilidad a la controvertida idea de que los virus son seres vivos. También refuerza la posibilidad de usar la terapia con bacteriófagos para tratar infecciones bacterianas, especialmente las que son resistentes a los antibióticos. Armar con un sistema inmunitario a los virus que son los enemigos naturales de bacterias que causan enfermedades a los humanos, sería una opción atractiva para atacar a bacterias farmacorresistentes.
En la investigación también han trabajado David W. Lazinski de la Universidad Tufts, y Stephen B. Calderwood de la Escuela Médica de la Universidad de Harvard y del Hospital General de Massachusetts, ambas instituciones en la ciudad estadounidense de Boston.
03/04/2013, 20:07 -

Re: FORO-CIENCIA

#2379
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Logran controlar un interruptor genético para "rejuvenecer" un cerebro maduro


NEUROLOGÍA


Una neurona cultivada. (Foto: Universidad de Yale)

La activación de cierto gen ayuda de forma decisiva a crear las conexiones neuronales maduras que permiten al cerebro pasar de la impresionabilidad adolescente a la estabilidad adulta. Recientemente, unos investigadores han conseguido invertir el proceso en cerebros de ratones adultos, recreando la estructura de un cerebro joven con su consiguiente mejora en la capacidad de aprendizaje así como en la de curación ante una lesión cerebral.
Los científicos han sabido durante mucho tiempo que el cerebro de un adolescente es muy distinto al de un adulto. Uno y otro tienen sus ventajas y desventajas. Entre las ventajas del cerebro adolescente figura la de que es más maleable o adaptable, una cualidad que permite a niños y adolescentes aprender idiomas más rápidamente que a la persona adulta típica. Otra ventaja del cerebro joven es que se recupera con más rapidez de lesiones cerebrales. En contraste, la relativa rigidez del cerebro adulto se debe en parte a la función de un solo gen que ralentiza el cambio rápido en las conexiones sinápticas entre neuronas.
Mediante el control de las sinapsis en ratones vivos durante semanas y meses, unos investigadores de la Escuela de Medicina de la Universidad de Yale, en New Haven, Connecticut, Estados Unidos, han identificado el interruptor genético clave para la maduración del cerebro. El gen NgR1 se requiere para suprimir los altos niveles de plasticidad en el cerebro adolescente y crear los niveles de plasticidad relativamente lentos que son típicos de la edad adulta.
En los ratones sin la actividad de este gen, los niveles juveniles de plasticidad cerebral persisten a lo largo de la vida adulta. Cuando los investigadores bloquearon la función de este gen en ratones viejos, restablecieron en el cerebro viejo el grado de plasticidad que es típico de los cerebros adolescentes de ratón.
La rehabilitación que viene después de sufrir lesiones cerebrales, incluyendo las provocadas por un derrame cerebral, requiere que los pacientes reaprendan tareas tan simples como mover una mano. El equipo de Stephen Strittmatter, Feras Akbik, Sarah M. Bhagat, Pujan R. Patel y William B.J. Cafferty, constató que los ratones adultos que carecen del gen NgR1 se recuperaron de una lesión cerebral en plazos de tiempo similares a los de ratones adolescentes en la misma situación. Los ratones adultos sin actividad del gen dominaron de nuevo las tareas motoras complejas antes que los adultos en los que sí actuaba el gen.
Esto plantea la posibilidad de que, mediante la manipulación temporal del gen en los humanos se pueda acelerar y ampliar la rehabilitación después de una lesión cerebral.
Los investigadores también han demostrado que el gen NgR1 disminuye la pérdida de recuerdos. Los ratones sin el gen pierden los recuerdos desagradables más rápidamente que los ratones en los que sí actúa el gen. Esto sugiere que manipular del modo apropiado al gen podría ayudar a tratar el trastorno de estrés postraumático.
03/04/2013, 20:21 -

Re: FORO-CIENCIA

#2380
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Dotar de estrategias manuales humanas a los robots

ROBÓTICA



Nuevos algoritmos podrían ayudar a los futuros robots domésticos multiuso a trabajar en las condiciones cambiantes e impredecibles de una vivienda ocupada por humanos.
Un hogar habitado por personas, sobre todo si entre ellas figuran niños o sujetos muy desordenados, es para un robot convencional un entorno caótico, del todo distinto al ambiente ordenado y cuadriculado de una cadena de montaje en una fábrica.
Buena parte de la actividad de los robots industriales actuales, incluyendo al típico brazo robótico universal, consiste en agarrar un objeto de un sitio y colocarlo en otro punto. Por lo general, los objetos, tales como componentes de automóviles en una cadena de montaje, están colocados de modo que el brazo los puede coger con facilidad; el diseño del apéndice que hace el agarre incluso puede responder a la forma de los objetos.
Sin embargo, los robots domésticos multiuso tendrían que ser capaces de manipular objetos de muy variadas formas, dejados en cualquier lugar, incluso tirados de cualquier manera en los sitios más inapropiados. Y en la actualidad, la destreza de los robots disponibles comercialmente está lejos de la de la mano humana. Sin embargo, no es imprescindible dotar a los robots de manos sofisticadas y carísimas, si se les enseña a usar sus manos rudimentarias de manera ingeniosa. Las estrategias usadas para manipular objetos por una persona que, por ejemplo, lleva las manos enfundadas en guantes gruesos o las tiene parcialmente ocupadas sosteniendo objetos, les pueden ser muy útiles a esos robots modestos.
Tomando como punto de partida esta idea, Jennifer Barry y Annie Holladay, dos imaginativas robotistas del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, han desarrollado nuevos algoritmos para que robots multiuso domésticos superen mediante estrategias humanas las limitaciones de sus manos artificiales.
El algoritmo presentado por Jennifer Barry permite a un robot empujar un objeto por la superficie de una mesa, de modo que parte de él quede por fuera del borde, donde se le puede agarrar más fácilmente. Es una táctica parecida a la que los humanos usamos para recoger con rapidez monedas pequeñas depositadas en una mesa.
El algoritmo presentado por Annie Holladay permite a un robot de dos brazos utilizar una de sus pinzas para impedir que se vuelque el objeto que está colocando en su sitio con la otra pinza. Esta forma de proceder también es muy típica de la conducta humana.

[youtube]http://www.youtube.com/watch?feature=player_embedded&v=xJg9YcO1lfc[/youtube]
03/04/2013, 20:23 -

Re: FORO-CIENCIA

#2381
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Ver a través de las llamas

INGENIERÍA


Para ver a través del humo, los científicos emplean lentes que recolectan y enfocan la luz, pero usar esta misma técnica con llamas provoca que algunas áreas de la imagen resultante queden saturadas, como se aprecia en la imagen de arriba. El nuevo sistema no emplea una lente, de modo que la luz recolectada es distribuida sobre el conjunto completo de píxeles de la cámara, como se muestra en la imagen de abajo, evitando dicha saturación y los puntos ciegos que ésta produce. (Imagen: Optics Express, Optical Society)

Los bomberos arriesgan sus vidas en escenarios tan peligrosos como el interior de un edificio en llamas. Sin embargo, uno de sus mayores retos es ver a través de densos velos de humo y fuego para encontrar personas que necesitan ser rescatadas. Un equipo de investigadores italianos ha desarrollado una nueva técnica de obtención de imágenes que usa holografía digital infrarroja para poder ver a través de las llamas y el humo y así percibir detalles que puedan servir para salvar vidas y que de otro modo les resultaría imposible captar.
Los bomberos pueden ver a través del humo usando cámaras infrarrojas convencionales. Sin embargo, estos instrumentos quedan cegados por la intensa radiación infrarroja emitida por las llamas, que satura la definición de los sensibles detectores y limita su uso en la práctica. Las cámaras infrarrojas no pueden "ver" objetos o personas situadas detrás de las llamas.
Empleando una técnica especial que no requiere lentes, el equipo de Pietro Ferraro del Instituto Nacional de Óptica del Consejo Nacional italiano de Investigación (CNR, por sus siglas en italiano), ha creado un sistema que puede lidiar con el torrente de radiación infrarroja de un recinto lleno de llamas y con el humo.
Y, quizá tan importante como las cualidades citadas, Ferraro y sus colaboradores han demostrado por vez primera que se puede lograr una grabación holográfica de una persona aunque ésta se esté moviendo.
La holografía permite producir una imagen 3D de un objeto. Para crear un holograma, como los que aparecen comúnmente en las tarjetas de crédito, se divide un haz láser en dos (un haz de objeto y un haz de referencia). El haz de objeto se proyecta sobre el objeto para el cual se quiere crear el holograma. Cuando el haz de objeto reflejado se recombina con el haz de referencia, se crea un patrón de interferencia que codifica la imagen 3D.
En el nuevo sistema del equipo de Ferraro, se dispersa un haz de láser infrarrojo por toda una sala. A diferencia de la luz visible, que no puede atravesar el humo denso ni las llamas, la luz infrarroja los puede atravesar casi sin obstáculos. Sin embargo, la luz infrarroja sí se refleja en cualquier persona u objeto sólido en la habitación, y la información que transporta esta luz reflejada es registrada por un dispositivo holográfico. Luego, es descodificada para revelar los cuerpos sólidos situados detrás del humo y las llamas. El resultado es una película 3D en vivo de la sala y su contenido.
El siguiente paso para llevar a la práctica esta tecnología es desarrollar un sistema portátil que utilice un trípode y que albergue tanto la fuente del láser como la cámara infrarroja. Los sistemas de este tipo también podrían ser adecuados para instalarlos de forma permanente dentro de edificios o túneles.
04/04/2013, 20:05 -

Re: FORO-CIENCIA

#2382
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Detectada la mayor cantidad de antimateria en el espacio

ASTROFÍSICA


El espectrómetro AMS (arriba en el centro) sobre la Estación Espacial Internacional. (Foto: NASA)

Los primeros resultados sobre la búsqueda de materia oscura que el Espectrómetro Magnético Alfa (AMS) está efectuando desde la Estación Espacial Internacional revelan un exceso de positrones –la antipartícula del electrón– en el flujo de rayos cósmicos.
El estudio se publicará en la revista Physical Review Letters, pero el portavoz de la colaboración científica AMS, el profesor Samuel Ting, lo acaba de presentar en el Laboratorio Europeo de Física de Partículas (CERN).
El exceso o pico de positrones hace referencia a su proporción respecto al número de electrones en determinadas franjas de energía. En concreto han aparecido 400.000 positrones con energías entre 0,5 y 350 gigalectronvoltios (GeV) entre los 25.000 millones de eventos registrados durante año y medio.
Esto representa la mayor colección de partículas de antimateria registrada hasta ahora en el espacio. La fracción de positrones se incrementa desde los 10 a los 250 GeV, y los datos no muestran variaciones significativas a lo largo del tiempo ni muestran una dirección de entrada preferente.
"Se trata de la más precisa medición del flujo de positrones de rayos cósmicos hasta la fecha”, destaca Ting, quien confía en que durante los próximos meses “AMS sea capaz de concluir si estos positrones son una señal de la materia oscura o si tienen otro origen".
Los rayos cósmicos se cargan de partículas de alta energía que permean el espacio. El exceso de antimateria en estos rayos se observó por primera vez hace dos décadas, y hasta ahora se han planteado dos hipótesis sobre su origen.
Una posibilidad, predicha por la teoría conocida como supersimetría, es que los positrones se producen cuando dos partículas de materia oscura colisionan y se aniquilan. La segunda hipótesis señala que los positrones proceden de púlsares, estrellas de neutrones distribuidas por todo el plano galáctico que emiten radiación de forma periódica.
Los datos de AMS son consistentes con el primer planteamiento, aunque tampoco descartan la segunda explicación. "Es el primer experimento para medir con un 1 % de precisión en el espacio, un nivel de exactitud que nos permitirá saber si nuestra observación de positrones actual tiene un origen en la materia oscura o un púlsar", dice Ting.
Las teorías de supersimetría también predicen un corte a altas energías por encima del rango de masas de las partículas de materia oscura, y esto aún no se ha observado. En los próximos años, AMS mejorará la precisión de la medición, y clarificará el comportamiento de la fracción de positrones a energías por encima de 250 GeV.
La materia oscura es uno de los misterios más importantes de la física actual. Representa más de un cuarto del equilibrio masa-energía del universo. Se puede observar indirectamente a través de su interacción con la materia visible, pero todavía no se ha detectado de forma directa.
Las búsquedas de materia oscura se llevan a cabo con experimentos en el espacio, como AMS, pero también en la Tierra con el Gran Colisionador de Hadrones (LHC) del CERN y dispositivos instalados en laboratorios subterráneos de diversas partes del mundo.
"El resultado de AMS es un gran ejemplo de la complementariedad de los experimentos en la Tierra y el espacio", comenta el director general del CERN, Rolf Heuer, quien confía en el trabajo conjunto para resolver el enigma de la materia oscura “en algún momento en los próximos pocos años".
En la colaboración AMS participa España a través del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT) y el Centro para el Desarrollo Tecnológico Industrial (CDTI).

Fuente: CERN/SINC
04/04/2013, 20:07 -

Re: FORO-CIENCIA

#2383
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Aclaran el papel de la agricultura en el Perú de 5.000 años atrás

ARQUEOLOGÍA


Las excavaciones en Caballete proporcionaron al equipo de investigación una de las principales fuentes de coprolitos y herramientas albergando evidencias de uso del maíz. (Foto: Jonathan Haas)

Durante décadas, los arqueólogos han tratado de averiguar cómo apareció una civilización distintiva en América del Sur durante la época de la historia americana conocida como el Periodo Arcaico Tardío (3000-1800 a.C.) en el Perú. Una de las preguntas más importantes es cuál fue el papel de la agricultura, particularmente del maíz, en la evolución de sociedades tan complejas y centralizadas como las que surgieron en el Perú de milenios atrás. Hasta ahora, la teoría más aceptada era que fueron los recursos marinos, no la agricultura ni el maíz, el motor económico del desarrollo de la civilización en la región Andina del Perú.
La verdadera respuesta a esa pregunta está ahora emergiendo gracias a nuevos y esclarecedores detalles aportados por un análisis de restos microscópicos presentes en ciertos suelos, así como en antiguas herramientas de piedra y en coprolitos.
El equipo de Jonathan Haas, conservador del Museo Field de Chicago, Estados Unidos, se centró en yacimientos arqueológicos ubicados en los valles desérticos de Pativilca y Fortaleza, al norte de Lima. Los arqueólogos estudiaron un total de 13 yacimientos. Los más estudiados fueron los de Caballete, aproximadamente 10 kilómetros (6 millas) tierra adentro desde el Océano Pacífico, y Huaricanga, aproximadamente 23 kilómetros (14 millas) tierra adentro.
Después de años de estudio, Haas y sus colegas han llegado a la conclusión de que durante el Arcaico Tardío, el maíz (la especie Zea mays) fue en realidad un componente esencial en la dieta de los pobladores de la región del Norte Chico del Perú, una zona que registró un notable florecimiento cultural en el tercer milenio a.C.
Este nuevo conjunto de evidencias demuestra claramente que la precoz aparición de la civilización en América del Sur estuvo basada en la agricultura, como sucedió con las otras grandes civilizaciones de Mesopotamia, Egipto, India y China.
Todo el trabajo botánico realizado en este proyecto se llevó a cabo en el Laboratorio de Palinología y Paleobotánica de la Universidad Peruana Cayetano Heredia, bajo la dirección de Luis Huamán. El análisis de los restos botánicos fue una colaboración entre Huamán, David Goldstein del Servicio de Parques Nacionales de los Estados Unidos, Karl Reinhard de la Universidad de Nebraska, Estados Unidos, y Cindy Vergel de la Universidad Peruana Cayetano Heredia. El proyecto fue codirigido por Haas y Winifred Creamer de la Universidad del Norte de Illinois, en Estados Unidos.
04/04/2013, 20:10 -

Re: FORO-CIENCIA

#2384
Registrado:
22/01/2008
Gracias:
1034/226
Mensajes
74395
Paso clave para desentrañar el misterio de los superconductores de alta temperatura

CIENCIA DE LOS MATERIALES


El nuevo método de los investigadores del MIT para observar el movimiento de las ondas de densidad en un material superconductor llevó a la detección de dos tipos diferentes de variaciones en esas ondas: Cambios en la amplitud, o intensidad, y cambios de fase. (Imagen: Cortesía de los investigadores)

Aunque el fenómeno de la superconductividad (en el que algunos materiales pierden su resistencia eléctrica cuando son sometidos a temperaturas extremadamente bajas, cerca del Cero Absoluto) se conoce desde hace más de un siglo, la temperatura a la que dicho fenómeno aparece en los materiales probados hasta ahora ha seguido siendo demasiado baja como para usarlo en aplicaciones prácticas a gran escala.
El hallazgo de superconductores de "alta temperatura" en la década de 1980 (materiales que pueden perder su resistencia eléctrica a temperaturas tan "altas" como 140 grados centígrados bajo cero) hizo que se especulara sobre una posible oleada de nuevos descubrimientos que condujeran rápidamente a superconductores capaces de funcionar a temperatura ambiente. A pesar de la intensa labor de investigación realizada en esa dirección, es muy poco lo que se ha logrado averiguar sobre estos materiales en los años transcurridos desde entonces.
Todavía no hay consenso para forjar una única teoría que explique la superconductividad de alta temperatura. Recientemente, sin embargo, unos investigadores han encontrado una nueva forma de estudiar las ondas fluctuantes de densidad de carga, las cuales son la base de una de las principales teorías. Los investigadores creen que esto podría ayudar a conocer mejor la superconductividad de alta temperatura y tal vez conducir a nuevos hallazgos de superconductores a temperaturas más altas.
Explicar el fundamento esencial de la superconductividad de alta temperatura sigue siendo un problema difícil en la física. Pero un modo de intentar esclarecer este exótico estado de la materia es estudiar qué le sucede a estos materiales cuando están cerca de su temperatura de transición, el punto por debajo del cual se convierten en superconductores.
Experimentos anteriores habían mostrado que por encima de la temperatura de transición existe un estado peculiar en que el material comienza a comportarse de forma muy rara: Sus electrones actúan de maneras inusuales, algo que algunos físicos creen que es causado por un fenómeno vinculado a las ondas de densidad de carga. Aunque la densidad de electrones es uniforme en la mayoría de los conductores, en materiales con ondas de densidad de carga la densidad se distribuye en un patrón sinusoidal, de modo semejante a ondas en un estanque al que se ha tirado una piedra. Pero hasta el momento, sólo se han detectado tales ondas de densidad de carga en superconductores de alta temperatura sometidos a circunstancias especiales, tales como un nivel particular de dopaje (la introducción de átomos de otro elemento en su superficie).
Algunos investigadores han propuesto que estas ondas son difíciles de detectar en los superconductores de alta temperatura porque fluctúan con mucha rapidez, en cuestión de picosegundos (billonésimas de segundo), algo demasiado fugaz para ser percibido mediante técnicas convencionales.
Aquí es donde entra en escena el nuevo enfoque del equipo de Nuh Gedik y Fahad Mahmood, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Darius Torchinsky del Instituto Tecnológico de California (Caltech), y Anthony Bollinger e Ivan Bozovic del Laboratorio Nacional de Brookhaven, en Upton, Nueva York, en Estados Unidos todas estas instituciones.
Este grupo ha dedicado años a perfeccionar métodos para estudiar el movimiento de los electrones mediante la estrategia de disparar contra ellos pulsos láser de sólo unos pocos femtosegundos (milbillonésimas de segundo), y detectar los resultados de esa acción recurriendo a un haz láser distinto.
Usando esta técnica, los investigadores han detectado ahora esas intrigantes ondas fluctuantes. O por lo menos las han detectado en el compuesto de cuprato con el que han hecho los experimentos, y que pertenece a la clase de materiales superconductores de alta temperatura que fue la primera en ser descubierta, en la década de 1980.
Estas mediciones muestran a ondas de densidad de carga fluctuando a un intervalo de sólo unos 2 picosegundos.
Quedaba pendiente otra cuestión: ¿Qué papel, de existir alguno, desempeñan estas ondas de densidad de carga en la superconductividad? ¿Ayudan o interfieren? Para responder a esta pregunta, los investigadores estudiaron el mismo material, con un dopaje óptimo, en el que se maximiza la temperatura de transición a la superconductividad. Y no han visto evidencia alguna de ondas de densidad de carga en esta muestra. Esto sugiere que las ondas de densidad de carga probablemente compiten con la superconductividad.
Sí queda pendiente de averiguar si este mismo fenómeno se puede observar en otros materiales superconductores de alta temperatura. La nueva técnica debería hacer posible aclarar la cuestión.

QVIART DUAL : SATELITE 4K ANDROID 9.0 DVB-S2X+DVB-T2+DVB-C+IPTV

 

GoogleTagged





PadreDeFamilia
!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción. ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL. EN ESTOS FOROS NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.
PROHIBIDA LA PUBLICACIÓN DE ENLACES A FIRMWARES ILEGALES
LOS FOROS NO SON MONITORIZADOS DE MANERA CONSTANTE, CUALQUIER INFORMACIÓN QUE PUEDAS CONSIDERAR ILEGAL REPORTALA A LA ADMINISTACIÓN DEL FORO