sábado, 30 de junio de 2012

Cristales fotónicos en los ojos permiten al pez elefante ver en la oscuridad

Pez elefante. Imagen: Gerhard von der Emde
En un ambiente turbio y oscuro puede ser de gran utilidad ver mejor que el resto de animales. Un equipo de científicos ha descubierto una estructura en la retina del pez elefante que le permite ver utilizando los dos tipos de fotorreceptores del ojo, conos y bastones, a la vez.
El pez elefante tiene una nariz en forma de trompa y habita en las aguas dulces, cálidas y poco iluminadas de África. Estos vertebrados utilizan impulsos eléctricos para interaccionar con el medio que les rodea pero, a diferencia de otros animales completamente adaptados a la oscuridad, tienen ojos y dependen de su visión para orientarse.
“El ojo de este pez tiene una estructura muy peculiar que le permite ver de manera fiable grandes objetos en movimiento, como por ejemplo depredadores, en un ambiente oscuro en el que apenas se distinguen formas borrosas”, explica a SINC Andreas Reichenbach, investigador de la Universidad de Leipzig y uno de los autores del estudio que se publica en Science.
El equipo de Moritz Kreysing, investigador de la Universidad de Cambridge, ha demostrado que la retina del pez elefante (Gnathonemus petersii) está organizada de manera que los dos tipos de fotorreceptores, bastones y conos, funcionan a la vez. “Los conos están agrupados dentro de una estructura en forma de taza formada por una serie de cristales parabólicos que reflejan la luz, y los bastones están detrás de estos reflectores”, explica Reichenbach.
Esta estructura es capaz de multiplicar por 10 la intensidad lumínica que percibe. “Es la primera vez que se documenta una amplificación tan grande –afirma Reichenbach–. El ojo del gato, como mucho, puede multiplicar la percepción de la luz por dos”.

Un ojo muy especial

La retina de casi todos los vertebrados contiene dos tipos de fotorreceptores que se activan ante intensidades distintas de luz. “Durante la noche los bastones detectan la poca claridad que hay, mientras que durante el día están saturados y la visión corre a cargo de los conos”, señala Reichenbach.
En realidad, los científicos afirman que hay “un rango muy estrecho de intensidad en el que los dos receptores están activos simultáneamente: en humanos sucede durante el atardecer”. Pero en el ambiente turbio y oscuro del pez elefante, este tipo de visión es una ventaja, “ya que se puede utilizar todo el día”, puntualiza el experto.
El hecho de que en la retina del pez elefante se activen a la vez los dos tipos de fotorreceptores le permite captar un amplio abanico de longitudes de onda. Además, “los conos son muy sensibles a la luz roja e incluso al espectro infrarrojo y este es exactamente el tipo de luz capaz de penetrar en las profundidades que habita”, señala Reichenbach.
Este pez ha sido muy estudiado por su órgano electrosensorial, “pero sabíamos que este sentido no le permitía detectar un depredador separado de él por una larga distancia”, explica a SINC Carlos Mora-Ferrer, investigador de la Universidad de Mainz y de padres españoles. “Así que decidimos estudiar sus ojos que han resultado ser muy, muy especiales”, concluye el científico.

Fuente Agencia Sinc

Recuperan por primera vez genoma humano del Mesolítico

Los restos de los dos mesolíticos fueron hallados en el yacimiento leonés de La Braña-Arintero. Imagen: Instituto de Biología Evolutiva (UPF-CSIC)
El análisis genómico de dos individuos cazadores-recolectores que vivieron hace 7.000 años revela que los habitantes de la península ibérica no proceden genéticamente de estos grupos. El trabajo, coordinado por el español Carlos Lalueza-Fox, obtiene los primeros datos genómicos de personas que vivieron en el Mesolítico europeo.
“Es la primera vez que se obtienen datos genómicos de individuos del Mesolítico europeo”, dice a SINC Carles Lalueza-Fox. El investigador del Instituto de Biología Evolutiva (Universidad Pompeu Fabra-CSIC) ha coordinado un trabajo internacional que recupera parte del genoma de dos individuos cazadores-recolectores de hace 7.000 años. Según el artículo, publicado en Current Biology, las poblaciones ibéricas actuales no descienden genéticamente de estos grupos.
Los restos proceden del yacimiento leonés de La Braña-Arintero, en Valdelugueros. Los mesolíticos vivieron en un período enmarcado entre el Paleolítico y el Neolítico, que se caracterizó por la llegada de la agricultura del Próximo Oriente. Estos son los fósiles prehistóricos más antiguos de nuestra especie de los que se ha hecho un análisis paleogenético y superan en 1.700 años los de Ötzi, el popular ‘hombre de hielo’, cuyo genoma también fue recuperado.
Los investigadores han analizado el 1,34% y el 0,5% del total del genoma de los dos individuos. “Puede parecer poco, pero es la prueba de que es factible sacar adelante el proyecto de la secuenciación completa”, declara Lalueza-Fox.
Además, han conseguido recuperar el genoma mitocondrial completo de uno de los individuos. Estos genes se encuentran en las mitocondrias, fuera del núcleo celular, y solo se transmiten por vía materna. Los datos analizados muestran que los cazadores-recolectores compartían el mismo linaje mitocondrial, pero sus hábitos nómadas los distribuyeron por toda Europa, en las regiones que actualmente corresponden a Inglaterra, Alemania, Lituania, Polonia y España.
Los resultados muestran que los cazadores-recolectores no están directamente relacionados con las poblaciones actuales de la Península Ibérica. Los ibéricos del Mesolítico se parecían más a las poblaciones actuales del norte de Europa.

¿De dónde venimos?

“Hay muchas hipótesis sobre las afinidades poblacionales y los movimientos migratorios en la prehistoria de Europa. A partir de ahora las podremos testar utilizando datos genómicos enmarcados en el tiempo y en el espacio”, explica Lalueza-Fox.
Una de esas hipótesis es que los ibéricos actuales podrían descender de los siguientes protagonistas de la historia, los agricultores del Neolítico. Se cree que en este periodo hubo grandes cambios en las poblaciones europeas.
“No podemos afirmar científicamente que descendamos de aquellos agricultores, pero la hipótesis más plausible es que en el Neolítico hubiera una gran sustitución poblacional en el sur de Europa” dice Lalueza-Fox. Los científicos creen que los agricultores llegaron al norte más tarde y en un número más reducido, por lo que se asimilaron con las poblaciones mesolíticas. “Podría ser por eso que los dos individuos que hemos analizado sean más cercanos a los poblaciones actuales del norte del continente que del sur”, continúa el biólogo.
Sin embargo, Lalueza-Fox destaca que la secuenciación de estos genomas ofrecerá una visión de los cambios que experimentaron las poblaciones europeas actuales con la llegada de la agricultura y la ganadería. Al final, concluye: “Todos venimos del neolítico, tenemos dietas neolíticas, enfermedades neolíticas y organizaciones sociales neolíticas”.

Fuente Agencia Sinc

Rocas hidratadas confirman que Marte tuvo agua subterránea

Las sondas han detectado rocas hidratadas en la región marciana de Tyrrhena Terra. Imagen: ESA, NASA et al.
Las sondas Mars Express de la ESA y Mars Reconnaissance Orbiter de la NASA han encontrado pruebas de la existencia de acuíferos subterrános en Marte durante sus primeros miles de millones de años. Los testigos son rocas hidratadas del subsuelo que emergieron por el impacto de meteoritos.
Los cráteres de impacto en Marte son ventanas abiertas a su pasado. Ahora, un estudio de las rocas arrancadas del subsuelo del planeta rojo por la caída de meteoritos, ha permitido encontrar evidencias de la existencia de agua subterránea en sus primeros miles de millones de años de historia.
Las sondas Mars Express de la ESA y Mars Reconnaissance Orbiter de la NASA se han centrado en los cráteres de una región conocida como Tyrrhena Terra,  de unos 1000 x 2000 km y situada en las tierras altas del sur del planeta.
Al analizar la composición química de las rocas incrustadas en las paredes, la cresta y el pico central de cada cráter, así como la de las que yacen esparcidas a su alrededor, se han identificado en 175 lugares algunos tipos de minerales que sólo se forman en presencia de agua.
“El amplio rango de cráteres estudiados, con diámetros de entre 1 y 84 kilómetros, indica que estos silicatos hidratados fueron arrancados de entre unas pocas decenas y varios miles de metros de profundidad”, explica Damien Loizeau, investigador de la ESA y autor principal del estudio.
“La composición de estas rocas indica que las aguas subterráneas estuvieron presentes el tiempo suficiente como para alterar su composición química”, añade el investigador.
De todas formas, no son muchas las muestras de minerales hidratados que han quedado. “El agua circulaba en esta región a varios kilómetros de profundidad, hace unos 3.700 millones de años, antes de que se formasen la mayoría de los cráteres que podemos observar hoy en día”, explica Nicolas Manglod, coautor de la publicación.
“Los cambios químicos causados por la presencia de agua indican un gradiente de temperatura bajo el suelo de Marte –prosigue el científico–, y las rocas más profundas estuvieron expuestas a una mayor temperatura. Sin embargo, no es posible establecer una relación directa con las condiciones que reinaban en la superficie en aquella época”.
Este hecho contrasta con las características de Mawrth Vallis, una de las regiones del planeta rojo más ricas en arcilla. Aquíe se presenta una distribución de minerales hidratados mucho más uniforme, indicando una mayor conexión con los procesos que tuvieron lugar en la superficie marciana.
“El estudio de la presencia de agua líquida en Marte es de gran importancia para determinar su habitabilidad, y los resultados obtenidos nos permiten saber que el agua fluyó durante mucho tiempo bajo la superficie de esta vasta región”, concluye Olivier Witasse, científico del proyecto Mars Express.

Fuente Agencia Sinc

viernes, 29 de junio de 2012

Diseñan una nueva lente con superresolución

El nuevo diseñoa de lente puede mejorar la resolución de los sistemas ópticos. Imagen: UPM.
Investigadores de la Universidad Politécnica de Madrid y la Universidad de Sevilla han ideado una lente basada en un 'ojo de pez' electromagnético, lo que permite observar los objetos con más detalle. El nuevo diseño puede ayudar a mejorar la resolución de los sistemas ópticos.
La captación de detalles "hasta 3.000 veces más pequeños que la longitud de onda liberada" es la principal característica de una superlente diseñada por ingenieros de la ETSI de Telecomunicación de la Universidad Politécnica de Madrid y de la Universidad de Sevilla.
De momento el equipo ha publicado el estudio preliminar en el New Journal of Physics y ha demostrado mediante simulaciones por ordenador que se puede conseguir esa resolución. Habrá que esperar aún un tiempo hasta que sea posible fabricar la nueva lente y verificar sus propiedades en el laboratorio, una tarea en la que están involucrados ahora los investigadores.
El secreto del nuevo dispositivo es que empla como lente la denominada 'guía onda geodésica esférica', el equivalente electromagnético del ojo de pez de Maxwell (Maxwell fish eye). A diferencia de las lentes convencionales, cuya máxima resolución está limitada a aproximadamente media longitud de onda, este ojo de pez es capaz de resolver detalles mucho más pequeños.
Además, la nueva superlente presenta la novedad de que el índice de refracción del material del que está hecha es positivo, como sucede con las lentes comunes. "Esto la diferencia de otras propuestas de superlentes basadas en metamateriales con índice de refracción negativo, cuya realización práctica conlleva enormes pérdidas ópticas, limitando casi la totalidad de sus posibles aplicaciones", explica Juan Carlos Miñano, del Departamento Electrónica Física de la ETSI de Telecomunicación.

Retos por delante

Uno de los incovenientes de la nueva superlente es que actúa en una banda muy estrecha de frecuencias, es decir, su implementación física solo funcionaría para luz láser por su estrecho espectro de emisión. Con luz convencional, su poder de superresolución baja mucho y la lente pierde sus “superpoderes”, aunque su resolución todavía sea muy notable. En la actualidad se está trabajando para aumentar la banda de frecuencias a la que se consigue superresolución.
Pese a esas dificultades, la nueva herramienta abre la posibilidad de mejorar la resolución de los sistemas ópticos, lo cual tendría un impacto inmediato en numerosas tecnologías y en particular, en microelectrónica, cuyo nivel de miniaturización está limitado por la resolución de los sistemas.
Esta investigación se ha llevado a cabo dentro de un proyecto consolider denominado Metamaterials, en el que también participan otras universidades españolas: Politécnica de Valencia, Autónoma de Barcelona, Pública de Navarra, Málaga y Cantabria, además del CSIC.
El principal objetivo científico y tecnológico de este proyecto es abarcar la nueva generación de conocimientos y el desarrollo de aplicaciones centradas en los metamateriales, materiales que hay que fabricar porque no están disponibles en la naturaleza y cuyas características electromagnéticas o acústicas se diseñan para una determinada función.

Fuente Agencia Sinc

Un nuevo método incluye factores sociales para evaluar el riesgo sísmico de una ciudad

Un edificio de la ciudad de Lorca tras el terremoto. Imagen por Lorca 072.
El riesgo sísmico no depende solo del temblor en sí, sino también de la resistencia de los edificios y de las características sociales de su población. Un equipo español de científicos propone una nueva manera de calcular este riesgo desde una perspectiva que integra aspectos como la fragilidad social y la capacidad de recuperación colectiva.
“Ante la posibilidad de un terremoto, hasta ahora solo se evaluaba el riesgo físico de una ciudad, es decir, la afectación de sus edificios e infraestructuras y la cantidad de gente que los habita”, explica a SINC Liliana Carreño, investigadora de la Universitat Politècnica de Catalunya (UPC). Su equipo propone un nuevo método que evalúa el riesgo sísmico de las zonas urbanas de manera integral, teniendo en cuenta las fortalezas y debilidades sociales y la gobernabilidad de la ciudad.
El sistema de Carreño y su equipo considera valores como “la tasa de  delincuencia, la existencia de áreas marginales, el número de camas hospitalarias, la formación del personal de rescate, etc. como factores de fragilidad y capacidad social”, explican. “La nueva metodología enriquece la evaluación de las pérdidas futuras porque tiene en cuenta las condiciones sociales de la población expuesta, que antes era tratada solo como un número”, aclara Carreño.
El nuevo enfoque, que ha publicado la revista Bulletin of Earthquake Engineering, tiene otro valor añadido: utiliza una técnica basada en la ‘teoría de conjuntos difusos’, que permite utilizar información cualitativa obtenida de la opinión de expertos cuando no se dispone de toda la información numérica necesaria.

Traducir opiniones a números

“Los métodos para calcular de forma integral el riesgo de una determinada zona urbana requieren de una gran cantidad de información que no siempre está disponible”, subraya la experta. Según Carreño, los especialistas en riesgo sísmico siempre han necesitado solucionar problemas complejos a partir de información imprecisa. “Ahora, podemos convertir variables lingüísticas como ‘mucho’, ‘poco’, ‘leve’, ‘severo’, ‘escaso’, ‘suficiente’ en un formalismo matemático para la medición”, señala la científica.
Para comprobar la validez del método, Carreño y su equipo lo han aplicado a las ciudades de Barcelona y Bogotá (Colombia). “La ciudad catalana es un buen modelo ya que su riesgo sísmico se ha estudiado durante más de 20 años”, afirma la científica. Sus resultados corroboran los niveles de peligro esperados: medio-alto para Bogotá y medio-bajo para Barcelona.
“En el caso de la ciudad española se ha podido evaluar el riesgo contando con muy buena información, pero lo importante de este nuevo método es que resulta especialmente útil cuando se quiere estudiar una urbe que no ha tenido la suerte de Barcelona y donde la información es deficiente”, concluye Carreño.

Fuente Agencia Sinc

Nuevos indicios de que los dinosaurios eran reptiles de sangre caliente

Reconstrucción de un dinosaurio del Prepirineo catalán, hace unos 70 millones de años. Imagen: Oscar Sanisidro (ICP)
Una de las razones para pensar que los dinosaurios fueron de sangre fría es que sus huesos poseen líneas de paro de crecimiento propias de este tipo de animales. Este argumento se ha venido abajo con un trabajo del Institut Català de Paleontologia Miquel Crusafont. Los investigadores han encontrado estas líneas en mamíferos, de sangre caliente, al estudiar los huesos de 41 especies de rumiantes actuales.
Después de 40 años de discusión paleontológica, Nature ha publicado un trabajo que desbanca uno de los argumentos más sólidos para creer que los dinosaurios eran de sangre fría. “Como son antiguos reptiles, siempre se había pensado así”, dice a SINC Meike Köler, investigadora del Institut Català de Paleontologia Miquel Crusafont (ICP) y primera autora del estudio.
El trabajo infiere el metabolismo de los dinosaurios a partir del análisis de 115 fémures derechos de 41 especies de mamíferos rumiantes actuales. Hasta ahora, se pensaba que las llamadas ‘líneas de paro del crecimiento’ (LAGs) en los huesos eran exclusivas de los animales de sangre fría. En cambio, los resultados también muestran estas huellas en los animales analizados.
“Nadie había estudiado los huesos de los mamíferos a fondo, no existe ningún estudio consistente y exhaustivo sobre este tema”, destaca a SINC Köler. De este modo, los científicos del ICP han descartado la hipótesis sobre la cual se sustentaba la ectotermia de los dinosaurios.
Hace un año, un equipo de científicos del Instituto Tecnológico de California publicó en Science que los saurópodos tenían una temperatura corporal de entre 36 ºC y 38 ºC a partir del estudio del esmalte de los dientes fosilizados. Sin embargo, los científicos no podían concluir si estos dinosaurios de grandes dimensiones compartían mecanismos de regulación interna con los mamíferos, o por el contrario, necesitaban condicionantes externos para regular su temperatura, como los reptiles modernos.
En los animales conocidos como ‘de sangre fría’, o ectotérmicos, la temperatura de su organismo depende de la ambiental. Durante las estaciones frías y secas, su ritmo  metabólico se ralentiza para aprovechar las fuentes de calor externas. En los períodos favorables, “no tienen un mecanismo interno que les permita acelerar el crecimiento”, explica Köler. Por eso, el tamaño de algunas especies de dinosaurios ha hecho dudar a los científicos de que estos animales, considerados ‘de sangre fría’, pudieran crecer tanto y tan rápido.

‘Líneas de paro del crecimiento’

El tejido óseo de los dinosaurios siempre había sido una contradicción. Sus huesos presentaban LAGs pero aun así existieron especies de grandes dimensiones, como un diplodocus. Otros animales de sangre fría con estas marcas, como los cocodrilos, crecen muy lentamente durante los meses más favorables a su organismo. “Un cocodrilo necesitaría un siglo para medir cuatro metros porque su capacidad de crecimiento es treinta veces menor que la de un animal de sangre caliente”, dice Köler.
La investigadora describe las marcas en los huesos de los dinosaurios como líneas de paro del crecimiento muy delgadas y oscuras, que siempre se alternan con otros anillos más anchos y ligeros por la perforación de la vascularización –por  donde circulaba su sangre–.  Las marcas más holgadas del hueso indican la capacidad de su metabolismo para crecer rápidamente, de donde los científicos deducen que tenían una alta tasa metabólica, propia de los animales de sangre caliente.
El comunicado del ICP señala que el hallazgo se hizo por casualidad: “No diseñamos un estudio para encontrar la respuesta a la termofisiología de los dinosaurios, solo pretendíamos conocer mejor la fisiología de los mamíferos actuales y queríamos entender cómo les afecta el ambiente”, confiesa Köhler.

Fuente Agencia Sinc

miércoles, 27 de junio de 2012

La migración de los elefantes marca mejor las estaciones del año que el calendario

Elefantes en la sabana Africana. Imagen: cesargp
El comportamiento de los grandes herbívoros de la sabana africana se rige por la disponibilidad de comida, que depende a su vez de las lluvias. Un estudio, publicado en PLoS ONE, propone utilizar el movimiento de los paquidermos para determinar mejor el principio y el final de la época de precipitaciones y sequía en este ecosistema.
Hasta ahora los límites de las estaciones húmeda y seca de la sabana africana estaban marcados por un criterio arbitrario: los meses del calendario. Según una investigación llevada a cabo en el Parque Nacional Kruger (Sudáfrica) el patrón de movimiento de los elefantes podría usarse como marcador biológico de cambio de estación. Los resultados de este trabajo los publica esta semana la revista PLoS ONE.
Patricia Jane Birkett, investigadora de la Universidad de KwaZulu-Natal en Durban (Sudáfrica), y sus colegas analizaron el patrón de migración de 14 hembras de elefante (Loxodonta africana) de distintas manadas. El movimiento de los animales fue seguido a diario mediante la colocación de un collar con tecnología de GPS de 2007 a 2009.
Los investigadores descubrieron que todos los grupos de elefantes cambiaban su patrón de comportamiento en dos momentos del año muy concretos: “al final de la estación seca –justo antes del comienzo de las primeras lluvias–, y al final de la temporada húmeda –cuando el promedio de precipitación es el mayor de año–”, explican los autores.
De forma general, los paquidermos se desplazan más y con mayor rapidez durante la estación húmeda (en los meses de verano), y alcanzan la velocidad máxima de desplazamiento justo cuando empieza la sequía.
Durante la época seca, “el valor nutricional de la comida disminuye y esto estresa a las hembras”, apuntan los expertos. Su velocidad de desplazamiento se reduce para “conservar energía y, probablemente, para explotar áreas más pequeñas de manera más intensa”. La mínima velocidad de desplazamiento de los elefantes se da cuando vuelven las lluvias.

El importante papel del elefante en el ecosistema

“En la sabana africana los recursos como la vegetación y el agua varían en función de las lluvias y la temperatura, y los animales responden a estos cambios alterando su patrón de movimiento a lo largo del tiempo”, subrayan los investigadores. Por ello, la distribución de los animales no solo responde a las variedades del paisaje, sino también a factores climatológicos.
El equipo de Birkett escogió al elefante como modelo porque “es una especie clave en la sabana africana y su comportamiento de búsqueda de comida afecta a muchos de los procesos del ecosistema”, aclara el grupo internacional de investigación.
Según los científicos, es importante conocer los límites de las estaciones para entender muchos de los aspectos del medioambiente y el ecosistema africano.

Fuente Agencia Sinc

Las emisiones de metano no siguen un patrón climático o latitudinal

Los investigadores han comparado las emisiones de metano a escala mundial en estuarios, lagos, océanos, ríos y humedales. En la imagen, el río Omaña (León). Imagen: José Manuel Álvarez Martínez.
Investigadores del Museo Nacional de Ciencias Naturales (MNCN-CSIC) han comparado las emisiones de metano a escala mundial en estuarios, lagos, océanos, ríos y humedales. Según el estudio que publica Atmospheric Environment, la emisión de este gas de efecto invernadero alcanza máximos cuando aumenta la temperatura del suelo y disminuye el nivel de agua, aunque las condiciones locales también influyen.
Desde la revolución industrial, y especialmente en el período de 1950 a 1990, la concentración en la atmosfera de los gases de efecto invernadero ha aumentado sensiblemente debido a la acción del ser humano. El metano (CH4) es un gas de efecto invernadero con un potencial de calentamiento global 25 veces mayor al del CO2, aunque su concentración atmosférica es casi 300 veces menor que el dióxido de carbono.
Aproximadamente el 60% de la emisión global de metano se debe a actividades antropogénicas como la quema de combustible fósil, la fermentación digestiva del ganado, la descomposición del estiércol, los cultivos de arroz y los vertederos. Las zonas húmedas son la principal fuente de emisión natural de metano, casi el 40% de la emisión total. Esto es así porque en los suelos inundados existen unas condiciones anaerobias -sin oxígeno- que favorecen la proliferación de las bacterias responsables de la descomposición de la materia orgánica, en cuyo proceso se libera metano.
Un estudio, publicado en la revista Atmospheric Environment y realizado por científicos del Museo Nacional de Ciencias Naturales (MNCN-CSIC), ha permitido comparar las emisiones de metano a escala mundial en cinco tipos de ecosistemas acuáticos (estuarios, lagos, océanos, ríos y humedales), a partir de datos cuantitativos extraídos de la literatura científica.

Variaciones estacionales en las emisiones

"Para un conocimiento más preciso de la dinámica de este gas a nivel global, habría que medir las emisiones en zonas áridas y semiáridas, así como en zonas tropicales, en las que hasta la fecha se han realizado pocos estudios. También habría que investigar más sobre los factores principales que controlan las emisiones en océanos y ríos" explica María Josefa Ortiz Llorente, autora principal del estudio e investigadora en el MNCN-CSIC.
Según el trabajo, existe una gran variabilidad en las emisiones de metano, que no parecen seguir un patrón climático o latitudinal, aunque sí se aprecian variaciones estacionales. Los máximos de emisión se han detectado cuando aumenta la temperatura del suelo y disminuye el nivel de agua, cuando tiene lugar un incremento en la actividad de las bacterias productoras de metano.
Para los investigadores, el hecho de que no se observe una relación lineal entre la emisión de metano y la temperatura del suelo a escala mundial, sugiere que las condiciones locales son muy importantes en el control de las emisiones de metano.
"Eltrabajo contribuirá a un mejor conocimiento de las emisiones de metano a escala global y facilitará la mejora de los modelos existentes y de las herramientas de mitigación de este gas de efecto invernadero", concluye Ortiz Llorente.

Fuente Agencia Sinc

La mortalidad de la tortuga boba desciende en Cabo Verde

Tortuga boba recién nacida en las playas de Boavista, Cabo Verde. Image: Adolfo Marco / CSIC.
El censo de la población de tortugas bobas (Caretta caretta) realizado en la isla de Boavista de Cabo Verde ha permitido demostrar el descenso de la mortalidad de esta especie, en peligro de extinción. Los datos, recopilados desde 2007, se han publicado en Animal Conservation.
Según el equipo de investigadores, liderado por el CSIC, esta tendencia positiva está relacionada con los esfuerzos y la sensibilización de la población autóctona, las iniciativas de cooperación para el desarrollo sostenible de las comunidades locales, y por el seguimiento y protección que ejercen los campamentos de voluntarios internacionales instalados en las playas.
“Los censos intensivos de toda la isla de Boavista durante cinco años demuestran que sus  playas albergan la segunda población de tortuga boba más importante del Atlántico y la tercera del mundo después de Florida y Omán. La densidad de nidos de algunas playas es excepcional y al final de la temporada se pueden encontrar más de 4.000 por kilómetro lineal”, explica Adolfo Marco, uno de los autores del estudio que publica Animal Conservation e investigador en la Estación Biológica de Doñana (CSIC).
El censo señala que, en menos de 70 kilómetros de playa anidan anualmente una media de 3.700 hembras adultas, que realizan una media de cerca de 15.000 nidos. Esta alta densidad, “favorece el seguimiento y la protección de las tortugas, y es una gran oportunidad para el desarrollo de un ecoturismo responsable”, apunta Marco.
Sin embargo, al mismo tiempo “pone de manifiesto la fragilidad de esta colonia reproductora ante cualquier circunstancia”, subraya el investigador.

Fidelidad al lugar de nacimiento

Después de nacer, las tortugas nacidas en Cabo Verde se dispersan por todo el océano Atlántico y muchas llegan al litoral español, donde representan el segundo grupo más importante por origen.
A pesar de las distancias recorridas, las Caretta caretta profesan una gran fidelidad a su lugar de nacimiento y regresan a esa misma playa para reproducirse o nidificar. Este fenómeno, identificado en estudios genéticos, junto con una dispersión de las zonas de anidación muy limitada, provoca un asilamiento reproductor que “convierte a la población de tortuga boba de Cabo Verde en una unidad regional de conservación exclusiva”.
Este fenómeno “puede dificultar la respuesta de este grupo a los cambios ambientales que amenazan el desove, como el calentamiento global”, comenta el biólogo.

Disminución de las capturas

Los dos riesgos de conservación en las playas más importantes son, según los expertos, la caza de madres mientras hacen el nido, la inundación de las playas relacionada con la elevación del nivel del mar y el calentamiento del clima, la depredación por parte de cangrejos fantasma, y la muerte de huevos en la playa causada por hongos patógenos.
“Son problemas graves aunque independientes. Uno de ellos es la tradicional caza y consumo de carne de tortuga entre la población de Cabo Verde. En 2007 se cazaron más de 1.200 hembras en las playas de Boavista, es decir, más del 36% de las hembras reproductoras de esa temporada, una tasa  insostenible que podría provocar su extinción en el Atlántico oriental”, informa Marco.
No obstante, este estudio señala que la caza ha disminuido gracias a diversos programas de concienciación y desarrollo local. En 2008 el porcentaje de hembras muertas a manos de los cazadores fue del 18% (408 capturas), en 2009 bajó al 5% (215 capturas), y en 2011 sólo se cazaron 55 tortugas en toda Boavista.
“El descenso tan importante de la caza de madres permitirá un aumento de nidos en las playas. También estamos trabajando activamente para reducir la muerte de huevos en la playa, mediante el traslado de nidos a zonas seguras donde la supervivencia es mucho más alta”, concluye el investigador.
El proyecto ha contado con la colaboración de la Universidad de las Palmas de Gran Canaria, la ONG caboverdiana Cabo Verde Natura 2000, y el apoyo de la Fundación Biodiversidad.

Fuente Agencia Sinc

La falta de ambición acaba con Rio+20

Las organizaciones han lamentado la falta de ambición de los países participantes en Río de Janeiro (Brasil). Imagen: © Efe.
La Cumbre sobre Desarrollo Sostenible Rio+20, que se ha celebrado del 20 al 22 de junio en Rio de Janeiro (Brasil), ha finalizado con la aprobación de un documento ‘de mínimos’ que deja en evidencia las diferencias insalvables de los 193 Estados participantes en cuestiones medioambientales y sociales.
Todos los países han aprobado el documento El futuro que queremos, un texto “vacío de compromisos”, ante la decepción de organizaciones sociales y medioambientales. Para la mayoría de los líderes políticos, la Cumbre sobre Desarrollo Sostenible ha sido “un paso importante en la dirección adecuada”, ha señalado Miguel Arias Cañete, ministro de Agricultura, Alimentación y Medio Ambiente.
Sin embargo, las ONG’s han subrayado que Rio+20 pasará a la historia por “la falta de ambición de los gobiernos participantes y por sus buenas palabras, vacías de contenido”. De hecho, las organizaciones civiles han llamado a la cumbre Greenwashing+20, que hace referencia al lavado de imagen “medioambiental” de los países, y “al maquillaje verde carente de compromiso y de medidas reales para cambiar la situación del planeta”.
“En numerosas áreas hubiéramos deseado un resultado más ambicioso, como por ejemplo en el establecimiento de tiempos para la ejecución de los objetivos en las áreas prioritarias”, ha indicado Janez Potočnik, comisario europeo de medioambiente en representación de la Unión Europea y de todos sus Estados miembro.
Pero a pesar de las diferencias existentes entre los Estados y de la falta de compromisos en algunos aspectos, hubiera sido “un error salir de aquí con un mensaje pesimista”, ha apuntado Arias Cañete. Para el ministro español, Rio+20 ha reafirmado la importancia del desarrollo sostenible para la creación de empleo y el crecimiento económico.
“Se han conseguido cosas importantes, y el texto refleja aspectos que no debemos desdeñar”, ha subrayado el ministro, quien ha asegurado que esta conferencia “debe verse como un punto de partida”, al marcar el inicio de un proceso para aplicar mejor y de manera más eficiente las políticas de desarrollo sostenible.

Tímidos avances

Entre otros aspectos, se ha logrado un entendimiento común de lo que una “economía verde” en el contexto del desarrollo sostenible y la erradicación de la pobreza significa. “En este marco, hemos acordado también completar los actuales sistemas de medida del desarrollo, centrados en el PIB, por nuevas medidas que lo complementen, iniciando un proceso dentro de Naciones Unidas que enriquecerá nuestra comprensión y medición de lo que es el desarrollo sostenible”, ha señalado el ministro.
Ante la imposibilidad de crear la Organización Mundial del Medioambiente, se ha acordado una serie de funciones para la mejora del Programa de Naciones Unidas para el Medio Ambiente (PNUMA), que España preside en la actualidad.
“Destaca la universalidad de su Consejo de Administración, la mejora del papel del PNUMA como coordinador y el incremento de la participación de la sociedad civil; se trata de elementos importantes que van en la buena dirección”, ha destacado Arias Cañete.
Por otro lado, la cumbre ha permitido reafirmar numerosos compromisos en áreas concretas. Se ha aprobado por ejemplo el Marco Decenal de Programas sobre Producción y Consumo Sostenible, que define un marco general, antes inexistente, sobre un tema básico para el desarrollo sostenible.
Además, se ha avanzado en las negociaciones para poder desarrollar, bajo la Convención de la Ley del Mar, un instrumento de protección de biodiversidad marina más allá de la Jurisdicción Nacional.

¿Hacia un futuro sostenible?

“Lo único relevante de la Cumbre ha sido la importancia que por primera vez se ha concedido a los océanos”, ha explicado Ricardo Aguilar, director de Investigación de Oceana Europa.
No obstante, “no hay avances reales en creación de áreas marinas protegidas, donde solo se reiteran compromisos pasados, ni en la protección de los hábitats de alta mar, y el texto referente a la recuperación de los stocks pesqueros ya se acordó hace una década”, ha aclarado Aguilar.
Por su parte, Greenpeace ha lamentado que incluso antes de comenzar la cumbre EEUU, Venezuela, Rusia y Canadá formaran una alianza que acabó con la propuesta de lanzar un mandato para la protección de las aguas internacionales.
Otro de los objetivos de las ONG’s –poner fin a las subvenciones a los combustibles fósiles– tampoco se ha conseguido. Según Greenpeace, “los gobiernos presentes en Río+20 no han aprobado un nuevo párrafo que recuerde que el desarrollo sostenible solo será posible cuando se acaben las subsidios a las energías sucias y se apoyen decididamente las energías renovables”.

Fuente Agencia Sinc

martes, 26 de junio de 2012

Una gran pantalla táctil ayudará a los enfermos de alzhéimer

Primer prototipo de la mesa tecnológica del proyecto HEAD. Imagen: UPV-DiCYT.
Investigadores del centro CRE Alzheimer de Salamanca y de la Universidad Politécnica de Valencia han creado un prototipo de gran mesa tactil en la que personas con demencia puedan interactuar en grupo. El objetivo es que estos pacientes ejerciten su mente y se relacionen.
El Centro de Referencia Estatal (CRE) de Atención a Personas con Enfermedad de Alzheimer y otras Demencias de Salamanca desarrolla un innovador proyecto para, mediante una gran pantalla táctil, ayudar a personas con algún tipo de demencia a ejercitar su mente y retrasar el deterioro cognitivo.
De momento los investigadores ya han creado un primer prototipo. El proyecto se denomina HEAD ( Herramientas tecnológicas para la Enfermedad de Alzheimer y otras Demencias) y se hace en colaboración con el laboratorio LabHuman del Instituto Interuniversitario de Investigación en Bioingeniería y Tecnología Orientada al Ser Humano (I3BH) de la Universidad Politécnica de Valencia.
“El objetivo es trabajar sobre todo la memoria autobiográfica con elementos como fotos o números de teléfono”, comenta Roberto Lloréns, coordinador científico de LabHuman. “Si tenemos fotos en el centro de la pantalla, cada usuario puede intentar arrastrar las suyas hacia su zona de la pantalla”.
A diferencia de un ordenador, interactuar en una mesa de grandes dimensiones puede ser más sencillo para muchas personas mayores, que además lo hacen en equipo. “Tenemos evidencias de que la conversación grupal requiere un mayor esfuerzo cognitivo”, afirma el experto, por lo que podría mejorar los resultados.
“La propuesta es que cada usuario recoja sus recuerdos –prosigue Lloréns –, y esto fomenta la interacción y las habilidades sociales, ya que pueden necesitar pedir una foto propia al compañero”. En todo momento, un terapeuta controlaría la sesión y tomaría decisiones como detener el juego y fomentar un debate.
El ‘sistema multitáctil’ final estará compuesto por un televisor normal encajado en una mesa con una pantalla sensible en la que se puede pulsar. “Es como si tuviésemos un iPad de 42 pulgadas”, comenta Lloréns.
El proyecto prevé que en la mesa puedan jugar cuatro pacientes, una vez que estén diseñados ejercicios que estimulen las funciones cognitivas -en particular la memoria- de acuerdo con las indicaciones de los terapeutas.
El proyecto HEAD se ha marcado como objetivo para este año crear un sistema de gestión para que estos profesionales lo puedan utilizar en cuestiones como tener una lista de pacientes.

Facebook para mayores

La iniciativa también desarrollará las aplicaciones del dispositivo para la estimulación cognitiva y, dando un paso más, pretende crear una red social propia. Algo así como un ‘Facebook para mayores’ específicamente diseñado para estas personas.
Esta red social permitirá que los usuarios almacenen y compartan sus fotos con otros pacientes que pasen por el CRE Alzheimer, pero también con sus propios familiares que podrían hacerse una cuenta para interactuar con ellos.
Un aspecto “importante”, según sus promotores, es que esto permitirá mantener el contacto a aquellos usuarios del centro que, después de recibir su tratamiento, vuelven a sus casas.

Fuente Agencia Sinc 

Identifican un gen que permitirá crear plantas más resistentes

Asociación de los cromosomas paternos y maternos con una tasa de recombinación elevada. Imagen: INRA
Un equipo de investigadores internacionales ha descubierto que la variabilidad genética de la planta ‘Arabidopsis thaliana’ depende del gen FANCM. El hallazgo servirá, según los científicos, para mejorar la resistencia y la producción de semillas de plantas de cultivo como la cebada y la gramínea.
La variabilidad genética de la Arabidopsis thaliana, la primera planta cuyo genoma se secuenció por completo, depende del gen FANCM, según un estudio de un equipo internacional de científicos que ha contado con la participación de investigadores de la Universidad Complutense de Madrid (UCM), publicado en Science.
Este estudio afirma que la expresión de FANCM limita las recombinaciones genéticas de la planta durante la primera fase de la meiosis, en la que se produce la variabilidad de la descendencia. “Hay muchas regiones del ADN de las plantas donde no hay recombinación genética e identificar este gen permite alterar los patrones de entrecruzamiento cromosómico”, explica a SINC Juan Luis Santos, investigador de la UCM, y coautor español junto con Mónica Pardillo.
Según Santos, la misma proteína que codifica el gen FANCM también incide en la reparación de las regiones de material genético de las células somáticas, que durante la vida adulta se reproducen mediante otro proceso, la mitosis. Sin embargo, añade, “nuestro hallazgo es interesante para manipular la expresión del gen en esta planta y  mejorar su potencial”.

Plantas más productivas

Este avance podría aplicarse en el futuro a las plantas cultivadas para conseguir ejemplares más resistentes y que produzcan más semillas. Los investigadores tienen previsto aplicar esta técnica a plantas como la cebada y la gramínea.
Los experimentos se han realizado con ejemplares de Arabidopsis procedentes de Estados Unidos. La investigación se enmarca dentro de un proyecto europeo a cinco años. A mitad del recorrido, los expertos esperan descubrir cuáles son los genes que se expresan en la meiosis. El siguiente paso es “conseguir mutantes para esos genes y ver cómo altera la producción de la planta”, concluye Santos.

Fuente Agencia Sinc

El declive de la capa de hielo antártica calienta el Ártico

Vista aérea del lago Elgygytgyn (Rusia). Imagen: Wikipedia / NASA.
Los primeros análisis del núcleo de sedimentos más antiguo jamás hallado en el Ártico demuestran que en esta zona se produjeron intervalos más cálidos de lo que se pensaba durante los últimos 2,8 millones de años que coincidieron con el declive de la capa de hielo del oeste de la Antártida. Un equipo internacional sugiere incluir estos nuevos datos en los modelos climáticos que predicen el clima futuro.
El impacto de un gran meteorito en la Tierra hace 3,6 millones provocó un cráter de 18 km de diámetro que creó el lago El´gygytgyn (Siberia) en el Ártico ruso. Como el meteorito impactó contra una de las pocas áreas del Ártico que no fue erosionada por los glaciares continentales, el registro geológico se ha mantenido casi intacto y ha aportado mucha información a los investigadores.
Un equipo internacional de científicos ha podido analizar un núcleo de sedimentos recogido por primera vez en este lago siberiano en 2009 para arrojar luz sobre la historia climática y medioambiental del Polo Norte desde hace unos 2,8 millones de años.
Según los resultados, publicados esta semana en Science, además de los periodos glaciares e interglaciares regulares de la Tierra, “el clima del Ártico experimentó calentamientos adicionales de entre 4 y 5 ºC durante los periodos interglaciares”, afirma a SINC Martin Melles, autor principal del estudio e investigador en el Instituto de Geología y Mineralogía de la Universidad de Colonia (Alemania).
Hasta ahora, los periodos interglaciares con un incremento significativo de temperaturas en el Ártico eran desconocidos porque no se tenían registros geológicos tan antiguos. Los sedimentos recogidos en el lago ruso son 30 veces más antiguos que los que se hallaron en la capa de hielo de Groenlandia que recogen la historia climática de los últimos 110.000 años.
El estudio revela además que debido a estos climas interglaciares más cálidos es “virtualmente imposible” que la capa de hielo de Groenlandia hubiera existido en su forma actual en ese momento.
Los científicos cuantificaron las diferencias climáticas asociadas a la intensidad de los periodos interglaciares y se centraron en cuatro fases cálidas: dos de periodos interglaciares normales (hace 12.000 y 125.000 años) y dos de periodos interglaciares más cálidos (hace 400.000 y 1,1 millones de años).
Además del aumento de las temperaturas, el equipo de investigadores indica que los periodos interglaciares más cálidos eran también más húmedos que los periodos interglaciares normales. “Los ‘super’ periodos interglaciares también coinciden con el declive de la capa de hielo del oeste antártico”, subraya Melles.

Declive acelerado de los polos

Los científicos sugieren que el desencadenante del calentamiento en los periodos interglaciares en el Ártico son los cambios en la Antártida. “En la actualidad, se está produciendo un declive en la capa de hielo del oeste antártico y es posible que se acelere en el futuro”, advierte el investigador alemán.
Para el grupo de científicos, este declive no solo se asocia con un aumento global del nivel del mar, pero “también podría asociarse con un fuerte calentamiento en el Ártico”. Si el Polo Norte se calentara implicando el hielo marino, la capa de hielo de Groenlandia, la vegetación y el permafrost se “producirían impactos climáticos fuertes en otras partes del planeta”, señala el geólogo.
Los investigadores sugieren incluir estos nuevos datos sobre el declive de la capa de hielo de la Antártida asociado con un calentamiento “excepcional” del Ártico en los modelos climáticos que permiten predecir el clima de la Tierra de las próximas décadas o siglos.

Fuente Agencia Sinc

sábado, 23 de junio de 2012

Aún es posible descubrir 10 millones de especies en menos de 50 años

Los taxónomos proponen crear un catálogo con todos los nombres de las especies descritas hasta la fecha. Imagen: MNCN.
Describir 10 millones de especies en menos de 50 años es todavía factible. Esta ha sido la conclusión de un estudio internacional, con participación del Museo Nacional de Ciencias Naturales (MNCN-CSIC), que se ha basado en la solidez de 250 años de progreso científico, en excepcionales colecciones a lo largo del mundo, en reconocidos especialistas, y en la innovación tecnológica para llegar a estos resultados. Pero se necesitan 2.000 taxónomos para cartografiar la biodiversidad del planeta.
Cada año se descubren 18.000 nuevas plantas y animales. Hasta la fecha se han descrito cerca de 2 millones de especies, pero las estimaciones más fiables incrementan el número total de especies hasta 10 o 12 millones. Sin embargo, y por primera vez en la historia de la humanidad, la tasa de extinción de las especies puede superar a la de su descubrimiento.
En noviembre 2010, científicos de todo el mundo se reunieron en el Jardín Botánico de Nueva York (EE UU) en el seminario ¿Qué sostener? Misión para explorar las especies de la tierra y conservar la biodiversidad para responder a la pregunta de si es posible aún descubrir, describir y cartografiar las especies que constituyen la biosfera.
La respuesta unánime fue que sí. Los especialistas allí reunidos, entre los que se encontraban investigadores del Museo Nacional de Ciencias Naturales (MNCN-CSIC), formularon unas recomendaciones que se han publicado ahora en la revista Systematics and Biodiversity. 
"Existe muy poca gente que sea consciente de lo poco que conocemos sobre la vida en la Tierra. Cartografiar la biosfera es tremendamente complejo, pero los beneficios para la sociedad serían profundos, inmediatos y duraderos; desde la detección temprana de la respuesta de la flora y la fauna al cambio climático, hasta el acceso abierto a diseños evolutivos que podrían solucionar innumerables problemas prácticos", señala Antonio G. Valdecasas, uno de los autores del estudio e investigador del MNCN-CSIC.

Cien especies al año por taxónomo

Para lograr los objetivos en el plazo de 50 años se necesitarían al menos 2.000 taxónomos y la colaboración de otros expertos profesionales y aficionados. Para alcanzar los 10 millones de especies descritas, la tasa de descripción de especies debería aumentar hasta 200.000 especies al año, lo que equivaldría a la descripción de 100 especies al año por taxónomo.
Sin embargo, uno de los principales obstáculos para un progreso rápido en la exploración de la biodiversidad es el cuello de botella del proceso. Los miles de museos, jardines botánicos y universidades que existen en todo el mundo, albergan en torno a 3.000 millones de especímenes de un total de dos millones de especies. Por ello, a partir de ahora "los ejemplares que se añadan a las colecciones tienen que servir para avanzar y no para acumular trabajo atrasado", indican los científicos en el estudio.
Entre las acciones prioritarias destaca la necesidad de crear un catálogo con todos los nombres de las especies descritas hasta la fecha. Este registro nomenclatural facilitaría notablemente el trabajo de los taxónomos. Para los hongos está prevista su puesta en marcha a partir del 1 de enero de 2013.
Para los taxónomos, también es necesaria una estrategia global para priorizar determinadas campañas y hacer un seguimiento del progreso del proyecto. "De este modo se puede evitar el avance desigual en el conocimiento de los principales taxones, tal y como ha ocurrido hasta ahora", recalcan.

Las ventajas de descubrir especies

Un mayor conocimiento de las especies es importante para entender mejor cómo funcionan los ecosistemas, ya que los sistemas diversos son más resilientes frente a cambios imprevistos que los sistemas con menor diversidad. Igualmente, integrar y sintetizar todas las evidencias sobre la historia evolutiva contribuirá a responder a las cuestiones fundamentales sobre la diversidad biológica.
Además, según los taxónomos hay que considerar que la prosperidad económica y el bienestar humano dependen de decenas de miles de especies, por lo que conforme se descubran nuevas especies, podremos disponer de más productos, materiales y modelos. Finalmente, hay que recordar que los seres humanos tienen una curiosidad innata sobre la diversidad de la vida y su lugar en el planeta.
"Nadie duda de la complejidad del empeño que requiere la colaboración de una pléyade de especialistas en ámbitos muy diferentes: biólogos, ingenieros, sociólogos, gestores, etc", señalan los autores. Pero es una tarea intrínsecamente ligada a la biología, y más concretamente a la taxonomía: la ciencia especializada en descubrir, caracterizar y nombrar a las especies.
Según los científicos, la taxonomía debe madurar y dejar de ser una industria artesanal y convertirse en una ciencia moderna, altamente eficiente y con una tasa de transferencia de la información muy elevada.
Esto requiere un cambio cultural para que esta disciplina sea reforzada en las carreras de biología y que se modifiquen los incentivos al trabajo taxonómico. Los investigadores proponen por ejemplo establecer un "índice de impacto nomenclatural". "Hay que buscar vías que pongan en valor la contribución imprescindible de los taxónomos al conocimiento de la biodiversidad", concluyen.

Fuente Agencia Sinc

La cámara AWARE-2 hace fotos de un gigapíxel

Óptica de la cámara de un gigapixel.  Imagen: Universidad de Duke (EE UU)
Los megapíxeles se quedan atrás después de que un equipo de científicos estadounidenses haya conseguido una tecnología capaz de tomar imágenes con una resolución 1.000 veces superior. La velocidad de la lente y su campo de visión podrían conseguir una resolución de hasta 50 gigapíxeles. Las empresas de seguridad y los medios de comunicación se beneficiarán de los resultados del proyecto AWARE2.
La llaman la ‘supercámara’, pero su nombre científico es AWARE2. La revista Nature presenta esta semana una tecnología capaz de tomar imágenes de un gigapíxel a una velocidad de tres fotogramas por minuto.
Su calidad es 1.000 veces superior a la de las cámaras compactas convencionales de un megapíxel. Los resultados teóricos sugieren que la velocidad de la lente y su campo de visión podrían conseguir una resolución de hasta 50 gigapíxeles.
“Nuestro aparato utiliza un diseño de múltiples escalas para obtener las ventajas de lentes pequeñas en una cámara grande”, dice a SINC David Brady, investigador del Instituto de Fotónica Fitzpatrick de la Universidad de Duke (EE UU) y primer autor del estudio junto con sus colegas estadounidenses.
El planteamiento de AWARE2 es análogo al de un superordenador, que aumenta su potencia de trabajo por la unión de diferentes microprocesadores. Su sistema utiliza 98 microcámaras comprendidas en un espacio de tan solo 75x75x50 cm3, que es el volumen necesario para enfriar eficazmente los tableros de control electrónico.
Las empresas de seguridad se beneficiarán de esta tecnología por su precisión en la búsqueda y procesamiento de datos. También lo harán las compañías que se dedican a la transmisión en línea de eventos deportivos y musicales. Además, su tecnología es útil para imágenes promocionales de ciudades y objetos en el sector de la publicidad y del marketing.
De momento, el público general dispondrá de las fotografías de alta calidad de forma pasiva, a través de los medios de comunicación y de la contratación de profesionales. “A medida que mejore el proceso de fabricación de la tecnología, los fotógrafos se la podrán permitir”, dice Brady.
Actualmente, la ‘supercámara’ cuesta más de 100.000 dólares (unos 79.000 euros) por gigapíxel, pero Brady asegura que con el tiempo el coste puede bajar a la décima parte.

Fuente Agencia Sinc

Los ecosistemas acuáticos producirán más CO2 que los terrestres por el aumento de las temperaturas

A largo plazo, los ecosistemas acuáticos emitirán a la atmósfera mayor cantidad de CO2. Imagen: IEO.
Según un estudio internacional, con participación española y que publica la revista Nature esta semana, el CO2 producido por los ecosistemas acuáticos será en ocasiones el doble del generado por los terrestres. Una compilación global de datos y una teoría matemática han permitido calcular el incremento de la respiración de estos entornos ante el cambio de temperaturas.
La explicación de este fenómeno se encuentra en el flujo extra de carbono que llega a los ecosistemas acuáticos procedente de los terrestres, a través de la escorrentía tras las lluvias, lo que les permite quemar más carbono del que producen mediante la respiración.
“La respiración es un componente fundamental del ciclo del carbono y regula la concentración de CO2 en la atmósfera y, de este modo, el clima. Pero es sensible al aumento de la temperatura: cuanto más calor haga, mayor será el metabolismo, aumentará la respiración y la producción de CO2”, explica José María Montoya, uno de los autores del estudio e investigador en el Instituto de Ciencias del Mar (CSIC).
El cálculo de este aumento de las emisiones dióxido de carbono se ha realizado a través de un análisis de datos de tasas de respiración y una teoría matemática, creada en este trabajo, que combina los datos sobre la respiración de los organismos de diferentes ecosistemas con sus reacciones al aumento de las temperaturas.

Respiración ecosistémica

El trabajo, que se publica en Nature, permitió analizar los datos existentes sobre respiración ecosistémica (el conjunto de todas las respiraciones individuales de los organismos en un ecosistema) en diferentes tipos de hábitats, como bosques, suelos, ríos, lagos, estuarios y mares, y estimó qué ecosistemas respirarán más debido a un aumento de las temperaturas.
La energía de activación de la respiración en los ecosistemas acuáticos puede llegar a ser el doble que la observada en los terrestres
Ese cálculo se realizó teniendo en cuenta la energía de activación, que mide la sensibilidad de la producción de CO2 ante un cambio de temperatura.
“A corto plazo, hablamos de días y semanas, todos los ecosistemas se comportan igual: el mismo aumento de temperatura provoca el mismo aumento de CO2. Lo sorprendente es lo que ocurre a largo plazo. Durante un año, por ejemplo, la energía de activación de la respiración en los ecosistemas acuáticos puede llegar a ser el doble que la observada en los terrestres, lo que significa que producirán hasta el doble de CO2 en algunos casos”, indica Montoya. 

Flujo de carbono

En los ecosistemas “cerrados”, que no cuentan con un aporte extra de carbono desde otro hábitat, los organismos no pueden respirar más carbono del que fijan de la atmósfera, producto de la fotosíntesis. Es el caso de los ecosistemas terrestres.
Por el contrario, los ecosistemas acuáticos reciben flujos de carbono fijado en los bosques y en los suelos, así como nutrientes lavados por las lluvias que van a parar a ríos, lagos, estuarios y el mar. Esto hace que no se vean limitados por la fotosíntesis y puedan quemar más de lo que producen.
“Esto lo observamos en prácticamente todos los sistemas acuáticos analizados, donde la energía de activación de la respiración es mayor que en los terrestres”, apunta el investigador. A largo plazo, los ecosistemas acuáticos emitirán a la atmósfera mayor cantidad de CO2, por lo que “es muy probable que aumenten aún más el efecto invernadero y el calentamiento climático asociado”, añade.
Las consecuencias a escala global requieren una modelización más detallada, pero el mecanismo y diferencias descubiertas en este trabajo son “un paso fundamental”, concluye el experto.

Fuente Agencia Sinc 

jueves, 21 de junio de 2012

La ESA dibuja el primer mapamundi de la evolución de la humedad del suelo

Los 32 años de datos permitirán hacer un cálculo robusto de la climatología. Imagen: ESA
La Agencia Espacial Europea (ESA) presenta por primera vez un catálogo global de datos sobre la humedad del suelo correspondiente al período 1978-2010. La comunidad científica puede acceder al registro para hacer sus análisis retrospectivos y validar modelos climáticos.
La Agencia Espacial Europea (ESA) publica el primer archivo de datos sobre la humedad del suelo a escala global. El registro abarca el período de 1978 a 2010. La comunidad científica internacional ya puede acceder a este registro, que abarca el período de 1978 a 2010. La información servirá para hacer análisis retrospectivos y validar modelos climáticos.
Estos 32 años de datos permitirán hacer un cálculo robusto de la climatología, que como resultado permitiría estudiar anomalías como la excepcional sequía del centro de los Estados Unidos en el año 2005, de Brasil y de África Oriental en el verano de 2007, del sur de China durante el invierno 2009-2010 o de Rusia en 2010. En el mismo archivo, también se pueden apreciar claramente inundaciones como las de Afganistán en el año 1992, de África Oriental en 1998-99, de Marruecos en 2008 o de Queensland, Australia, en 2010-2011.
El agua almacenada en el suelo juega un papel muy importante en el sistema climático y apenas constituye el 0,001% del contenido de agua de la Tierra. Sin embargo, es esencial para el crecimiento de las plantas, y está íntimamente ligada con la regulación del clima y con la meteorología.
La humedad del suelo es una variable fundamental que controla el intercambio de agua y de energía entre la superficie de la tierra y la atmósfera: un suelo seco intercambiará menos agua con la atmósfera que uno húmedo.  El descenso de la tasa global de evaporación detectado recientemente podría estar causado, por ejemplo, por un menor contenido de agua en el terreno.
A día de hoy, todavía no se comprende en toda su magnitud la relación entre la humedad del suelo y el sistema climático, y hasta ahora, no se disponía de un archivo histórico de datos sobre este parámetro a escala global. Por este motivo, la evaluación de modelos climáticos en términos de la tendencia a la sequía o a la inundación o de su relación con las temperaturas continúa siendo una tarea difícil en muchas regiones del planeta.

La recolección de datos 

En el año 2009 la ESA lanzó la misión SMOS, dedicada a tomar medidas directas de alta calidad de la humedad almacenada en las capas superficiales del suelo. Si bien los datos de SMOS se utilizan principalmente para la predicción meteorológica, en estudios hidrológicos y para mejorar la gestión de los recursos hídricos, esta misión también proporciona datos prácticamente en tiempo real a un gran número de servicios operacionales. 
Para hacer frente a esta carencia de datos históricos, de gran utilidad para los estudios climáticos, la ESA ha apoyado el desarrollo de un archivo de datos sobre la humedad del suelo a escala global, basado en las medidas recogidas en el pasado por una serie de satélites europeos y estadounidenses.
Esta actividad se inició dentro del proyecto para el desarrollo de una Estrategia Multi-Misión para la Observación del Ciclo del Agua, liderado por ITC (Países Bajos), parte del programa de la ESA para el Apoyo al Elemento Científico. Actualmente, está siendo refinada y continuará en el contexto de la Iniciativa de la Agencia para el estudio del Cambio Climático. 
Este catálogo fue confeccionado al combinar dos conjuntos independientes de datos sobre la humedad del suelo. El primero está compuesto por datos obtenidos con sensores activos de microondas, procesados por la Universidad Politécnica de Viena, basados en las observaciones realizadas por los escaterómetros en banda-C embarcados en los satélites europeos ERS-1, ERS-2 y MetOp-A.
El segundo conjunto fue procesado por la Universidad Libre de Ámsterdam en colaboración con la NASA, basándose en datos obtenidos con sensores pasivos de microondas embarcados en las misiones Nimbus-7, DMSP, TRMM y Aqua.
La armonización de estos dos conjuntos de datos permitiría aprovechar al máximo el potencial de disponer de medidas realizadas con dos tipos diferentes de sensores de microondas, pero resultó ser más difícil de lo esperado debido a la degradación de los sensores, a derivas en la calibración y a cambios en los algoritmos de procesado utilizados originalmente.
Otra dificultad reside en el poder garantizar la consistencia de los datos sobre la humedad del suelo recogidos por distintos instrumentos, tanto activos como pasivos, en la banda de las microondas.

Fuente Agencia Sinc

Comienza la cumbre Rio+20 con un texto ya consensuado

Protestas en Río de Janeiro (Brasil). Imagen: EFE.
Más de 193 países se reúnen en Rio de Janeiro (Brasil) para renovar el compromiso hacia un planeta más limpio, verde, seguro, próspero y equitativo para todos, como ya lo hicieron hace 20 años en la Cumbre de la Tierra que se celebró en esta misma ciudad. Ayer llegaron los jefes de Estado para aprobar un documento que por ahora no convence a todos.
Para las miles de personas que participan en la cumbre, desde gobiernos, ONG’s, empresas y otros grupos, Rio+20 es la oportunidad para actuar contra la pobreza, asegurar la protección del medioambiente y luchar por la equidad social. La conferencia se centra en la ‘economía verde’ (en el contexto de la erradicación de la pobreza) y en el desarrollo de un marco institucional para el desarrollo sostenible.
Durante los preparativos de la cumbre, los países han discutido sobre siete áreas que requieren “una atención prioritaria”: empleo, energía, ciudades sostenibles, seguridad alimentaria y agricultura sostenible, agua, océanos y desastres naturales.
Pero desde el comienzo de las reuniones, el gobierno de Brasil, que ostenta la presidencia de Rio+20, lo tenía claro: el documento denominado El futuro que queremos debía estar listo antes de la llegada de los cerca de cien jefes de Estado que acudirán desde hoy a la Cumbre de Naciones Unidas sobre el Desarrollo Sostenible Rio+20. Y así ha sido.
Sin embargo, a pesar de su aprobación, el borrador del texto es “muy débil” para las organizaciones sociales que demandan un “milagro” a los líderes políticos para garantizar “el acceso a suficiente alimento, agua y energía para todos, respetando el medio ambiente”, ha declarado Lasse Gustavsson, jefe de la delegación de WWF en Río+20.
En el documento “descafeinado”, según algunas ONG’s, los países reconocen que desde 1992 –cuando se celebró la Cumbre de la Tierra a partir de la cual empezó una mayor concienciación medioambiental–, se han producido progresos “irregulares e insuficientes”, ralentizados también por la situación económica, financiera, energética y alimentaria que sufren de forma global todos los países.
A pesar de no lograr ciertos compromisos y ambiciones, el texto que se presenta hoy a los jefes de Estado ha sido consensuado y apoyado por todos los países. “Reconocemos que Rio es solo el comienzo de una serie de actividades que tienen que tratarse internacionalmente”, han asegurado en una declaración conjunta Ida Auken, ministro de medioambiente de Dinamarca y presidente del Consejo Europeo de Medioambiente, y Janez Potočnik, comisario europeo de medioambiente.

Sin ‘rescate’ para los océanos

El consenso logrado ha perjudicado el contenido de la posible declaración, ya que a pesar de incluir la reducción de la sobreexplotación de la pesca, la recuperación de los stocks de recursos marinos y la aceleración de la eliminación de los subsidios a la pesca industrial, no incluye un acuerdo de implementación para la protección de las aguas internacionales bajo el Convenio de Naciones Unidas del Derecho del Mar (UNCLOS).
Además, se ha abortado la transformación del Programa de Naciones Unidas para el Medio Ambiente (PNUMA) en la Organización Mundial del Medioambiente, una agencia de Naciones Unidas con mayor financiación, mayor capacidad de presión sobre los gobiernos y representación de todos los países.
Tras largas negociaciones, lideradas sobre todo por la UE, los países han decidido finalmente “fortalecer y mejorar” el PNUMA para una representación universal y una financiación más adecuada procedente de los presupuestos de Naciones Unidas y de contribuciones voluntarias.
Por otra parte, aunque para la UE la ‘economía verde’ se entiende ahora como una herramienta importante para lograr el desarrollo sostenible, la propuesta inicial era crear un mecanismo que permita alcanzar la meta del desarrollo sostenible y que asesore a los países en desarrollo a conseguir acceso a fondos y tecnología.
Según las ONG’s, el texto no aborda tampoco el fin de la deforestación o la implantación de energías renovables y, en general, “ignora por completo el llamamiento de la ciudadanía mundial para la eliminación de los subsidios a los combustibles fósiles”, ha apuntado Greenpeace.
El presidente del gobierno español, Mariano Rajoy, acudirá a Rio de Janeiro junto a Miguel Arias Cañete, ministro de Agricultura, Alimentación y Medio Ambiente. Hasta ahora, Federico Ramos, secretario de Estado de Medio Ambiente, había encabezado la delegación española en Brasil.  

Fuente Agencia Sinc

El ibuprofeno favorece la reparación del hueso tras una fractura o una cirugía

Pastillas de ibuprofeno. Imagen por My prince charming
Científicos de la Universidad de Granada (UGR) han demostrado en estudios in vitro que a dosis terapéuticas el ibuprofeno, un antiinflamatorio no esteroideo (AINE), favorece la regeneración del hueso en reparación tras una fractura o una cirugía.
Un estudio realizado en la Universidad de Granada (UGR) revela que el ibuprofeno, un antiinflamatorio no esteroideo (AINE), tiene propiedades beneficiosas en relación a otros AINEs en el tratamiento del hueso en reparación, es decir, después de una fractura o una cirugía ósea.
En un artículo publicado recientemente en el Journal of bone and mineral metabolism, los científicos de la UGR valoraron muy positivamente los efectos del ibuprofeno en las terapias relacionadas con el tejido óseo.
Los científicos han comprobado en ensayos in vitro que este fármaco, administrado a dosis terapéuticas, no muestra un efecto adverso a diferencia de otros AINEs sobre la capacidad proliferativa ni sobre la síntesis de osteocalcina del osteoblasto, la célula directamente implicada en el proceso de formación y regeneración del tejido óseo.
Los osteoblastos son las células del hueso, sintetizadoras de la matriz ósea, por lo que desempeñan un papel fundamental tanto en el desarrollo como en el crecimiento del hueso, encargándose de su mantenimiento, crecimiento y reparación.
Como explica Concepción Ruiz Rodríguez, autora principal del estudio y profesora del departamento de Enfermería de la universidad, hasta la fecha “apenas se tenía información” sobre el efecto del ibuprofeno sobre los osteoblastos.
El trabajo realizado ha demostrado que las dosis terapéuticas de ibuprofeno (5 y 25 µm.) no inhiben la proliferación celular y la síntesis de la osteocalcina en la línea celular MG-63, mientras que, si se administra a una dosis más alta (25 µm.), puede producir alguna activación de las células, lo que podría explicar el aumento en la expresión de marcadores de membrana y la disminución de la capacidad fagocítica.

Fuente Agencia Sinc 

El mayor consorcio astronómico se acerca al universo oscuro con ‘Euclides’

Recreación artística de Euclides. Imagen: ESA - C. Carreau.
Unos mil científicos de cien centros europeos y de EEUU tienen luz verde para poner en marcha la misión Euclides, cuya construcción ha aprobado esta semana la Agencia Espacial Europea. El  objetivo, estudiar la energía y la materia oscura del universo a partir de 2020.
La misión Euclides de la Agencia Espacial Europea (ESA), diseñada para descubrir la naturaleza de la materia y la energía oscura del universo, pasa a la fase de construcción. Así lo ha aprobado este miércoles el Comité para el Programa Científico de la ESA, que tiene previsto lanzar el satélite en 2020.
El comité también ha acordado con las agencias de financiación de varios de los estados miembros el desarrollo de dos de los instrumentos científicos de Euclides: una cámara en la banda de luz visible (VIS) y un espectrómetro en la del infrarrojo cercano (NISP), así como del gran sistema de procesamiento de datos que generará esta misión.
También se ha formalizado  un memorando de entendimiento entre la ESA y la NASA a través del cual la agencia espacial estadounidense colaborará en la misión proporcionando los detectores de infrarrojos. En total, el consorcio Euclides estará compuesto por cerca de mil científicos de cien institutos de investigación de 13 países europeos, con la colaboración de otros de EEUU.
Se trata de la mayor colaboración astronómica de la historia, según sus promotores, que supera a otras como Planck y GAIA de la ESA. “Su aprobación formal supone un gran hito para la comunidad científica, para sus agencias de financiación y también para la industria europea”, señala Álvaro Giménez Cañete, director de Ciencia y Exploración Robótica de la ESA.

Importante participación española

En este proyecto se integran un buen número de instituciones españolas. Participan el Institut de Ciències de l’Espai (ICE/IEEC-CSIC), el Institut de Física d’Altes Energies (IFAE), el Port d’Informació Científica, el Centro de Investigaciones Energéticas Medioambientales y Tecnológicas (CIEMAT), el Instituto de Física Teórica (IFT) de la Universidad Autónoma de Madrid, la Universidad Politécnica de Cartagena, el Centro de Astrobiología (INTA-CSIC) y el Instituto de Astrofísica de Canarias (IAC).
“Durante los últimos años el consorcio ha ido reuniendo a expertos en astronomía, cosmología, física, diseño de satélites y software dentro del equipo que trabaja en la definición y mejora de la misión; y ahora ya hay luz verde para ponerla en marcha”, destaca Francisco Castander, del ICE.
Este centro, junto al IFAE y el CIEMAT, aportarán la rueda de filtros para el instrumento NISP. La construcción de este subsistema se realizará en el taller mecánico del IFAE y en colaboración con la industria espacial española. A su vez, el ICE,  junto con el PIC, el IFAE y el IFT desarrollarán simulaciones de alta resolución de la estructura del universo para su posterior comparación con las observaciones del satélite. En el PIC estará ubicado uno de los centros de datos científicos de Euclides.
 “En la actualidad trabajamos con el satélite Planck, y en la próxima década lo haremos con Euclides”, apunta Rafael Rebolo, profesor de investigación del CSIC en el IAC y uno de los dos coordinadores del proyecto en España. “Ambos satélites constituyen un enorme esfuerzo europeo por comprender el origen y la evolución del universo, así como la naturaleza de la materia y energía que contiene”.
Euclides cartografiará de forma tridimensional unos dos mil millones de galaxias y el universo ‘oscuro’ que las rodea, abarcando el 40% de todo el cielo. Midiendo la distribución y formas de las galaxias, los astrónomos confían en dilucidar el origen de la energía oscura y confirmar si la teoría de la relatividad general se ajusta a escalas más allá de los mil millones de años luz.
“Ahora dispondremos de un diseño sólido y viable para un observatorio espacial que permitirá realizar medidas de alta precisión y que nos ayudará a comprender mejor la naturaleza de la energía oscura”, dice Yannick Mellier, líder del consorcio e investigador del Institut d'Astrophysique de París.
En los próximos meses, se pedirá a la industria que envíe sus ofertas para suministrar los distintos componentes del satélite, como el telescopio (de 1,2 metros de diámetro), el sistema de potencia eléctrica, el de control de órbita, orientación del satélite y comunicaciones.
A lo largo de más de diez mil millones de años-luz, esta misión estudiará la evolución de la estructura del universo durante tres cuartas partes de su historia. Euclides se ha diseñado para encontrar respuestas a una de las cuestiones más importantes de la cosmología moderna: ¿Por qué el universo se expande de forma acelerada, en lugar de frenarse bajo la acción gravitatoria de la materia que contiene? La energía oscura parece estar detrás del fenómeno.
Euclides, junto a Solar Orbiter,  fue seleccionada en octubre de 2011 como una de las dos primeras misiones de clase-M del programa Cosmic Vision 2015-2025 de la ESA.

Fuente Agencia Sinc

miércoles, 20 de junio de 2012

Los antepasados más remotos de las estrellas de mar tenían simetría bilateral, como los humanos

Reconstrucción del fósil. Samuel Zamora
Un nuevo fósil de equinodermo encontrado en el Parque Natural del Moncayo (Zaragoza), revela que los primeros representantes de este grupo fueron bilaterales, con una simetría que divide el cuerpo en dos partes iguales, y no radiales, con un patrón simétrico parecido a una rueda, como se había pensado hasta el momento.
El investigador aragonés Samuel Zamora acaba de publicar en la revista científica PLoS ONE que los antepasados más remotos de las estrellas de mar fueron bilaterales y no radiales como se había pensado hasta ahora. Zamora, investigador de un proyecto de investigación de la Universidad de Zaragoza sobre el periodo Cámbrico y que actualmente trabaja en el Museo de Historia Natural de Londres, ha conseguido estos resultados junto a Andrew Smith (investigador en el mismo museo londinense) e Imran Rahman, de la Universidad de Birmingham.
El desarrollo embionario de los equinodermos ha intrigado desde hace décadas a los biólogos porque los adultos de estos animales tienen simetría radial. Sin embargo, esta simetría, que es una de las principales características del grupo, está ausente en las larvas, que son bilaterales. Esto significa que una metamorfosis muy compleja de estas larvas conduce hacia el desarrollo de un adulto radial.
Los paleontólogos han buscado desde décadas en las rocas más antiguas del Cámbrico –momento en que se produce una gran explosión de la vida animal en la tierra–, donde aparecen los primeros equinodermos, para tratar de dilucidar si los fósiles podían aportar información, y todas las conclusiones eran las mismas: los primeros equinodermos ya eran radiales.
Con el hallazgo liderado por el investigador aragonés, los datos embriológicos, evolutivos y paleontológicos coinciden cerrando un debate que desde hace siglos existía entre biólogos y paleontólogos. El nuevo fósil se ha bautizado como Ctenoimbricata spinosa, y viene a sumarse a los hallazgos paleontológicos realizados en este yacimiento en los últimos años.

Por cada fósil, 1.200 radiografías

Los dos ejemplares de este nuevo fósil fueron encontrados en los años 2009 y 2010 en unas excavaciones realizadas en la localidad de Purujosa, dentro del Parque Natural del Moncayo (Provincia de Zaragoza), que ha proporcionado miles de fósiles muy bien conservados de la época cámbrica. Este periodo de la historia de la tierra se caracteriza porque es el momento en el que la vida compleja empieza a ser diversa en los mares, en lo que se ha llamado la Explosión del Cámbrico.
Los fósiles fueron estudiados mediante microtomografía computerizada, una técnica novedosa que permite diseccionar el fósil en 3D sin destruirlo y poder visualizarlo en un ordenador. Dos escáneres 3D, uno para cada ejemplar, fueron realizados en el Natural History Museum de Londres y en la Universidad de Birmingham. Se obtuvieron un total de 1.200 radiografías de cada fósil que, posteriormente, fueron analizadas durante varios meses para poder reconocer cada una de las partes anatómicas de los fósiles. El resultado fueron dos modelos tridimensionales de los fósiles que permiten observar con todo detalle la anatomía de estos animales y poder estudiarlos.
Precisamente en 2009, Samuel Zamora aplicó por primera vez en un fósil del cámbrico español este novedoso sistema de visualización en 3D para observar el interior de un pequeño fósil de hace 510 millones de años encontrado en el Parque Natural del Moncayo. Los beneficios de esta metodología se han demostrado incalculables frente a las técnicas destructivas aplicadas hasta ahora para acceder y estudiar lo que los caparazones, la roca o los huesos ocultan.
Este nuevo método de penetración en el interior del fósil fue desarrollado gracias a la colaboración con investigadores del Imperial College de Londres, centro que cuenta con tecnología de alta resolución, superior incluso a la que se aplica en la tomografía axial computarizada (TAC o escáner) en el diagnóstico humano.

Espinosa y bilateral

Ctenoimbricata spinosa no se parece a ningún ejemplar que habite actualmente los mares en la actualidad y, mucho menos, a una estrella de mar. Sin embargo un análisis de su anatomía refleja que se trata de un animal emparentado con los equinodermos. Este animal tenía forma bilateral y seguramente poca capacidad de movimiento ya que carece de apéndices locomotores. Tiene un sistema defensivo compuesto por espinas que le permitió protegerse de los depredadores, similar al de los erizos actuales. Su alimentación era una mezcla entre detritívora y suspensívora captando partículas del suelo marino que eran procesadas en una faringe interna.
Por primera vez Ctenoimbricata ha permitido reconstruir completamente el árbol evolutivo de los equinodermos y proporciona una visión de cómo eran estos animales poco antes de su origen. Gracias a este hallazgo se ha demostrado que la simetría radial de las estrellas y los erizos de mar y que tan familiar nos resulta, es una modificación de una simetría bilateral que los primeros equinodermos ya poseían. Esta conclusión cambia radicalmente la visión que se tenía sobre la forma y hábitos alimenticios de los primeros equinodermos y Ctenoimbricata permite conocer esta condición.

Fuente Agencia Sinc

martes, 19 de junio de 2012

Nueva herramienta de búsqueda de información ambiental

Joaquín Huerta Guijarro, profesor de Lenguajes y Sistemas Informáticos de la UJI. Imagen: RUVID.
Un equipo europeo, en el que ha participado la Universitat Jaume I, ha diseñado una herramienta informática que recopila y facilita las búsquedas de datos sobre cubierta forestal, sequía y biodiversidad facilitados por sistemas de observación de la Tierra. Los resultados ayudan a monitorizar y gestionar los territorios.
El Instituto de Nuevas Tecnologías de la Imagen de la Universitat Jaume I (UJI) ha participado en el diseño de una herramienta informática que integra toda la información sobre la cubierta forestal, la sequía y la biodiversidad producida por diversos sistemas europeos de observación de la Tierra.
La tecnología se ha desarrollado en el marco del proyecto europeo EuroGEOSS (Perspectiva europea del sistema de sistemas de observación de la Tierra) que combina recursos procedentes de fuentes oficiales y aportaciones ciudadanas. El objetivo es facilitar el acceso a la ingente cantidad de datos relevantes para mejorar la monitorización y la gestión del territorio
Millones de sensores constantemente registran parámetros medioambientales como la calidad del aire, la contaminación lumínica, el ruido ambiental, la densidad de la vegetación, la biodiversidad o la calidad del agua. Estos datos proporcionan valiosa información sobre el estado del planeta tanto a centros de investigación y vigilancia como a la administración para enviar alertas e impulsar proyectos y políticas.
Ante esta proliferación de fuentes que ofrecen datos, en 2003 se creó GEOSS (Global Earth Observation System of Systems) en un intento a nivel internacional de elaborar un registro abierto de todos los sistemas existentes.
Sin embargo, hasta ahora los diferentes sistemas repartidos por el mundo operaban de manera autónoma y sin conexión entre ellos con lo cual era imposible obtener visiones más globales, como el impacto del cambio climático, por ejemplo. La Comisión Europea consideró que se podrían multiplicar los beneficios si los datos de las diferentes disciplinas fueran comparables y compatibles para encontrar soluciones integrales.
El profesor de Lenguajes y Sistemas Informáticos Joaquín Huerta Guijarro, investigador principal del proyecto en la UJI, explica la relevancia de esta interoperabilidad: "Si integramos un sistema de información meteorológico con otro que ofrece información sobre tipos y calidad de suelo con otro que indique fuentes de agua, se podrá elaborar un eficaz proyecto de agricultura o reforestación".
EuroGEOSS es un proyecto impulsado desde la propia Comisión Europea que pretende contribuir a GEOSS con un inventario de los sistemas, recursos y servicios europeos de observación ambiental, centrándose especialmente en tres de las áreas temáticas consideradas estratégicas para Europa: Cubierta Forestal, Sequía y Biodiversidad. El esfuerzo de los 22 socios de 10 países se ha traducido en un buscador llamado EuroGEOSS Broker. La mayor aportación del proyecto ha sido el diseño de una herramienta de búsqueda para interconectar los datos y contribuir así a una mejor toma de decisiones, sobre todo en el caso de la prevención y gestión de desastres naturales.
"La interoperabilidad entre sistemas permite conocer, pongamos por caso, el riesgo de incendio de una zona así como la pérdida de biodiversidad y el peligro de desertificación que supondría. Así se podrán impulsar medidas correctoras para evitar tal escenario", comenta el investigador de la UJI. La iniciativa europea también ha contribuido a que todos los expertos que utilizan estos sistemas tengan un mejor conocimiento sobre el trabajo que desarrollan los demás para evitar duplicidades y fomentar las colaboraciones entre ellos.
El equipo multidisciplinar que ha participado en la iniciativa incluye centros dedicados a las tres áreas temáticas, es decir, usuarios de estos sistemas, y centros de investigación en ingeniería del software que han conseguido integrar dicha tecnología. En el caso del Instituto de Nuevas Tecnologías de la Imagen de la Universitat Jaume I, los investigadores han trabajado en el ámbito de los metadatos, esto es, la información sobre la calidad de los datos, una tarea fundamental para asegurar que la diferente información fuera interoperable.
Otro de los aspectos innovadores que han abordado desde la UJI es el uso de información de interés medioambiental procedente de las aportaciones ciudadanas en las redes sociales. "GEOSS recoge un listado de entidades oficiales y fuentes de datos oficiales pero nosotros hemos incorporado la posibilidad de recurrir a datos complementarios procedentes de la Web 2.0", explica Joaquín Huerta.

Tuits y fotos de Flickr

En este sentido, tuits o fotos de Flickr sobre la detección temprana y la evolución de eventos medioambientales tales como terremotos o incendios, por ejemplo, pueden resultar enormemente útiles, así como las entradas en Facebook, los artículos en la Wikipedia, y otros servicios que tienen que ver específicamente con información geográfica voluntaria como OpenStreetMap con información sobre mapas o Meteoclimatic, que comparte la información recogida en estaciones meteorológicas caseras.
EuroGEOSS  se ha financiado con 6,1 millones de euros a través del tema 'Medio ambiente' del Séptimo Programa Marco (7PM) de la Unión Europea. Además de la Universitat Jaume I, han colaborado en la iniciativa otros cinco centros españoles: el Observatorio de Sostenibilidad de España, el Instituto Geográfico Nacional, la Universidad de Zaragoza, el CSIC y la Confederación Hidrográfica del Ebro.
La contribución de este proyecto ha supuesto el empuje necesario para que la Comisión Europea siga desarrollando la iniciativa GEOSS. En este sentido Huerta añade: "EuroGEOSS ha servido para probar la eficiencia de GEOSS y demostrar que el beneficio de este programa supera ampliamente el valor de la inversión, además de las ventajas intangibles que supone para el medio ambiente y la sostenibilidad".
Tanto es así que ya está en marcha la ampliación del proyecto a través de GEOWOW (GEOSS interoperability for Weather, Ocean and Water) que continúa desarrollando las mismas herramientas de EuroGEOSS pero en este caso referidas a otras tres áreas temáticas estratégicas: climatología, océanos y agua.

Fuente Agencia Sinc 

MÁS NOTICIAS EN EL BLOG