martes, 4 de diciembre de 2012

El tifón Bopha mató al menos seis personas en Filipinas

Crédito Foto: Prensa Latina
El tifón Bopha mató al menos seis personas en Filipinas y obligó a otras 53 mil a buscar refugio en albergues de emergencia, se divulgó hoy en esta capital. Bopha tocó tierra en la isla de Mindanao, en el sur del país durante esta madrugada, trayendo lluvias torrenciales y rachas de vientos de hasta 210 kilómetros por hora, que derribaron árboles y líneas eléctricas.
Por la tarde, el tifón disminuyó algo, con ráfagas máximas de 195 kilómetros por hora, de acuerdo con el servicio meteorológico estatal.
El jefe de Protección Civil, Benito Ramos, dijo que la tormenta cambió el rumbo y se espera que llegue a las islas centrales de Bohol, Negros y el complejo turístico de isla de Cebú este martes. Cientos de personas mueren cada año por la veintena de ciclones tropicales que azotan el archipiélago de Filipinas, pero Ramos dijo que hasta ahora las pérdidas humanas han sido mínimas debido a la colaboración del pueblo y los esfuerzos de los funcionarios locales.
En agosto, casi 100 personas murieron y más de un millón fueron evacuadas como resultado de las inundaciones causadas por una serie de tormentas, según cifras del Gobierno.

Fuente Prensa Latina

Simulan por primera vez un paso clave en la maduración del virus del sida

La VIH proteasa funciona como unas tijeras cortando la cadena de poliproteínas. Imagen: Gianni de Fabritiis – IMIM/UPF.
Bioinformáticos del Instituto Hospital del Mar de Investigaciones Médicas (IMIM) y de la Universidad Pompeu Fabra (UPF) han descrito, mediante técnicas de simulación molecular, un paso muy concreto en el proceso de maduración de los viriones del VIH, es decir, cómo las nuevas partículas de virus inerte que se forman se convierten en infecciosas.
Los resultados, publicados en la última edición de la revista PNAS, son esenciales para entender su replicación y pueden ser claves en el diseño de futuros nuevos fármacos antirretrovirales.
Los viriones del VIH se convierten en maduros e infecciosos a través de la acción de una proteína llamada VIH proteasa. Ésta actúa como unas 'tijeras', cortando la larga cadena de proteínas que forman el VIH, en proteínas individuales que formaran la estructura infecciosa de nuevos viriones.
Según los autores, “uno de los aspectos más intrigantes de todo el proceso de maduración del VIH, es cómo la VIH proteasa se libera, es decir como la 'proteína tijeras' aparece por primera vez, ya que esta también forma parte inicialmente de la larga cadena de proteínas que forman los nuevos viriones del VIH".
Mediante un software para simulaciones moleculares (ACEMD) y utilizando una tecnología llamada GPUGRID.net, el grupo, coordinado por Gianni De Fabritiis del IMIM-UPF, ha sido capaz de demostrar que las primeras 'proteínas tijeras' se pueden cortar ellas mismas de dentro la cadena de proteínas.
Los científicos sostienen que esto lo hacen uniendo a su propia parte activa uno de sus finales conectados –el N-terminus– y cortando luego el enlace químico que los conecta con el resto de la cadena: "Este es el inicio de todo el proceso de maduración del VIH, y si somos capaces de detener el VIH proteasa mientras todavía está en proceso de maduración, impediremos que las partículas víricas o viriones lleguen a madurar y, por lo tanto, puedan infectar".

Gracias a un superordenador virtual

El trabajo se ha realizado utilizando la plataforma de cálculo voluntario distribuido GPUGRID.net, que consiste en aprovechar para la investigación la potencia de miles de unidades de procesamiento gráfico Nvidia GPU accelerators, cedida voluntariamente por los propietarios de múltiples ordenadores domésticos mientras no la necesitan.
"Sería como disponer de un superordenador virtual. Esto permite que la potencia de cálculo sea unas 10 veces superior a la generada con los ordenadores normales y, como consecuencia, que se reduzcan los costes de la investigación al proporcionar un nivel de potencia computacional que antes solo se podía obtener utilizando superordenadores multimillonarios", afirman los autores.
Los investigadores utilizan esta potencia de cálculo para procesar grandes cantidades de datos y generar simulaciones moleculares de alta complejidad. Concretamente en este caso, han realizado miles de simulaciones computacionales, cada una para cientos de nanosegundos –la mil millonésima parte de un segundo– para estudiar un proceso que en total dura casi un milisegundo.
"Este descubrimiento en el proceso de maduración del VIH proporciona un camino alternativo en el diseño de futuros fármacos que se basarían en la utilización de estos nuevos mecanismos moleculares", concluyen los expertos. "Por ahora, este trabajo proporciona una mayor comprensión de un paso clave en el ciclo de la vida del VIH, un virus que ataca directamente y debilita el sistema inmunológico de nuestro organismo convirtiéndolo en vulnerable a gran número de infecciones y que afecta a millones de personas en todo el mundo".

Fuente Agencia Sinc

lunes, 3 de diciembre de 2012

Un software conecta los ecosistemas para conservar su biodiversidad

Conectividad propiciada por la continuidad y proximidad espacial de masas forestales en el Barranco de Caranys (Tremp, Lérida). Imagen: Cristina Vega.
Miembros de la Universidad Politécnica de Madrid y otros centros han desarrollado una metodología para apoyar la toma de decisiones en el mantenimiento y fomento de la conectividad ecológica, de interés en los planes de gestión y conservación.
La metodología, basada en nuevos índices que cuantifican la cantidad de hábitat alcanzable en el territorio para las especies, ha sido implementada en una herramienta de uso libre: el programa informático Conefor. Según sus promotores, se ha convertido en una de las referencias internacionales en este campo.
La conectividad ecológica (también llamada conectividad del paisaje) se define como el grado en que el territorio facilita el movimiento de las especies, el intercambio genético y otros flujos ecológicos entre las poblaciones y hábitats distribuidos a lo largo del mismo.

Importancia de la conectividad ecológica

El mantenimiento y fomento de la conectividad ecológica es una pieza clave en los esfuerzos nacionales e internacionales para la conservación de la biodiversidad, al permitir contrarrestar los efectos adversos de la fragmentación y aislamiento de los ecosistemas y facilitar la adaptación de las especies a los desplazamientos en sus áreas óptimas de distribución causados por el cambio climático y otros factores.
En un contexto de crecientes presiones a escala global sobre los ecosistemas naturales derivados de la deforestación, la expansión de las redes de transporte, los desarrollos urbanísticos, la intensificación de la agricultura y otros cambios en los usos del suelo, es necesario tomar medidas que contribuyan a garantizar la viabilidad y persistencia de la especies de fauna y flora.
Entre ellas, la gestión y conservación de la conectividad ecológica deben jugar un papel protagonista, tal como recogen numerosas iniciativas, políticas y legislaciones vigentes en España y en el conjunto de la Unión Europea. Por estos motivos, cada vez es mayor el énfasis otorgado a medidas como el establecimiento o restauración de corredores y otros elementos conectores entre hábitats, la permeabilización del territorio, o la defragmentación y mitigación del efecto barrera de autopistas y otras infraestructuras viarias.
Sin embargo, la aplicación práctica de estos conceptos y consideraciones se ha visto limitada en la práctica por la falta de procedimientos y metodologías contrastadas que, con una base sólida y cuantitativa, permitieran a los gestores incorporar de manera efectiva y operativa criterios de conectividad ecológica en la planificación territorial, el diseño de redes de espacios protegidos, o la conservación de especies amenazadas.

Difusión mundial

Para superar estas carencias, investigadores de la ETSI de Montes de la UPM dirigidos por el catedrático Santiago Saura Martínez de Toda, en colaboración con otros grupos, han desarrollado esta nueva metodología que a pesar de ser reciente está alcanzando una amplia difusión y aceptación a nivel mundial.
Las aplicaciones del Conefor realizadas hasta la fecha incluyen, entre otras, el planeamiento de desarrollos urbanísticos en la región de Estocolmo (Suecia), la identificación de zonas críticas para la conservación de aves amenazadas en España y Brasil y la evaluación del impacto de las infraestructuras viarias en China y Europa y sus posibles medidas de permeabilización.
También se ha empleado en los planes de recuperación de las poblaciones de especies amenazadas en EEUU, el diseño de redes de corredores y planes de reforestación, la evaluación de la efectividad de las redes de espacios protegidos y otras figuras de protección en países como Finlandia o Alemania, así como el seguimiento de indicadores de biodiversidad y la fragmentación de los ecosistemas europeos por parte de la Comisión Europea y la Agencia Europea de Medio Ambiente.

Fuente Agencia Sinc

Nuevas evidencias de agua helada y posible materia orgánica en Mercurio

Región del polo norte de Mercurio con las zonas (en rojo) que la sonda Messenger siempre ha observado en sombra. En amarillo, los depósitos polares captados desde los radares de la Tierra. Imagen: NASA et al.
Algunas observaciones registradas desde radares terrestres ya habían sugerido que en los cráteres que están permanentemente en sombra en los polos de Mercurio podría haber agua helada. Ahora la nave MErcury Surface, Space ENvironment, GEochemistry and Ranging (Messenger), en órbita alrededor del planeta, parece confirmarlo.
Los últimos datos de esta sonda de la NASA han revelado la presencia de superficies brillantes y oscuras al analizar su reflectancia (propiedad de un cuerpo para reflejar la luz). Los científicos consideran que podrían contener agua congelada y materiales orgánicos, respectivamente. En concreto, se localizan en las regiones sombreadas del polo norte de Mercurio, el planeta más próximo al Sol.
Así lo apuntan tres estudios que aparecen en Science esta semana, que también recogen información facilitada por el altímetro láser y el espectrómetro de neutrones de Mesenger. El primer trabajo lo coordina el investigador Gregory Neumann del Goddard Space Flight Centery de la NASA y el segundo David Lawrence del Johns Hopkins University Applied Physics Laboratory (EEUU).
"Los nuevos hallazgos nos permiten descartar que los radares hubieran podido detectar otros materiales reflectantes distintos al hielo", señala Neumann. "Ahora podemos centrarnos en la comprensión de los procesos que han emplazado elementos volátiles –la posible materia orgánica– en los polos de Mercurio".
Los científicos consideran que las cantidades detectadas de hidrógeno “son consistentes con la presencia de agua helada en esas regiones”. El hielo se podría haber conservado ahí durante millones de años después de “haber sido entregado por un cometa o un asteroide”, según la hipótesis que proponen los investigadores.
La misma propuesta se plantea en el tercer estudio, liderado por David Paige desde la Universidad de California en Los Ángeles (EEUU). Este equipo ha confirmado los mismos resultados con imágenes infrarrojas: posible agua congelada en las zonas brillantes, junto a regiones más oscuras donde el hielo puede estar cubierto por una capa rica en materia orgánica.
"Es increíble. Encontramos una sustancia sobre el hielo que es más oscura que el resto de Mercurio, que ya de por sí es un planeta realmente oscuro", apunta Paige, quien añade: "Por lo menos, eso significa que algo fuera de lo común sucede dentro de estas áreas permanentemente en sombra en las que se ha ido acumulando el hielo".

Fuente Agencia Sinc

domingo, 2 de diciembre de 2012

El aprendizaje del canto ayuda a las aves a adaptarse al ruido urbano

Ave suboscina mosquero parduzco (Cnemotriccus fuscatus). Imagen: Diego Gil
Un estudio en 28 poblaciones de 21 especies de aves en México y Brasil concluye que el aprendizaje del canto ayuda a las aves a adaptarse a las condiciones de ruido en las ciudades. “Los resultados de esta investigación apoyan la hipótesis de que el aprendizaje del canto, que se encuentra restringido a unos cuantos grupos de aves, es un mecanismo que les permite usar el canto más apropiado para los hábitats en los que viven. Eligen el canto que mejor se oye, transmite y el que menos se deteriora en ese ambiente”, explica el investigador del Consejo Superior de Investigaciones Científicas (CSIC)  Diego Gil, del Museo Nacional de Ciencias Naturales.
Trabajos previos habían demostrado que las aves modifican su canto en hábitats urbanos, haciéndolo más agudo, para que pueda percibirse sobre el ruido continuo de las ciudades. Ahora, los investigadores han visto que esa modificación resulta más sencilla para aquellas aves que necesitan aprender de sus semejantes el canto de su especie (denominadas oscinas) frente a las que están “genéticamente programadas” para realizar un tipo concreto de canto, más simple, que no requiere aprendizaje (las suboscinas).
“Las aves suboscinas podrían ser más vulnerables a la contaminación acústica y menos capaces de colonizar ciudades o nuevos hábitats acústicos. Esta diferencia entre los dos grupos es relevante para la planificación de la conservación biológica ya que ofrece información acerca de las diferencias que existen entre las especies en cuanto al grado de resiliencia a las condiciones urbanas”, concluye Gil.
El estudio, en el que también han participado investigadores de la Universidad Nacional Autónoma de México, ha sido financiado por la Fundación BBVA.

Fuente Agencia Sinc

sábado, 1 de diciembre de 2012

El nivel del mar ha subido 11,1 milímetros desde 1992 en la Antártida y Groenlandia

Tanto la Antártida como Groenlandia pierden masa de hielo de manera constante. Imagen: Ian Joughin.
Las fluctuaciones en la masa de las capas del hielo tienen una gran importancia, ya que afectan a los niveles del mar y a las condiciones de los océanos. Estos cambios se producen como consecuencia de sus dinámicas internas y de los cambios en las condiciones atmosféricas y oceánicas.
Un estudio que publica esta semana la revista Science asegura que la fusión de las capas de hielo en la Antártida y en Groenlandia ha contribuido en 11,1 milímetros a la subida del nivel del mar desde 1992. De ese aumento, aproximadamente dos tercios pertenecían a hielo de Groenlandia y el resto a la Antártida.
El equipo internacional de expertos, liderados por la Universidad de Leeds (Reino Unido) y por el Laboratorio de Propulsión de la NASA, ha utilizado para llevar a cabo este estudio los datos procedentes de hasta diez satélites diferentes.
Algunos de ellos fueron el radar altimeter –mide la altitud sobre el terreno– y el radar láser altimeter –calcula la elevación de la superficie marina– Asimismo, analizaron cuáles eran los cambios en el equilibrio de la masa de la superficie.

Datos de diferentes tipos de satélites

Los científicos explican que en su investigación han estudiado “datos recogidos por esos distintos tipos de satélites, que emplean técnicas geodésicas”. Estas técnicas permiten analizar la figura y la magnitud del globo terrestre para construir los mapas necesarios y son empleadas en materias como navegación o en cartografía.
Erik R. Ivins, uno de los coordinadores del proyecto, añade que, en el caso particular de Groenlandia, han descubierto que la pérdida de hielo “ha aumentado hasta cinco veces desde mediados de los años 90”.
Para cuantificar y caracterizar los cambios que se han producido en la masa de hielo, los científicos observaron los datos obtenidos entre 1992 y 2011 en varios lugares: la Antártida Este, la Antártida Oeste, la Península Antártida y Groenlandia.
Tras comprobar los resultados, vieron que eran fidedignos únicamente entre enero de 2003 y diciembre de 2008, pues en este periodo todos los satélites funcionaban correctamente al mismo tiempo.
Según recoge el estudio, “la fusión de las capas de hielo ha aumentado con el tiempo y, en conjunto,  Groenlandia y la Antártida pierden actualmente tres veces más de hielo –0.95 mm de nivel del mar por año– que lo que perdían en la década de los 90 –0,27 mm de nivel del mar–“.
Gracias a la utilización de esos diferentes métodos, los investigadores afirman haber realizado la evaluación más exacta hasta el momento sobre la pérdida de hielo de la Antártida y de Groenlandia.
De este modo, aseguran, han podido “reconciliar las diferencias entre decenas de estudios anteriores y poner fin a 20 años de incertidumbre”.
Según el Panel Intergubernamental del Cambio Climático (IPCC por sus siglas en inglés) del año 2007, la pérdida de masa de hielo en esas zonas polares había disminuido su velocidad.

Pérdida constante de masa de hielo

Sin embargo, este indicador ofrecía unos datos tan amplios que no estaba claro si la Antártida estaba creciendo o, por el contrario, su capa de hielo era cada vez menor.
Pero con este estudio “se confirma que tanto la Antártida como Groenlandia pierden masa de hielo de manera constante”, comentan los científicos.
Además, los datos obtenidos “serán esenciales para probar modelos predictivos en el futuro y conducirán a una mejor comprensión de cómo los cambios en el nivel del mar pueden depender de decisiones humanas que influyen en las temperaturas globales”, concluyen.

Fuente Agencia Sinc

Captan la mayor explosión provocada por un agujero negro

Impresión artística del gigantesco chorro eyectado por el cuásar SDSS J1106+1939. Imagen: ESO/L. Calçada.
Utilizando el Very Large Telescope (VLT) del Observatorio Europeo Austral (ESO), un equipo de astrónomos ha descubierto un cuásar –denominado DSS J1106+1939– con la emisión más energética descubierta hasta el momento.
Los cuásares son centros galácticos extremadamente brillantes activados por agujeros negros supermasivos.  Muchos eyectan ingentes cantidades de material hacia sus galaxias anfitrionas, y estos chorros juegan un papel muy importante en la evolución galáctica.  Hasta ahora, los chorros de cuásares observados no eran tan potentes como predecían los teóricos.
“Hemos descubierto la eyección de cuásar más energética conocida hasta el momento. La velocidad a la que es expulsada esta energía por la enorme masa de material eyectado desde SDSS J1106+1939 es, al menos, equivalente a dos millones de millones de veces la potencia que emana del Sol. A su vez, implica que es cien veces más potente que la producción energética total de nuestra galaxia, la Vía Láctea” afirma el investigador principal del equipo, Nahum Arav, de Virginia Tech (EEUU).
“Es una eyección  verdaderamente monstruosa –destaca el investigador–. Y la primera vez que la eyección de un cuásar ha sido medida con el fin de obtener la clase de muy altas energías que predicen las teorías”.
Numerosas simulaciones teóricas sugieren que el impacto de estas eyecciones en las galaxias del entorno puede resolver varios enigmas de la cosmología moderna, incluyendo cómo la masa de una galaxia está asociada a la masa de su agujero negro central, y por qué hay tan pocas galaxias grandes en el universo.  Sin embargo, hasta ahora no se sabía con certeza si los cuásares eran capaces de producir chorros lo suficientemente potentes como para producir estos fenómenos.
Las nuevas eyecciones descubiertas se encuentran a unos mil años luz de distancia del agujero negro supermasivo que se encuentra en el corazón del cuásar SDSS J1106+1939. Estos chorros son, al menos, cinco veces más poderosos que los récords previos registrados.
El análisis también muestra que el cuásar pierde al año una masa de, aproximadamente, 400 veces la masa del Sol, moviéndose a una velocidad de unos 8.000 kilómetros por segundo.
Además de a SDSS J1106+1939, el equipo también observó otro cuásar y descubrió que ambos objetos tienen poderosa eyecciones.  Al tratarse de típicos ejemplos de un tipo de cuásar muy común, pero poco estudiados, estos resultados podrían aplicarse a cuásares luminosos de todo el universo.

Desarrollan una mosca para estudiar cómo una célula normal se transforma en tumoral

Tumor epitelial (en verde) implantado en una mosca. Imagen: Mariana Muzzopappa / © Lab M. Milán, IRB Barcelona.
En el ala de una mosca podría estar la llave para dilucidar a nivel genético y molecular cada uno de los eventos que transforman una célula normal en tumoral. Un trabajo, liderado desde el Institut de Recerca Biomèdica (IRB Barcelona) por el investigador ICREA Marco Milán, consigue reproducir en la especie Drosophila melanogaster cada uno de los pasos conocidos para que una célula sana acabe generando un tumor.
El equipo pone al alcance de la comunidad científica un modelo genético barato y eficaz que puede ayudar a escrutar los genes y moléculas involucrados en cada uno de esos episodios. Dado que la inmensa mayoría de genes de Drosophila están conservados también en ratones y humanos, los resultados obtenidos en la mosca podrían convertirse en motor para que se investiguen en modelos más cercanos a la clínica, según el estudio que publica la revista PNAS esta semana.
El científico argentino Andrés Dekanty, investigador Juan de la Cierva del laboratorio de Milán y primer autor del artículo, explica que por primera vez, "disponemos de un modelo genético que nos permitirá entender los eventos que van desde la acumulación de aberraciones genómicas de una célula al comportamiento tumoral”. El equipo de Milán provocó inestabilidad genómica en algunas células del ala de la mosca.
Después, permitió que esas células con un número de cromosomas aberrantes (células aneuploides) no sucumbieran ante los mecanismos naturales de autodefensa celular, y sobrevivieran. A partir de ahí, observaron que las células se desprendían del tejido, adquirían capacidad de movimiento, activaban el crecimiento anormal de células colindantes, degradaban la membrana basal que las mantenía en su sitio, escapando del tejido, e incluso eran capaces de invadir tejidos vecinos.
“Todos estos eventos son paralelos a lo observado en un cáncer, así que este modelo de mosca nos serviría para describir cada uno de los genes y moléculas involucrados en desprendimiento del tejido epitelial (delaminación), motilidad, crecimiento anormal, degradación de la membrana basal e invasión”, comenta el investigador.
“Pero hay algo más profundo en este estudio, un debate conceptual fundamental”, apuntan los investigadores. Según explican los científicos, esta es la primera vez que se describen esos fenómenos ligados a inestabilidad genómica. “Esto nos lleva a proponer algo que todavía no se ha podido estudiar a fondo y que ahora convendría tomarse muy en serio: ¿es la inestabilidad genómica causa de tumorogénesis?”, expone Milán.

Inestabilidad genómica, ¿fuente de cáncer?

En todos los cánceres humanos, las células muestran una enorme inestabilidad genómica, es decir, tienen el genoma repleto de aberraciones. Según Dekanty, “si se demuestra esa correlación directa, tendremos algo muy específico con lo que trabajar para encontrar dianas precisas, porque las células aneuploides no existen en un organismo sano. Si empezamos a buscar lo que diferencia a una célula con inestabilidad genómica de una célula normal, podrían proponerse tratamientos específicos”.
Hoy por hoy, los tratamientos contra el cáncer atacan la proliferación, la división de células. El principal inconveniente es que todas las células se dividen, las sanas y las tumorales, de ahí la enorme batería de efectos secundarios. “No hay ningún tratamiento antitumoral dirigido contra las células con inestabilidad genómica”, dicen los científicos. “Si conseguimos diferenciarlas muy claramente de las normales, podríamos encontrar medicamentos que ataquen a unas y no a otras”, concluye Dekanty.

Fuente Agencia Sinc

Menos del 5% de los proyectos de reintroducción de especies sirven para proteger a las amenazadas

La Unión Europea acaba de rechazar un proyecto para reintroducir 3 ejemplares de oso pardo (Ursus arctos) en los Pirineos. Imagen: Eduardo Viñuales.
La reintroducción es un método utilizado en conservación para liberar ejemplares procedentes de un área en otra distinta, con el objeto de que se restablezcan poblaciones viables de especies amenazadas. A pesar de que los proyectos de reintroducción cada vez son más frecuentes,  todo parece indicar que su eficacia es, cuando menos, dudosa a la hora de alcanzar el principal objetivo que persiguen, que no debería ser otro que el de reducir el riesgo de extinción de la especie reintroducida.
“Aunque no cuestionamos el potencial de las reintroducciones, la mayoría de los proyectos que hemos revisado son difíciles de justificar ya que no cumplen los criterios necesarios para asegurar su idoneidad y efectividad. La evaluación de estos criterios por los gestores sin duda mejoraría la eficacia de las reintroducciones y lograría un uso eficiente de los escasos recursos económicos disponibles para conservación” señala Mario Díaz, del Museo Nacional de Ciencias Naturales (MNCN).
Aunque el potencial de esta herramienta para promover la conservación es evidente, sus logros no siempre están a la altura de las expectativas. En demasiadas ocasiones, la reintroducción se lleva a cabo sin considerar los problemas que originaron el declive de las poblaciones ahora amenazadas. Además, también se han utilizado criterios que no son biológicos, sino filosóficos, estéticos o sociopolíticos, sin considerar si la viabilidad a largo plazo de las poblaciones podría alcanzarse usando métodos alternativos.
También ocurre que muchas reintroducciones fracasan, aun después de análisis muy cuidadosos de los proyectos. Finalmente, no hay que descartar las consecuencias indeseadas a largo plazo de estos proyectos como pueden ser la introducción de enfermedades, la disminución de la diversidad genética, etc.
Si bien existen directrices generales para ejecutar las reintroducciones, éstas no siempre resultan útiles. Es por ello que un equipo integrado por investigadores del MNCN, de la Universidad del Estado de Arizona, de la Universidad Miguel Hernández de Elche, de la Universidad de Castilla-La Mancha,  de la Estación Biológica de Doñana y del Centro de Investigación Ambiental Helmholtz (UFZ), ha examinado 280 estudios publicados en las principales revistas de biología de la conservación y 174 proyectos de reintroducción llevados a cabo España en las últimas dos décadas para analizar si cumplen los criterios que garanticen su necesidad y utilidad potencial. Sus resultados se han publicado en la revista Frontiers in the Ecology and the Environment.

Diez criterios para evaluar las reintroducciones

Los investigadores proponen un sistema para evaluar los proyectos que consiste en el análisis jerárquico de diez criterios agrupados en tres aspectos fundamentales: en primer lugar, es imprescindible valorar si realmente es necesaria la reintroducción; posteriormente es necesario ponderar los riesgos asociados; y, finalmente, hay que analizar si es viable desde un punto de vista técnico y logístico.
Según este sistema de evaluación, el 65% de las reintroducciones realizadas en España fueron innecesarias, el 79% podrían haber tenido impactos negativos y el 90% no estaban bien diseñadas técnicamente. Además, de los proyectos considerados necesarios sólo el 30% podía garantizar la ausencia de riesgos importantes, y sólo el 36% contaban con un diseño logístico y técnico apropiado. Por tanto, únicamente el 4% de los proyectos acometidos pueden considerarse necesarios para proteger las especies diana.
De acuerdo con el estudio, las revistas científicas podrían contribuir también a mejorar la utilidad de las reintroducciones incentivando a los autores a escribir sobre sus proyectos para someterlos a escrutinio y justificar la necesidad de llevarlos a cabo. También es importante evaluar los riesgos y afecciones humanas de las reintroducciones, los cuales con frecuencia  no se consideran debidamente. Del mismo modo que no se pueden equiparar los proyectos que implican a especies amenazadas con aquellos que trabajan con especies que no son vulnerables.
“Ha sido muy grato para nosotros saber que la última revisión de los criterios internacionales más utilizados, los publicados por la UICN (Unión Internacional para la Conservación de la Naturaleza), coincide plenamente con nuestras conclusiones” puntualizan los investigadores.

Fuente Agencia Sinc

MÁS NOTICIAS EN EL BLOG