domingo, 12 de octubre de 2014

Tasa de respuesta prometedoras en la prueba de C225 y docetaxel en cáncer de pulmón avanzado


Los investigadores de prueba una combinación de quimioterapia y el agente anticuerpo monoclonal experimental C225 en pacientes con cáncer avanzado, en recaída no microcítico de pulmón de células encontrado que el 65 por ciento de los 47 pacientes tuvieron una respuesta o enfermedad estable, y varios pacientes permanecer con vida casi un año después de comenzar la terapia.



El resultados "alentadores" desarrollo mérito de un ensayo aleatorio más grande, dice el líder del estudio, Edward Kim, MD, de la Universidad del Centro del Cáncer MD Anderson de Texas.



El ensayo clínico de fase II se llevó a cabo en el MD Anderson, de la Universidad de Chicago y el Centro del Cáncer de Arlington.



El estudio es el único en probar un cóctel de quimioterapia docetaxel y C225 para el tratamiento de segunda línea después de los pacientes dejan de responder a la quimioterapia inicial. Todos los pacientes habían cáncer no microcítico de pulmón de células que fue progresando desde su terapia inicial avanzado.



En el estudio, un paciente tuvo una respuesta completa; 11 pacientes tuvieron una respuesta parcial confirmada (reducción del tumor que duró al menos varios meses y fue verificada utilizando una tomografía axial computarizada de diagnóstico); un paciente tuvo una respuesta parcial confirmada (este paciente murió de causas no relacionadas antes se pudo verificar la respuesta); y 18 pacientes tenían estabilización de la enfermedad. Cinco pacientes siguen figurando en el estudio, algunos de los cuales han sido tratados con ciclos de más de 20 tri-semanal de C225.



Por la estimación más conservadora, esto significa tumores se redujeron en una cuarta parte (25,5 por ciento) de los pacientes en este ensayo, mientras que la respuesta mediana en la terapia de segunda línea es generalmente de 5 a 10 por ciento por ciento, según Kim, profesor asistente en el Departamento de Torácica / Cabeza y Cuello de Oncología Médica. Que la respuesta no es probable debido a la utilización de docetaxel, dado que un gran ensayo de Fase III de este docetaxel como terapia de segunda línea encontró una tasa de respuesta de sólo 6 por ciento.



"Esto no es una carrera de casa, pero los resultados son prometedores", dice. "Esta es la mejor tasa de respuesta que hemos visto en combinación, la terapia de segunda línea para este tipo de cáncer avanzado."



C225, un tratamiento biológico experimental que bloquea EGF y otras moléculas que promueven el crecimiento se pegue a la superficie de las células cancerosas y los tumores, se está probando en otros tipos de cáncer, incluyendo el de colon y de cabeza y cuello tumores malignos. Docetaxel está aprobado actualmente para el tratamiento de diversos tipos de cáncer incluyendo cáncer de pulmón y cáncer de mama.


Científicos de la UW-Madison vuelven a la rata como herramienta de investigación biomédica


MADISON - ¿Alguna vez uno de los favoritos de los biólogos debido a su registro como modelo para entender enfermedades como la diabetes y el cáncer, la rata de laboratorio perdió su lustre como herramienta de investigación en la última década, ya que desafió los intentos de manipulación de su genoma de una manera prescrita.



Ahora, con una nueva combinación de técnicas probadas y verdaderas, los científicos han creado las primeras ratas "knockout", específicamente ratas cuyos genomas han sido despojados de genes que suprimen el cáncer de mama. El desarrollo, informó hoy (19 de mayo) por un equipo de científicos de la Universidad de Wisconsin-Madison en ediciones online de la revista Nature Biotechnology, promete restaurar la rata a la prominencia biomédica.



"La gente ha tratado durante más de 10 años para producir una rata knockout", dice Michael N. Gould, profesor de oncología de McArdle Laboratory de la Universidad de Wisconsin-Madison para la Investigación del Cáncer y en cuyo laboratorio se realizó el trabajo.



Durante 100 años, explica, la rata fue el modelo de elección para muchos científicos biomédicos. Pero hace una década, cuando la tecnología knockout fue primero ampliamente desplegado en el ratón, la rata robusto fue destronado. Los investigadores corrieron a tomar ventaja de las posibilidades biomédicas de un modelo animal cuyo genoma podría ser manipulado a voluntad, adición o sustracción de genes para obtener una perspectiva sorprendente en un huésped de enfermedades y tratamientos potenciales.



La rata, dice Gould, había sido "comprometida por la falta de una caja de herramientas genética completa. Durante los últimos 10 años, el gobierno y compañías farmacéuticas han invertido mucho en traer la rata a la velocidad. Pero uno de los últimos grandes herramientas esquivos para nuestra caja de herramientas fue la capacidad para noquear a los genes ".



La capacidad de añadir o restar genes para genoma de un animal se presta poderosa comprensión de los mecanismos básicos de la enfermedad. Los nuevos métodos de prevención de enfermedades y tratamiento en humanos, así como una mejor comprensión básica de desarrollo, fisiología y patología son el resultado de la capacidad de los científicos de manipular genes en animales vivos.



Antes de la llegada del ratón knock-out, la rata fue "el modelo de elección para estudios en fisiología, biopatología, la toxicología y la neurobiología", dice Gould. "Cualquier persona que renunció a ratas porque no había una tecnología knockout es probable que desee volver" a su uso.



Las ventajas de las ratas, Gould dice, se encuentran en su mayor tamaño y la gran cantidad de modelos de enfermedades desarrollados por ella durante el siglo pasado. "Esta tecnología nos da la oportunidad de utilizar los modelos de rata con una aproximación genética moderna."



Para Gould, que estudia la genética que sustentan el cáncer de mama, el regreso de la rata hechizos nuevas oportunidades de investigación debido a que la enfermedad se manifiesta de manera diferente en los dos animales.



"Los tumores en las ratas tienen un espectro de respuestas hormonales que es similar a la respuesta humana", dice. "Tenemos la esperanza de que mediante el estudio de la enfermedad más ampliamente en ratas, que puede ser capaz de desarrollar modelos para la prevención y la terapia."



Mantener los científicos de hacer nocauts rata era su incapacidad para utilizar las células madre embrionarias de rata para producir ratas, que podrían ser modificados genéticamente, como las células madre de ratón se utilizan habitualmente para hacer ratones knockout. Por otra parte, ninguna rata incluso se ha realizado utilizando técnicas de transferencia o de clonación nuclear, otro método por el cual los investigadores pueden modificar selectivamente el genoma de un animal.



El desarrollo de las primeras ratas knockout del mundo por el laboratorio de Gould se llevó a cabo utilizando técnicas bien conocidos por los biólogos, pero que nunca antes se había utilizado en combinación con el objetivo de producir un golpe de gracia. Los científicos han sabido por mucho tiempo que es posible interrumpir al azar del genoma de un animal mediante la inyección de ciertas sustancias químicas. Estas mutaciones pueden ser pasados ??a las generaciones futuras a través de la reproducción simple. Por el cribado del ADN de la progenie de las ratas mutantes usando un método que se puede fijar con precisión por los cambios que se producen en genes funcionales, el grupo de Gould fue capaz de criar selectivamente a cabo dos ratas knockout diferentes cuyos genomas cada carecían de un gen conocido para suprimir el cáncer de mama.



"Ninguna de las tecnologías que estamos usando son nuevos", dice Gould. "La novedad es la forma en que se combinan."



La técnica ha sido patentada por la Wisconsin Alumni Research Foundation.



Además de Gould, co-autores principales del artículo de Nature Biotecnología incluyen Yunhong Zan y Jill D. Haag.


sábado, 11 de octubre de 2014

Brighter Neptuno sugiere un cambio planetario de temporadas


MADISON - Un aumento progresivo en el brillo del planeta Neptuno sugiere que, como la Tierra, el planeta distante tiene estaciones.



Observaciones de Neptuno realizadas durante un período de seis años con el Telescopio Espacial Hubble de la NASA por un grupo de científicos de la Universidad de Wisconsin-Madison y el Laboratorio de Propulsión a Chorro de la NASA (JPL) muestran que el planeta está mostrando un aumento significativo en el brillo. Los cambios observados, sobre todo en el hemisferio sur del planeta, muestran un claro aumento en la cantidad y el brillo de las características de las nubes en bandas que son una característica distintiva del planeta.



"Las bandas de nubes de Neptuno han sido cada vez más amplia y más brillante", dice Lawrence A. Sromovsky, un científico senior en la Universidad de Wisconsin-Madison Espacio Ciencia del Centro de Ingeniería y una autoridad líder en la atmósfera de Neptuno. "Este cambio parece ser una respuesta a las variaciones estacionales de la luz solar, al igual que los cambios estacionales que vemos en la Tierra."



Los hallazgos aparecen en la edición actual (mayo) de Icarus, una revista líder en la ciencia planetaria.



Neptuno, el octavo planeta desde el Sol, es conocida por su clima extraño y violento. Cuenta con sistemas de tormentas masivas y vientos feroces que a veces ráfaga de 900 kilómetros por hora, pero las nuevas observaciones del Hubble son los primeros en sugerir que el planeta sufre un cambio de las estaciones.



Utilizando el Hubble, el equipo de Wisconsin hizo tres series de observaciones de Neptuno. En 1996, 1998 y 2002, obtuvieron observaciones de una rotación completa del planeta. Las imágenes mostraban bandas cada vez más brillantes de las nubes que rodean el hemisferio sur del planeta. Los resultados son consistentes con las observaciones hechas por GW Lockwood en el Observatorio Lowell, que muestran que Neptuno ha estado consiguiendo gradualmente más brillante desde 1980.



"En 2002 imágenes, Neptuno es claramente más brillante de lo que era en 1996 y 1998," Sromovsky dice, "y es dramáticamente más brillante en longitudes de onda del infrarrojo cercano. El gran aumento de la actividad de la nube en el año 2002 continúa la tendencia se dio cuenta por primera vez en 1998 "



Al igual que la Tierra, Neptuno tendría cuatro temporadas: "Cada hemisferio tendría un verano cálido y un invierno frío, con la primavera y el otoño de ser estaciones de transición, que pueden o no pueden tener características dinámicas específicas", explica el científico Wisconsin.



A diferencia de la Tierra, sin embargo, las estaciones de Neptuno duran por décadas, no meses. Una temporada en el planeta, que lleva casi 165 años en orbitar el sol, puede durar más de 40 años. Si lo que los científicos están observando es realmente el cambio de temporada, el planeta seguirá alegrar por otros 20 años.



También al igual que la Tierra, Neptuno gira sobre un eje que está inclinado en un ángulo hacia el sol. La inclinación de la Tierra, a una inclinación de 23,5 grados, es el fenómeno responsable del cambio de las estaciones. A medida que la Tierra gira sobre su eje y orbita alrededor del Sol durante el transcurso de un año, el planeta está expuesta a los patrones de la radiación solar que marcan las estaciones. Del mismo modo, Neptuno está inclinado en un ángulo de 29 grados y los hemisferios norte y sur se alternan en sus posiciones con respecto al sol.



Lo que es notable, según Sromovsky, es que Neptuno exhibe ninguna evidencia de cambio estacional en absoluto, ya que el sol, visto desde el planeta, es 900 veces menos brillante que el sol, visto desde la Tierra. La cantidad de energía solar un hemisferio recibe en un momento dado es lo que determina la temporada.



"Cuando los depósitos de sol calientan la energía en un ambiente, obliga a una respuesta. En el hemisferio aprovechar al máximo la luz solar, esperaríamos que la calefacción, que a su vez podría forzar el aumento de los movimientos, la condensación y el aumento de la cobertura de nubes, "Sromovsky señala.



El fortalecimiento de la idea de que las imágenes del Hubble revelan un aumento real de la cubierta de nubes de Neptuno en consonancia con los cambios de estación es la aparente ausencia de cambio en bajas latitudes del planeta cerca de su ecuador.



"Brillo casi constante de Neptuno en latitudes bajas nos da la confianza de que lo que estamos viendo es el cambio en efecto estacional, ya que esos cambios serían mínimos cerca del ecuador y más evidentes en las altas latitudes donde las estaciones tienden a ser más pronunciado."



A pesar de los nuevos conocimientos sobre Neptuno, el planeta sigue siendo un enigma, dice Sromovsky. Mientras que Neptuno tiene una fuente de calor interna que también puede contribuir a aparentes variaciones estacionales del planeta y el clima tempestuoso, cuando eso se combina con la cantidad de radiación solar del planeta recibe, el total es tan pequeño que es difícil de entender la naturaleza dinámica de la atmósfera de Neptuno.



Parece, Sromovsky dice ser una "cantidad insignificante de energía disponible para hacer funcionar la máquina que es la atmósfera de Neptuno. Tiene que ser una máquina bien lubricada que pueden crear una gran cantidad de tiempo con muy poca fricción ".



Además de Sromovsky, autores del artículo incluyen Icarus Patrick M. Fry y Sanjay S. Limaye, ambos de la Universidad de Wisconsin-Madison de Ciencias Espaciales y el Centro de Ingeniería y Kevin H. Baines del Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California.


Los mosquitos infectados con la encefalitis de La Crosse encontraron en cuatro condados del suroeste de Virginia


Blacksburg, Va -. Entomólogos Virginia Tech han documentado por primera vez la presencia de mosquitos infectados con el virus de La Crosse en cuatro condados de Virginia Southwest.



A Sally Paulson, profesor asociado de entomología, dijo que el hallazgo de las muestras tomadas el año pasado y recientemente analizados fue sorprendente porque no hay casos humanos de la enfermedad habían sido reportados en los condados antes.



"Sorprendió a mí para conseguir muchas cosas positivas de tan pocas muestras de un lugar que no habría esperado alguna", dijo Paulson.



Los condados en los que se recogieron las muestras positivas por primera vez eran Montgomery, Giles, Pulaski, y Floyd. La enfermedad había sido encontrado previamente en los condados de Wise, Dickenson, Buchanan, y Tazewell. Cerca de 15 casos humanos de encefalitis de La Crosse se han reportado en los virginianos en los últimos 10 años.



Los resultados positivos se volvieron de aproximadamente 135 "piscinas", muestras que contienen un número de mosquitos capturados en lugares individuales. Debido a que el informe del laboratorio sólo informa de un resultado positivo de una piscina, Paulson dijo que es imposible decir exactamente cómo se infectaron muchos mosquitos individuales.



"Tuvimos siete positivos reportados, y nuestros métodos de recolección no se dirigen a las especies que llevan el virus de La Crosse," dijo ella. Paulson y sus estudiantes graduados recogieron las muestras como parte de un proyecto para comprobar si hay virus del Nilo Occidental. Diferentes especies de mosquitos están implicados en las dos enfermedades.



Los mosquitos que transmiten el virus de La Crosse son miembros de los géneros Aedes y Ochlerotatus. El oriente agujero del árbol Mosquito es el vector principal para la enfermedad, aunque el mosquito tigre asiático también ha sido implicado en su propagación. Ambos viven en hábitats de bosque, pero puede ser abundante en las zonas urbanas y suburbanas.



De acuerdo con una hoja informativa sobre la enfermedad de los Centros para el Control de Enfermedades, alrededor de 70 personas están infectadas con la encefalitis de La Crosse en todo el país cada año, aunque la agencia considera que el número de casos a ser considerablemente inferior al real. La mayoría de las infecciones son leves, pero pueden dar lugar a encefalitis, o inflamación del cerebro, de progresar a convulsiones y coma. La hoja de datos de los CDC también advierte de los posibles efectos adversos en pruebas de coeficiente intelectual y rendimiento escolar después de la infección.



"Ha habido un montón de hablar sobre el virus del Nilo Occidental, y la gente esta bastante bien conscientes de ello", dijo Paulson. "Esto es algo que no es tan conocido. Mientras que las personas mayores tienen más riesgo de infección severa por el virus del Nilo Occidental, son los jóvenes, los menores de 15, que están en mayor riesgo de encefalitis de La Crosse ".



Otra diferencia es que los mosquitos que transmiten el virus de La Crosse son activos durante el día, mientras que los que llevan el virus del Nilo Occidental son más activos durante la noche y en condiciones crepusculares.



Medidas de las comunidades y los propietarios pueden tomar incluyen la eliminación de las áreas de reproducción, que consisten en áreas de agua estancada. Alrededor de las casas, que puede ser tan simple como inclinar el agua de un neumático viejo o cambiando el agua en una fuente para pájaros cada pocos días. Las comunidades pueden utilizar medidas químicas o biológicas para controlar las poblaciones de mosquitos.



"El primer paso es entender el problema, y ??eso es lo que estamos trabajando ahora", dijo Paulson. "Después de eso, se trata de crear conciencia de que existe un problema y que hay cosas que la gente puede hacer para contrarrestar ese problema."


Nueva investigación exige una mayor conciencia del trastorno de estrés post-traumático después del parto


Una nueva investigación por el psicólogo Dr. Stephen Joseph de la Universidad de Warwick revela que las mujeres que experimentan el parto traumático pueden desarrollar síntomas de trastorno de estrés postraumático (TEPT), un trastorno grave de ansiedad por lo general asociados con eventos como guerras y asaltos.



Aunque los trabajadores de la salud y psicólogos están cada vez más conscientes de la depresión postnatal, el trastorno de estrés post-traumático va ampliamente reconocido. Algunos de los síntomas de TEPT son muy similares a los experimentados por las personas con depresión postnatal, para que los profesionales de salud a veces diagnostican erróneamente la condición. Sin embargo, las condiciones son distintas y las mujeres con trastorno de estrés postraumático a menudo pasan desapercibidos por los trabajadores de la salud, ya que esto no es una condición que se analiza rutinariamente para.



Estrés postraumático puede desarrollarse después de la exposición a un evento aterrador o calvario en el que se produjo un daño físico o fue amenazado. Los estudios sugieren que entre el 2-5% de las mujeres podría desarrollar trastorno de estrés postraumático después de un parto difícil y traumático, y un número mucho más grande son propensos a sufrir de algunos de los síntomas de trastorno de estrés postraumático, como pensamientos intrusivos sobre lo que pasó y pesadillas, incluso si ellos no ' t desarrollar el síndrome completo.



Las personas con estrés post-traumático sufren de imágenes mentales dolorosos de la experiencia traumática, incluyendo sueños recurrentes. Los síntomas también incluyen la evitación de estímulos relacionados con todo lo que pueda recordarles la experiencia, el desapego emocional de los demás y una incapacidad para relajarse. Estudio del Dr. Stephen Joseph "estrés postraumático tras el parto", sugiere que la evitación sexual, escenas retrospectivas de nacimiento, el temor de problemas de parto y crianza de los hijos son los síntomas específicos de las mujeres que se someten a parto difícil y desarrollan síntomas de estrés postraumático.



Dr Stephen Joseph, dijo: "Se ha reconocido desde hace tiempo que las mujeres pueden llegar a desarrollar problemas psicológicos después del parto, y este estudio sugiere claramente que algunos sufren de estrés post-traumático. Los casos indican que las mujeres que experimentan síntomas de TEPT, tales como dificultades de unión o temor de sus bebés podrían tener un efecto perjudicial sobre la relación temprana entre una mujer y su bebé ".



"Hay una necesidad de la condición a ser más ampliamente reconocida por los visitantes de la salud y otro personal de atención primaria como las mujeres se beneficiarían de mejores servicios de mantenimiento posterior trauma, tales como asesoramiento. Los resultados subrayan la necesidad de identificar a las mujeres más vulnerables al principio del embarazo para proporcionar apoyo adicional y ser conscientes del riesgo de estrés post-traumático después del parto ".



El estudio también indica que ciertos factores que influyen en el desarrollo de trastorno. Un parto con la ayuda de una cesárea de emergencia u otras formas de parto instrumental aumenta el riesgo de estrés post-traumático. Las mujeres que se sentían menos apoyados por sus compañeros y el personal o menos bien informados sobre lo que estaba ocurriendo también eran más propensos a reportar síntomas de TEPT.


Ocultos a plena vista


Efectos Aerosoles 'podría cambiar la comprensión actual del clima mundial aerosoles changeAtmospheric, las partículas en suspensión que reflejan el calor del sol fuera de la Tierra y el espacio, son parte de la vida cotidiana. Ellos están en la bruma de la contaminación del aire, en columnas de humo de los incendios forestales y en las nubes de cenizas de volcanes en erupción.



Pero un nuevo estudio dice que el efecto de enfriamiento de los aerosoles artificiales podría lanzar una llave inglesa en la comprensión actual de cambio climático.



"Es posible que el forzamiento de la actividad humana hasta la fecha es pequeña, o incluso negativa. Eso es poco probable pero posible, y no debemos descartarlo en este momento ", dijo Theodore Anderson, de la Universidad de Washington meteorólogo investigador.



Forzamiento climático resultados al factor externo impone un cambio en el equilibrio térmico del planeta. Los aerosoles producidos por la actividad humana pueden ejercer obligando tanto positivos como negativos, pero se cree que su efecto global es negativo (forzando positivo agrega calor y tiende a calentar el clima; quita obligando negativos calor y tiende a enfriar el clima).



Las partículas reflejan la luz solar de vuelta al espacio y también modifican las propiedades de las nubes, haciendo que se reflejan más luz solar de vuelta al espacio. Estos efectos desiguales se suman a un impacto global que tiende a compensar el calentamiento climático causado por los gases invernadero producidos por el hombre, como el dióxido de carbono.



A pesar de extensos estudios, todavía es muy incierto lo grande un factor de forzamiento negativo de los aerosoles es en la imagen global del cambio climático. La cuestión es si los modelos informáticos y matemáticos que utilizan una variedad de factores para medir el cambio climático han representado adecuadamente por la incertidumbre.



Anderson es el autor principal de un artículo, publicado en la edición del 16 de mayo de la Ciencia, con el argumento de que los modeladores del clima no han considerado en toda su magnitud potencial de esfuerzos que se ha encontrado en la investigación de aerosol. En su lugar, dicen los autores, los modeladores han usado valores sólo aerosol-forzando que permiten a sus modelos para reproducir el aumento de la temperatura global registrado, y han ignorado los valores que no se ajustan a los registros de temperatura.



"Eso está bien como el mejor de adivinar, pero lo que si el aerosol negativo de alta magnitud valores obligando a llegar a ser la correcta? Eso significaría que las interpretaciones actuales del calentamiento del siglo 20 sería errónea, y por lo tanto las proyecciones del futuro cambio climático podría tener un error así. Debemos tener en cuenta, al menos, esta posibilidad ", dijo Anderson.



Señaló que si todo el forzamiento climático de factores externos hasta ahora ha tenido un efecto negativo acumulado, entonces el calentamiento climático que ya ha ocurrido no puede ser de la actividad humana, sino que debe ser el resultado de la fluctuación natural del clima. Por otro lado, si el forzamiento total hasta la fecha ha sido muy pequeña, pero aún así causó el calentamiento observado, entonces el clima de la Tierra podría ser mucho más sensibles al cambio forzado de los modelos climáticos indican actualmente.



Un mejor conocimiento del forzamiento climático podría alterar radicalmente la comprensión actual de cambio climático, dicen los autores. Y ese conocimiento mejorado podría estar disponible en el futuro cercano de una nueva generación de satélites aerosol de detección. Un gran paso viene el próximo año cuando la Administración Aeronáutica y Espacial Nacional y la agencia espacial francesa lanzar un satélite llamado CALIPSO, que proporcionará mapas detallados de contenido de aerosoles de la atmósfera. CALIPSO volará en formación con otros satélites que miden las variaciones de energía y otros factores.



"Podemos esperar sorpresas y avances en la cuantificación de forzamiento de los aerosoles, pero no sabemos qué esperar", dijo Robert Charlson, un químico atmosférico UW y un co-autor del artículo en Science. "Vamos a estar en una posición en la que vamos a estar en mejores condiciones de refutar o apoyar los modelos climáticos."



Otros autores incluyen a Stephen Schwartz, del Laboratorio Nacional de Brookhaven, en Upton, Nueva York; Reto Knutti de la Universidad de Berna en Suiza; Olivier Boucher de la Université des Sciences et Technologies de Lille en Francia; Henning Rodhe de la Universidad de Estocolmo en Suecia; y Jost Heintzenberg del Instituto de Investigación troposférico en Leipzig, Alemania.



Los investigadores no sostienen que el cambio climático causado por el hombre no es un peligro real. De hecho, hacen que el caso opuesto.



La capacidad de los aerosoles para contrarrestar el efecto invernadero es muy limitada debido a las partículas permanecen en el aire durante sólo una semana más o menos, dijo Anderson, mientras que permanecen gases de efecto invernadero durante un siglo o más. Así, mientras que en la actualidad podría haber un equilibrio aproximado entre los dos, los gases de efecto invernadero se están acumulando y están seguros de ganar en el futuro, tener un impacto mucho mayor a largo plazo en el clima.



Es fundamental entender cómo el clima de la Tierra responde al forzamiento positivo, dijo Anderson. Una de las mejores maneras de hacerlo es mejorar el conocimiento del clima actual obligando a las actividades humanas. Pero incluso con la llegada de nuevos satélites, el logro de este avance en el conocimiento requerirá un fuerte compromiso por parte de las agencias de la comunidad y de financiación científica, dijo. Se necesitan medidas globales coordinadas para interpretar correctamente los datos de los satélites, y la compilación de esa información en una comprensión global de la mejora será un gran desafío.



"Ya sabemos que vamos a tener que limitar seriamente las emisiones de dióxido de carbono", dijo Charlson. "Pero, hasta que hagamos un mejor trabajo de cuantificar el forzamiento total, no vamos a saber con qué rapidez es necesario implementar controles de dióxido de carbono, ni vamos a saber cuánto cambio climático que podemos esperar, a pesar de estos controles."


Lo que hace una diferencia en la vida de mamá? Ya se trate de un niño o una niña


Flores, desayuno en la cama y ... unas madres husbandAs anticipan la fiesta anual que celebra su vínculo maternal, un estudio que se publicará la próxima semana revela que los principales aspectos de la vida de una madre soltera son influenciados por si su hijo es un niño o una niña.



Dos Universidad de Washington economistas encontraron que una madre soltera es un 42 por ciento más probabilidades de casarse con el padre si el niño es un niño.



El estudio realizado por el profesor de economía Shelly Lundberg y profesor asociado Elaina Rose se publicará en la edición de mayo de la revista Demografía.



"Puede ser que los padres simplemente se sienten con más fuerza que un niño necesita un padre alrededor", dijo Rose, "o podría ser que es más fácil de encontrar un marido si su hijo es un niño."



Los hallazgos se basan en investigaciones anteriores de los mismos autores muestran que los padres de hijos gastan más dinero en sus familias y trabajan más duro en sus puestos de trabajo que los padres de hijas. Y otros investigadores han encontrado que las parejas con hijos tienen menos probabilidades de divorciarse que los que tienen hijas.



El nuevo estudio Demografía es la primera, Rose y Lundberg dijo, para documentar cómo el género afecta a los cerca de un tercio de los niños estadounidenses nacidos fuera del matrimonio.



Usando datos del Estudio nacional Panel de Dinámica de Ingresos, lo que arrojó una muestra científica de 600 niños nacidos de madres solteras, los investigadores UW encontraron que las madres solteras de niños eran 11 por ciento más probabilidades de encontrar un marido que aquellos con las niñas. Cuando se trataba de atar el nudo con el padre biológico del niño, la brecha chico-chica se elevó a 42 por ciento.



Lundberg y Rose especulan que algunos padres ven chicos como especialmente necesidad de un modelo masculino, o que algunos hombres simplemente valorar una familia con un hijo varón más altamente.



"Cualquiera de los padres son más importantes para los niños", dijo Lundberg, "o los niños son más importantes para los padres."



De cualquier manera, un efecto es que las niñas tienen más probabilidades que los niños crezcan en hogares monoparentales. Puesto que los niños sin padres casados ??tienen más probabilidades de vivir en la pobreza, hacer que los padres más involucrados es una preocupación importante para la Casa Blanca y otros legisladores, dijo Lundberg, quien es director del Centro de la Universidad de Washington para la Investigación sobre la Familia.



"Estos estudios nos están diciendo algo", dijo Lundberg, "sobre lo que se necesita para participar los padres en la familia."



Muchos papás solteros, por supuesto, se mantienen activos en la vida de sus hijos, y el censo de Estados Unidos ha contado un número creciente de padres que viven juntos sin una licencia de matrimonio. Rose y Lundberg se han unido con un sociólogo para estudiar más de cerca las circunstancias que prontas padres se casen, así como la forma afecta el sexo de un niño muy pequeño padres.



Mientras tanto, los investigadores sólo pueden especular sobre por qué tener un niño da a las madres más "éxito" en el mercado del matrimonio - especialmente en la atracción de los padres biológicos al altar.



"Algunos hombres ven probablemente un hijo biológico como la inmortalidad", dijo Rose. "Es un poco 'mí'. "


toma de escuelas pobres y da a los ricos, según un estudio


Escuelas pobres no compensaron los distritos de bajos salarios teachersSchool transferir millones de dólares cada año a partir de las escuelas de los barrios pobres a los más ricos con los estudiantes y maestros mejor pagados, según un estudio reciente.



El estudio documenta los efectos de un sistema que se utiliza en casi todos los distritos escolares urbanos de Estados Unidos, que asignan dinero a las escuelas como si todos los maestros hicieron el mismo salario a pesar de que los maestros mejor pagados se agrupan en barrios ricos.



El resultado: una escuela del Condado de Baltimore con los bajos salarios de los maestros, por ejemplo, recibió 500.000 dólares menos que los reportados en los propios documentos del presupuesto del distrito.



"¿Realmente queremos mantener sistemáticamente canalizar recursos de las escuelas pobres y de bajo rendimiento?" preguntó el coautor del estudio Paul Hill, director de la universidad del centro de Washington sobre la Reinvención de Educación Pública.



Hill y compañero UW investigador Marguerite Roza examinaron los efectos en cuatro grandes distritos escolares - la ciudad de Baltimore, Condado de Baltimore, Cincinnati y Seattle - del sistema de sueldos promedios que lo hace aparecer como si los maestros en las escuelas de bajos ingresos cuestan tanto como los altos maestros de las escuelas de altos ingresos.



En cada distrito, los investigadores encontraron, con un promedio salarial va en contra de los esfuerzos por invertir más dinero en las escuelas pobres.



Al cambiar a un sistema que representa el salario real, los distritos podrían permitir que las escuelas más pobres recuperar los dólares perdidos para las clases más pequeñas o una mejor tecnología, dijeron los investigadores.



Normas de la Unión y la práctica de larga data a menudo permiten que los profesores con experiencia para elegir a sus escuelas, y que a menudo eligen escuelas que matriculan a los estudiantes procedentes de entornos más privilegiados. Pero en la asignación de los gastos de personal, presupuestos distritos muestran todos los maestros que ganan el promedio de todo el distrito.



En realidad, Roza y Hill encontraron que el promedio de los maestros en las escuelas de alta pobreza de Baltimore tira en casi menos de la media del distrito $ 2.000 - $ 4.000 y menos de los que están en las escuelas más ricas. Escuelas pobres no reciben recursos adicionales para compensar por sus maestros de menor costo, y los documentos presupuestarios se esconden las diferencias salariales.



"Esos dólares perdidos realmente se acumulan, por una suma de $ 637 por alumno en una escuela de Seattle", dijo Roza. "Los documentos del presupuesto del Distrito deben reflejar la cantidad de dinero que el distrito está realmente gastando en cada escuela."



El estudio, financiado por el Atlantic Philanthropies y la Fundación Annie E. Casey, está siendo publicado en línea esta semana y será parte de un libro que será publicado por la Brookings Institution, el año que viene. La investigación sugiere que el patrón azota distritos más urbanos.



En Seattle, los docentes de más rica zona noreste de la ciudad ganaron sueldos promedio por encima de 41.000 dólares, que las de los menos ricos Sudeste promediaron $ 37.670.



Hill y Roza recomienda no sólo el uso de los salarios reales en el presupuesto, pero la adición de incentivos financieros para atraer a los mejores profesores a escuelas con dificultades.


Dieta baja en hidratos de carbono supera a la dieta baja en grasa en el estudio VA


FILADELFIA - Los pacientes obesos con una dieta baja en carbohidratos durante seis meses perdieron más peso y le fue mejor, sobre determinadas medidas cardiovasculares y diabetes que los tratados con una baja en grasas, dieta baja en calorías, de acuerdo con un Departamento de Asuntos de Veteranos (VA) estudio que aparece en el 22 de mayo New England Journal of Medicine. El estudio es uno de varios en los últimos años que sugieren que las dietas bajas en carbohidratos pueden ofrecer algunas ventajas sobre el régimen bajo en grasa empujado por médicos y nutricionistas desde la década de 1970.



El autor principal, Frederick F. Samaha, MD, jefe de cardiología en el Centro Médico VA de Filadelfia y profesor asistente en la Universidad de Pennsylvania Escuela de Medicina (UPSM), advirtió en contra de desechar el enfoque de bajo contenido de grasa, que se ha demostrado para reducir el riesgo de ataque al corazón, pero también dijo que necesita más atención debe prestarse a los efectos nocivos sobre la química del cuerpo de las dietas ricas en carbohidratos. "Hay importantes efectos metabólicos a una dieta alta en hidratos de carbono en una persona que tiende a comer en exceso, y tenemos que echar un vistazo de cerca a eso", dijo Samaha.



Linda Stern, MD, co-líder del estudio, dijo que la investigación es uno de los primeros ensayos clínicos de una dieta baja en hidratos de carbono en una población distinta de voluntarios sanos. Los voluntarios del estudio fueron severamente obesos - su peso promedio era de 288 libras - y muchos tenían enfermedades como la diabetes, enfermedades del corazón, la hipertensión, el colesterol alto y la depresión.



"Nuestros resultados pueden ser sorprendentes para algunas personas", dijo Stern, un médico de atención primaria con VA y profesor clínico asistente de medicina de la UPSM. "Los diabéticos, en particular, lo hicieron muy bien en la dieta baja en carbohidratos. Así que, especialmente en el ámbito de la modificación del estilo de vida, tendremos que ampliar nuestros horizontes en lo que estamos recomendando ".



En el estudio, 132 hombres y mujeres fueron puestas al azar ya sea en un bajo contenido de grasa o baja en carbohidratos dieta durante seis meses. El grupo bajo en carbohidratos se le dijo que limitar la ingesta de carbohidratos a 30 gramos por día. Ellos recibido asesoramiento sobre los tipos saludables de grasa, como los ácidos grasos omega-3, pero no tuvo ningún límite en la ingesta total de grasa. El grupo bajo en grasa fue puesto en una dieta baja en calorías, con no más del 30 por ciento de la ingesta total de calorías de la grasa.



En general, los voluntarios asignados a una dieta baja en carbohidratos perdieron una media de alrededor de 13 libras, frente a 4 libras para el grupo bajo en grasa. Las personas que hacen dieta baja en carbohidratos reducen sus niveles de triglicéridos - grasas de la sangre que, al igual que el colesterol, pueden contribuir a la obstrucción de las arterias - en un promedio del 20 por ciento, frente al 4 por ciento en el grupo bajo en grasa. No hubo cambios significativos en los niveles de colesterol o la presión arterial en ambos grupos.



Los autores dijeron que los resultados del estudio ponen de manifiesto la paradoja de la fascinación de los Estados Unidos con una alimentación baja en grasas: los estadounidenses están tomando en menos grasa, pero no perder peso o mejorar su salud cardiovascular como resultado.



"La gente ha entendido el mensaje alto y claro - ESTAN restringiendo su grasa", dijo Samaha. "Pero están todavía comer en exceso. Y cuando se comen en exceso hidratos de carbono, siguen siendo el sobrepeso y quizás incluso exacerban el desarrollo y la gestión de la diabetes, lípidos desfavorable y las enfermedades del corazón ".



Entre los no diabéticos en el estudio, la sensibilidad a la insulina mejoró en el grupo bajo en carbohidratos, pero empeoró tanto para el grupo bajo en grasa, posiblemente elevando el riesgo de diabetes. Entre los participantes diabéticos, las personas que hacen dieta baja en carbohidratos reducen sus niveles de azúcar en sangre en ayunas en un 9 por ciento, frente a sólo el 2 por ciento de las personas que hacen dieta baja en grasa. Durante el estudio de seis meses, siete pacientes diabéticos en el grupo bajo en carbohidratos fueron capaces de reducir su dosis de insulina u otros medicamentos para controlar el azúcar en la sangre. En el grupo bajo en grasa, un paciente diabético bajado la dosis de insulina y había que comenzar la terapia.



Samaha señaló que a pesar de todos los participantes en el estudio se mantuvieron extremadamente sobrepeso, aquellos en el grupo bajo en carbohidratos redujo significativamente los factores de riesgo para la diabetes y las enfermedades del corazón: Sus triglicéridos bajaron a valores normales, y su glucemia o azúcar en la sangre, los niveles se acercó a la normalidad. "Los efectos metabólicos eran bastante impresionante", dijo Samaha.



El estudio proporciona una validación para el plan de alimentación propuesto por el fallecido Dr. Robert Atkins, la dieta doctor muy conocido que murió el mes pasado. Atkins aconseja a los pacientes a reducir los carbohidratos, especialmente carbohidratos refinados, y no preocuparse por la grasa saturada - mantequilla, crema, carne -, siempre y cuando estaban limitando los carbohidratos.



Según Stern, comer menos carbohidratos y más proteínas y grasa hace que la gente se sienta más lleno y menos propensos a consumir calorías adicionales. Evita las fluctuaciones de azúcar en la sangre y los picos de insulina constantes que conducen al desarrollo de resistencia a la insulina, lo que prepara el escenario para la diabetes.



Dicha Samaha: "Hay aspectos de lo que el Dr. Atkins estaba diciendo que no se están tomando en serio, y tal vez debería haber sido. Hay riesgos importantes en un consumo excesivo de hidratos de carbono ".



Un artículo de revisión en el 09 de abril Revista de la Asociación Médica de Estados Unidos, el análisis de decenas de estudios de las últimas tres décadas, concluyó que no había suficiente evidencia para recomendar a favor o en contra de las dietas bajas en carbohidratos. Samaha afirmó la mayoría de los estudios se examinaron fueron demasiado pequeños para producir datos significativos, o no se puede comparar la dieta a una dieta tradicional baja en grasa. Dijo que los estudios con mayor número de participantes, durante períodos más largos de tiempo, son necesarios para evaluar los verdaderos efectos de la baja en carbohidratos en comparación con una alimentación baja en grasa, especialmente en el riesgo de ataque al corazón.



El enfoque ideal, dijo que los autores, pueden ser a centrarse menos en las proporciones de grasas y carbohidratos en la dieta y más sobre la calidad de los alimentos. Una de las razones para el aparente fracaso de las dietas bajas en grasa, dijeron, es que las personas tienden a compensar por el consumo de grasa inferior al comer más comida chatarra. "Las personas no deben recibir el mensaje de que el tiempo que disminuyen su consumo de grasas que pueden comer todo tipo de hidratos de carbono - dulces, galletas, cereales cubiertos de azúcar y otros alimentos que pueden no ser que saludable," dijo Samaha. Citó las verduras con un alto ratio de fibra a los hidratos de carbono como un ejemplo de los carbohidratos "buenos" que deberían desempeñar un papel más importante, ya sea en baja en grasa o planes de alimentación bajo en carbohidratos.



Stern, señaló que incluso la mejor dieta debe ser combinado con otros cambios de estilo de vida, tales como el aumento de la actividad física, para combatir la obesidad. "La mitad de la ecuación es hacer que la gente sea consciente de lo que están comiendo, y comer menos", dijo. "La otra mitad es conseguir que se muevan. Cualquier programa de pérdida de peso, en el VA o en otro lugar, debe incluir un programa de ejercicio formal ".



Colaborando con Samaha y Stern en el estudio fueron el Dr. Nayyar Iqbal, VA y UPSM; Dr. Prakash Seshardi, UPSM; Kathryn L. Chicano, Denise A. diaria, Joyce McGrory, Terrence Williams y Monica Williams, VA; y el Dr. Edward J. Gracely, Drexel University College de Medicina.


Aprovechar la tecnología informática para hacer avanzar las estrategias de rehabilitación


El último número de la Revista de Investigación y Desarrollo de Rehabilitación (JRRD), una publicación de Investigación de Rehabilitación y Servicio de Desarrollo, Departamento de Asuntos de Veteranos (VA), incluye ocho manuscritos que hablan de la tecnología informática para avanzar en estrategias de rehabilitación, el impacto del tabaquismo sobre las úlceras en desarrollo , y los cuidados postoperatorios para amputados. A continuación se presentan resúmenes de los estudios destacados en el Volumen 40, Número 3, de la revista. Manuscritos en texto completo están disponibles, gratuitamente, en línea atwww.vard.org.



Neuroprótesis reduce complicaciones secundarias de la lesión de la médula espinal, pg 241



Estudio analiza las percepciones de los destinatarios de una neuroprótesis implantado quirúrgicamente en el rendimiento del sistema, la satisfacción, complicaciones clínicas, beneficios para la salud, y los patrones de uso. Los participantes incluyeron a aquellos con lesiones de bajo cervical o torácica de la médula espinal (SCI) con más de 12 meses de experiencia con una neuroprótesis permanente implantado. Todos los receptores de implantes observaron mejoras en la salud, la incidencia de las úlceras por presión, espasmos en las piernas, y las infecciones de las vías urinarias. Los sujetos fueron moderadamente a muy satisfecho con el rendimiento del sistema y fueron por unanimidad dispuesto a repetir la cirugía y la rehabilitación para obtener resultados clínicos similares. Todos los receptores de implantes informaron que el sistema sea seguro, fiable y fácil de usar.



Equinometer es prometedora para ayudar a los médicos de atención para los pacientes contractura en equino, pg 235



Los investigadores describen el desarrollo de un equinometer, un dispositivo que permite la medición de movimiento del tobillo en condiciones controladas. Contractura en equino (CE), la restricción de movimientos del tobillo, se asocia con varios trastornos de los pies. CE puede perjudicar la función del pie y es difícil de evaluar. Los datos sugieren la equinometer proporciona mediciones precisas y fiables de movimiento del tobillo. El equinometer puede ayudar a los médicos a tomar decisiones clínicas adecuadas en pacientes con contractura en equino.



EEG traza vínculo entre terapias de rehabilitación ordenador-cerebro, pg 225



El artículo compara las áreas cerebrales representados por el "potencial de preparación", que puede causar movimiento deliberado por "encender" la médula espinal y el área motora suplementaria. Dieciséis pacientes con lesión de la médula espinal (SCI) y diez sujetos sin SCI recibieron electroencefalogramas 128 canales (EEG). El EEG se registró mientras los sujetos se movían un dedo (movimiento activo) y cuando el mismo dedo se mueve en forma pasiva. El EEG mostró un cambio en la ubicación de las áreas activas del cerebro en pacientes con DME en comparación con los controles normales, tanto con el movimiento activo y pasivo. Para los pacientes con SCI, la capacidad de manipular objetos de su entorno directamente a través de una interfaz cerebro-ordenador podría mejorar de inmediato la calidad de sus vidas.



La telemedicina y la prestación de servicios de salud para los veteranos con la esclerosis múltiple, pg 265



El estado actual de la telemedicina y su uso en la Administración de Salud de Veteranos (VHA) se discuten en esta revisión de la literatura. La telemedicina tiene el potencial de reducir los costos, aumentar el acceso a servicios de salud, y mejorar la calidad de la atención para las personas con discapacidad. La aplicación de la telemedicina a la atención de los veteranos con esclerosis múltiple tiene apoyo en la literatura médica. VHA cuenta con una red de telemedicina rica. Mientras que la telemedicina se utiliza en la actualidad, su capacidad sólo ha comenzado a ser explotado. Los veteranos están recibiendo cada vez más atención a través de la tecnología de la telemedicina en el VHA. Como los médicos a aumentar su conocimiento de la telemedicina, a más veteranos tendrán acceso a esta tecnología de cuidado de salud emergente.



Auriculares ER-4B Canal PhoneTM y fiabilidad de los umbrales auditivos, pg 253



La fiabilidad de los umbrales de audición en los oyentes-cocleares alterada usando técnica de correspondencia tinnitus equipo automatizado y Etymotic ER-4B Canal Teléfono TM auriculares de inserción fueron probados. Repetición de las pruebas dio lugar a la mejora de los umbrales de audición para el grupo de audición normal, pero no para el grupo coclear-pérdida. El grupo-audición normal mostró una mejor fiabilidad de respuesta, tanto dentro como entre las sesiones, que el grupo de hipoacusia coclear. Respuestas de umbral fiables se pueden obtener usando la técnica de pruebas automatizado, el cual tiene una aplicación particular para las pruebas de tinnitus y para el monitoreo ototoxicidad. La ER-4B insertar auriculares ofrecen una importante ventaja sobre otros auriculares, tanto de inserción y supra-aural, ya que pueden ser utilizados para probar ambas frecuencias convencionales y de alta.



Cuello impactos movimiento habilidad de usar la cabeza computadora controla a las personas con discapacidad, pg 199



Controles de cabezal ordenador proporcionan un medio alternativo de acceso a computadoras para personas con discapacidad. Estudio exploró si el movimiento del cuello limitada reduce el rendimiento con los controles principales y características de movimiento del cursor identificadas que podrían ayudar a evaluar las limitaciones de acceso de la computadora. Cuello limitaciones de movimiento se asociaron con un menor rendimiento en tareas de la computadora con el uso de los controles en la cabeza. Si una persona es incapaz de utilizar los controles de la cabeza como un método de acceso alternativo, él o ella puede tener que recurrir a métodos más lentos, más ineficientes, lo que reduce sus opciones de empleo. Modelos como los que se derivan de este trabajo pueden permitir controles cabeza para adaptarse a las necesidades del usuario, con capacidad dificultades resultantes de gama cuello de limitaciones de movimiento.



Fumar puede aumentar el riesgo de úlceras por presión, pg 283



Fumar, un conocido factor de riesgo en el desarrollo de las úlceras por presión, se investiga para determinar su efecto sobre el flujo sanguíneo en la piel. El incremento en el flujo de sangre después de la eliminación de una carga de presión se mide en la piel por encima de la rabadilla en mujeres fumadoras sanas y no fumadoras comparadas. La respuesta total fue significativamente menor en los fumadores, sobre todo debido a una falta de mantenimiento del aumento del flujo sanguíneo. Estudio demuestra que las diferencias en el flujo de sangre se pueden medir en lugares de la piel en riesgo de daño por presión en un grupo de riesgo. Estos estudios preliminares pueden permitir el desarrollo de una medición objetiva del riesgo e identificar los factores asociados a la aparición de úlceras por presión.



Cuidado postoperatorio de amputaciones tibiales basado en la práctica local, la habilidad y la intuición, pg 213



Trabajo presenta una revisión crítica de más de 60 estudios publicados para comparar las medidas de seguridad, la eficacia y los resultados clínicos. El análisis de 10 estudios controlados compatible sólo 4 de 14 reclamaciones citadas en estudios descriptivos no controlados. La literatura apoya la hipótesis de que los apósitos de yeso rígido como resultado tiempos de rehabilitación acelerado considerablemente y significativamente menos edema en comparación con los apósitos de gasa suave. Se encontró que las prótesis neumáticas prefabricadas tener significativamente menos complicaciones posquirúrgicas y necesarios menos revisiones en comparación con los apósitos de gasa suave. No hay informes compararon todos los tipos de apósitos en un estudio. Gestión posterior a la amputación es un determinante importante de la recuperación de la amputación. La evidencia publicada es principalmente antídoto y suficientes para determinar las directrices clínicas óptimas.


Diuréticos en dosis bajas son la manera más efectiva para tratar la hipertensión


Análisis involucra 42 estudios con más de 190.000 peopleAn análisis de ensayos clínicos con más de 192.000 pacientes con hipertensión muestra que los diuréticos en dosis bajas son más eficaces en la prevención de problemas de salud cardiovascular que cualquier otra medicación de la presión arterial, de acuerdo con la Universidad de Washington investigadores y colegas .



Su estudio será publicado en la edición del 21 de mayo de la Revista de la Asociación Médica Americana.



El estudio a fondo de otros estudios - llamó un meta-análisis - examinó los ensayos clínicos para ver qué tratamientos se asociaron con un menor riesgo de ataques cardíacos, accidentes cerebrovasculares, insuficiencia cardíaca y muerte. Los 42 ensayos clínicos tenían un total combinado de 192.478 pacientes seguidos durante un promedio de tres a cuatro años. Los estudios compararon varias combinaciones de placebo, los diuréticos, los inhibidores de la enzima convertidora de angiotensina (ACE), bloqueadores beta, bloqueadores de los canales de calcio y otros medicamentos.



"Este análisis proporciona pruebas concluyentes de que los diuréticos en dosis bajas son el tratamiento de primera línea más eficaz para prevenir la morbilidad y mortalidad cardiovascular," dice el Dr. Bruce M. Psaty, autor principal del estudio y profesor de medicina, epidemiología y salud servicios y co-director de la Unidad de Investigación de Salud Cardiovascular de la Universidad de Washington.



Desde 1993, diuréticos a dosis bajas y beta-bloqueadores se han recomendado como terapia con medicamentos de primera línea para la hipertensión por el Comité Nacional Conjunto de Estados Unidos para la Prevención, Detección, Evaluación y Tratamiento de la Hipertensión Arterial.



Se han realizado muchos estudios desde entonces; Psaty dijo el informe actual se inspiró porque las diversas pruebas, que utilizaron muchos tratamientos diferentes y las comparaciones, han creado "un mosaico" de evidencia sobre los beneficios para la salud de los agentes antihipertensivos. Este estudio utilizó un nuevo método, llamado red de meta-análisis, para sintetizar toda la evidencia disponible sobre los efectos en la salud de los diversos tratamientos para la presión arterial alta.



"El meta-análisis de redes nos permite ver la totalidad de las pruebas, en lugar de comparar un par de tratamientos a la vez", dijo el co-autor Dr. Thomas Lumley, profesor asistente de bioestadística de la Escuela de Salud Pública de la Universidad de Washington y la Comunidad Medicina.



Diuréticos en dosis bajas fueron significativamente mejores que cada uno de los otros medicamentos para la presión arterial para prevenir al menos un resultado importante cardiovascular. Ninguna otra medicación fue significativamente mejor que los diuréticos en dosis bajas para prevenir cualquier resultado cardiovascular.



Para ser elegible para el meta-análisis, los estudios debían ser aleatorios, ensayos que evaluaron los principales criterios de valoración de la enfermedad cardiovascular en pacientes hipertensos durante al menos un año controlado. Criterios de valoración de enfermedades cardiovasculares incluyen infarto de miocardio, accidente cerebrovascular y muerte.



"Si usted está en tratamiento para la presión arterial alta, y si usted no está tomando un diurético a dosis bajas, es razonable preguntar a su médico:" ¿Por qué no ?, '", dice Psaty.


viernes, 10 de octubre de 2014

Investigación recrea la antigua realidad virtual romano con la tecnología 3-D del siglo 21


Los restos de antiguas villas de Pompeya demuestran que los romanos decoraban sus casas con pinturas murales extravagantes de escenas teatrales que utilizan trucos de perspectiva para impresionar a los clientes con lo que parecía en ese momento una primera versión de la realidad virtual. Ahora, los investigadores en la Universidad de Warwick están transformando estas antiguas formas de la pintura en perspectiva en la versión de la realidad virtual mediante modelos digitales en 3D que permiten a los espectadores a pisar las tablas del largamente perdido teatros romanos del siglo 21.



Las antiguas pinturas murales de la etapa-conjuntos sugieren estructuras arquitectónicas en 3-D en las superficies 2-D. La técnica de la pintura escénica perspectiva, o skegnographia, evolucionaron por primera vez en el siglo quinto antes de Cristo teatro griego y embellece las fachadas planas de los edificios de la etapa. Más tarde, los romanos adaptaron la habilidad para decorar sus hogares.



El proyecto, llevado a cabo por la Universidad de Warwick e-lab en conjunto con el profesor Richard Beacham de la Escuela de Estudios de Teatro de la Universidad, combina la pintura mural y modelado por ordenador del estado de la técnica romana para transformar nuestra comprensión de las etapas antiguas. Desde las antiguas pinturas murales ornamentales, la estructura y las escenas de los edificios reales etapa se vuelven a crear, por lo que los investigadores pueden explorar modelos de teatro en 3-D y proporcionar ideas imposibles de obtener de un diagrama plano o libro.



El profesor Richard Beacham, de la Universidad de Warwick, dijo: "Hemos creado generó la primera computadora del mundo los modelos 3-D de los primeros juegos de madera temporales de pinturas. Estos se utilizan para recrear representaciones virtuales, y los actores virtuales se pueden poner en los estadios, para que pueda ver lo que hubiera sido ser un miembro de la audiencia. Las reconstrucciones permiten a los espectadores a entrar en y navegue etapas antiguas. El espacio y el tiempo están dislocados como espectadores zoom alrededor de 3-D fly-through de imágenes antiguas ".



Las pinturas escenografía de Pompeya y Herculano originales se utilizan como prueba para el desarrollo de modelos de realidad virtual. Las fotografías, textos antiguos, representaciones de los frescos y las interpretaciones de los formatos de la etapa romana deteriorados o perdidos ayudan a generar etapa conjuntos históricamente precisos.



Un desafío es discernir la imagen Etapa real dentro de la arquitectura imposible y fantástico pintado embellecerla. Al revisar las pinturas con modelos de computadora, es posible sacar la arquitectura real y luego averiguar lo que los teatros reales parecían.



Dibujó Baker, de E-Lab de la Universidad de Warwick, dijo: "El teatro era una parte integral de la cultura romana y las pinturas de la pared, permite que entendamos el teatro, la política y la cultura durante la transición de la República al Imperio. Los nuevos "museos teatro 'virtuales abrir nuevas posibilidades, y es más atractivo que los museos convencionales. Hasta ahora, se espera que los visitantes del museo para apreciar el arte y la historia del teatro mediante el examen de muestras estáticas, escenografías, decorativos, y fotografías o planos de dos dimensiones ".



La tecnología también puede restaurar cuadros perdidos o dispersos en sus ubicaciones originales dentro de casas particulares en forma virtual.


Virus inteligente elimina el cáncer de cerebro en experimentos con animales


HOUSTON - Un equipo de investigación dirigido por la Universidad del Centro del Cáncer MD Anderson de Texas ha probado una novela "bomba inteligente viral" terapia que puede erradicar por completo los tumores cerebrales en ratones, dejando el tejido cerebral normal solo.



La terapia, conocida como Delta-24-RGD, se cree que es el primer tratamiento para el glioma maligno, la forma más mortal de cáncer cerebral. Se trata de una nueva generación de adenovirus terapia "oncolítico de replicación competente" - se define como un virus terapéutico que puede extenderse, en forma de onda, a lo largo de un tumor, infectar y matar a las células cancerosas. No existe un tratamiento adecuado para estos cánceres cerebrales mortales y, antes de este estudio, algunas terapias experimentales ensayados en animales han mostrado mucha mejoría.



Los resultados, publicados en la edición del 07 de mayo de la revista del Instituto Nacional del Cáncer, se consideran tan prometedor que el Instituto Nacional del Cáncer está proporcionando apoyo financiero para producir, en sus propios laboratorios, una versión de calidad de medicamentos de la terapia para poner a prueba en los seres humanos, posiblemente por finales del próximo año. Los investigadores también están colaborando con la federal Food and Drug Administration en el tratamiento.



"Creemos que esta terapia tiene un gran potencial, pero que necesita mucho más estudio", dice el autor principal Juan Fueyo, MD, profesor asistente en el Departamento de Neuro-Oncología del MD Anderson y autor principal del estudio. "Nunca hemos visto este tipo de respuesta antes que con cualquier otro tratamiento probado en animales o seres humanos."



Delta-24-RGD está diseñado de tal manera que sólo pueden replicarse en las células cancerosas, no tejido sano, con el fin de reproducirse a sí mismo, mientras que matar la célula de cáncer de acogida. Se pasa a contaminar otras células tumorales, y cuando no hay más células cancerígenas se dejan de infectar, el virus muere.



"La terapia viral biológica como esto puede ser justo lo que necesitamos para tratar una enfermedad compleja como el cáncer", dice Frederick Lang, MD, profesor asociado en el Departamento de Neurocirugía, investigador principal del estudio. "El cáncer puede ser tortuoso, ya que hace todo lo posible para evadir la destrucción. Pero los virus son igualmente complicado en su búsqueda para invadir las células y propagar ".



"En esta guerra experimental entre el cáncer y la terapia viral, el virus gana", dice Lang. "Por supuesto, esperamos obtener resultados similares cuando los pacientes se ponen a prueba, pero no podemos predecir tales éxito basado en estudios con animales."



Fueyo, Lang y un equipo de investigadores del MD Anderson, de la Universidad de Alabama en Birmingham y el Institut Catalá d'Oncologia en Barcelona, ??España, que se encuentra en experimentos repetidos que más de la mitad de los ratones que tenían tumores de glioblastoma humano implantados en sus cerebros y tratado con Delta-24-RGD sobrevivió durante más de cuatro meses, mientras que los ratones sin tratar vivió hace menos de tres semanas.



Se consideraron los ratones clínicamente curados de sus tumores cerebrales. Los investigadores encontraron cavidades vacías y sólo tejido cicatrizado en los tumores una vez habían sido.



Los recientes avances en la comprensión de la biología del tumor cerebral han llevado a los investigadores para apuntar defectos moleculares en los tumores cerebrales. En el MD Anderson, los investigadores se han centrado en un producto del gen y la proteína que funciona mal en casi todos los gliomas malignos, así como en muchos otros tumores sólidos - la proteína retinoblastoma (Rb). Se encuentra en todas las células del cuerpo, una proteína Rb actúa como un freno a la división celular mediante la prevención de ciertas otras proteínas reguladoras de la activación replicación del ADN. Si la proteína Rb se encuentra o no funcionamiento, una célula puede replicarse a sí mismo una y otra vez, lo que resulta en el desarrollo de un tumor.



En las células normales, la proteína Rb también evita que un virus que entra en una célula se replique. Los adenovirus, sin embargo, contrarrestar esa medida defensiva por expresar su propia proteína, conocida como E1A, que se une a Rb a detener su funcionamiento. Eso permite que el virus del resfriado común para "echar mano" y se extendió en las células humanas hasta que el sistema inmune tiene la oportunidad de destruirlo.



La terapia de Delta-24-RGD está diseñado para tomar ventaja de la proteína Rb mutante en las células cancerosas mediante la introducción de un virus con una proteína E1A que no funciona, dicen los investigadores. Los investigadores crearon un nuevo virus con un par deleción de 24 bases en el gen E1A del adenovirus de manera que la proteína E1A mal funcionamiento no puede dejar de Rb de funcionamiento, permitiendo que el virus para infectar y matar sólo a las células cancerosas. Una célula sana con una proteína Rb normal puede defender con éxito contra el virus, según los investigadores.



La primera versión de la terapia (Delta-24) no infectar el mayor número de células de glioma humano como esperaba, por lo que, en colaboración con investigadores de la Universidad de Alabama en Birmingham, los investigadores perfeccionaron la terapia para agregar un "RGD-4C" región de unión. Esto permitió que DOCK para moléculas conocidas como integrinas en el exterior de la célula cancerosa.



El experimento se informó en el Diario del Instituto Nacional del Cáncer probó la hipótesis de que el Delta-24-RGD es más eficaz que el Delta-24 en el tratamiento de los gliomas, pero que es igualmente selectivo para las células del cáncer.



Los ratones en cada experimento se dividieron en tres grupos de seis a 10 animales y todas las inyecciones recibidas directamente en los tumores cerebrales. El tiempo medio de supervivencia para los ratones del grupo de control, que



recibió un placebo fue de 19 días. De los 26 ratones que fueron tratados con Delta-24, cuatro (15 por ciento) se consideraron curados porque ellos sobrevivieron durante más de cuatro meses, o hasta el final del experimento. Pero 15 de 25 (60 por ciento) de los ratones que recibieron Delta-24-RGD estaban libres de síntomas, los supervivientes a largo plazo, dice Fueyo. Aunque los investigadores no saben por qué algunos ratones tratados con Delta-24-RGD no sobrevivió, que la teoría de que, debido a la variación natural, algunos animales pueden haber necesitado una dosis mayor de la terapia.



Debido a que un tumor de glioma no metastatizan, el virus sólo tiene que viajar a través del cuerpo del tumor para destruir el cáncer. Mientras que los investigadores dicen que puede haber una pequeña zona alrededor del tumor en el que algunas células normales podrían verse afectados por la batalla entre el virus y el cáncer, no sabrán si los déficits neurológicos podrían provocar hasta la Fase I se inicia ensayo clínico, que se espera que comience el invierno de 2004.



Los investigadores tampoco saben si el sistema inmunitario humano actuará contra el virus. "Esperamos que una reacción inmune no inactivar el virus de la terapéutica", dice Lang. "Queremos llegar al tumor antes el virus puede ser inactivado."



Muchos otros experimentos se han llevado a cabo desde este estudio y replicar los hallazgos del papel, dice Fueyo. "En estos nuevos experimentos, al igual que en este estudio, la mayoría de los animales han sobrevivido", informa.


Lecciones de vida de los 37 asesinos de Texas muestran diferentes rutas de acceso a los condenados a muerte


Asesinato a menudo comienza a una edad terriblemente joven. Es un viaje horrible - a menudo lanzada por la violencia física y sexual, el acoso y el abandono -es terminó en 1997 con la ejecución de 37 hombres condenados por asesinato en Texas.



Este camino hacia la perdición ha sido narrada en un nuevo estudio explora los acontecimientos personales y ambientales para toda la vida y factores de riesgo de estos hombres se enfrentaron. El estudio, publicado en la revista La violencia y las víctimas, compara la vida de los hombres condenados por cometer asesinatos atroces y menos- atroces.



Las dos categorías se basan en la gravedad de la violencia. Los atroces asesinatos estuvieron marcados por la extrema furia y brutalidad, el uso de múltiples armas y una aparente falta de remordimiento, de acuerdo con el autor principal Dorothy Van Soest, decano de la Escuela de Trabajo Social de la Universidad de Washington. Por ejemplo, un hombre en esta foto de grupo, apuñalado y estrangulado a su víctima. Otra apuñaló a su víctima 50 veces. Un tercer hombre mató a alguien, metió el cuerpo en el maletero de su coche, habló casualmente a un oficial de policía y luego fue a una fiesta.



Los asesinatos menos atroces tendencia de dedicarse durante el curso de un robo o por hombres que se encadenan a cabo en materia de drogas y fueron detenidos por la policía. Sus antecedentes penales fueron marcados principalmente por delitos contra la propiedad.



"Necesitamos entender mejor la violencia. Eso no significa tolerar la violencia ", dijo Van Soest. "Sin embargo, tenemos que cambiar el foco de la pena a la prevención. Tenemos que mirar lo que provoca la violencia para que podamos entender los caminos que conducen a la violencia extrema ".



Van Soest comenzó la investigación, mientras que ella era una universidad de Texas en Austin profesora de trabajo social y decano asociado. Ella decidió centrarse en Tejas porque ese estado tiene la mayor tasa de ejecuciones en Estados Unidos desde que la pena de muerte fue reinstalada a finales de 1970. Texas ha representado más de un tercio de todas las ejecuciones, y en 1997 los 37 hombres representados la mitad de las personas ejecutadas en Estados Unidos.



De los 37 hombres en este estudio, 22 eran blancos, 13 eran negro y dos eran latinos. Entre los blancos, 16 de los crímenes fueron evaluados como atroz y seis como menos atroz. Había seis atroz y siete menos atroz entre los negros, mientras que los dos asesinatos latinos se dividen entre las dos categorías.



Uno de los objetivos de la investigación, Van Soest, dijo, era examinar las múltiples constelaciones de factores de riesgo y ver la forma en que pueden haber influido en la vida de los hombres que fueron ejecutados. Para hacer esto, ella y sus colegas revisaron todos los documentos e informes disponibles en los hombres. Estos informes y testimonios incluidos dadas en sus ensayos, apelan documentos y datos de su, neurológicos, psicológicos servicio médico social, el bienestar, la escuela, la libertad condicional, y los registros militares. Además, los investigadores examinaron los paquetes prisión mantenido por el Departamento de Justicia Criminal de Texas, que contenía sus historias sociales y penales y un informe del FBI sobre sus antecedentes penales. A pesar de todas estas fuentes, muchos de los registros estaban incompletos o superficiales, dijo, y los investigadores no pudieron determinar si algunos de los riesgos que estaban presentes en la vida de un individuo.



El factor más llamativo que surge del estudio es la prevalencia de la violencia infantil en las vidas de muchos de estos hombres. De los 20 hombres para los que no hay evidencia de abuso físico en la infancia, 15 fueron posteriormente condenados por cometer asesinatos atroces. Cinco de los hombres en la categoría de menos atroz también fueron víctimas de abuso físico en la infancia. Además, prácticamente todos aquellos cuyos antecedentes infancia incluido el abuso sexual, abuso físico y negligencia física o emocional fueron declarados culpables de haber cometido los crímenes más atroces-.



Los hombres en la categoría atroz tenían más probabilidades de ser blancos, pobres y haber metido con el alcohol y las drogas a una edad temprana. La media de edad de inicio de alcohol fue de 12,6 años y fue de 13,7 años para las demás drogas. Además, 10 de los 12 hombres que perpetraron los abusos sexuales eran del grupo atroz. Estos hombres también eran más propensos a sufrir de alucinaciones y algún tipo de disfunción cerebral.



"Hay cierta evidencia de que cuando estos hombres eran muchachos trataron de ser bueno, y más tarde se retiró a alcohol y drogas a una edad temprana. Eran terriblemente maltratados y estaban tratando de sobrevivir. Algunos de los casos eran desgarradoras, pero resultó que se comporten como si fueran monstruos en lugar de lastimar a los seres humanos ", dijo Van Soest.



Los hombres en el grupo de menos atroz tenían más probabilidades de haber intimidado a sus compañeros y tenía perfiles que incluían ser negro, tener problemas en la escuela, el abandono de la escuela secundaria y tener un registro de la delincuencia juvenil.



"Cuando las personas vieron estos individuos tenderían a decir:" Estos niños son problemas '", dijo Van Soest.



"Otra cosa que este estudio muestra es que los hombres negros fueron ejecutados por Texas por Menos- atroces crímenes que los cometidos por los blancos, lo cual es coherente con cómo se ha aplicado la pena de muerte en este país."



Añadió que una de las conclusiones condenatorias del estudio fue un aparente invisibilidad de intervención comunitaria temprano cuando estos hombres eran jóvenes.



"La sociedad parecía tener dos enfoques en relación con los hombres en el estudio y ambos fueron perjudiciales", dijo Van Soest. "El más atroz, como los niños, se retiró y la auto-medicado su dolor. Cuanto menos atroz recibieron intervención ineficaces o no tan niños, y sospecho que llegaron a ser criminalizados cuando entraron en el sistema de justicia.



"Tenemos pistas, no las respuestas, de este estudio acerca de lo que sucedió en la vida de estos hombres. Por ejemplo, la mayoría de las personas que son víctimas de abuso no cometer actos de violencia, pero los del grupo más atroces eran todos los niños víctimas de violencia. Tenemos que mirar más a fondo en las múltiples constelaciones de factores de riesgo y cómo trabajan juntos. También tenemos que educar a las personas que trabajan con los niños sobre cuáles son estos factores y contrarrestar por otras de protección ".


Sistema de alarma de terremoto podría aliviar el riesgo para los californianos del sur




Para descargar un gráfico para acompañar esta historia, visite http://www.news.wisc.edu/newsphotos/earthquake.html



Imagen completa disponible a través del contacto



MADISON - Aprovechando las ondas de baja energía que siempre preceden a los terremotos, los científicos han diseñado y demostrado la viabilidad de un sistema de alerta temprana que promete el sur de California hasta 40 segundos de aviso por adelantado de las principales temblores.



El sistema, que se describe en la edición de Viernes, 02 de mayo de la revista Science, podría ayudar a mitigar los desastres por darle a la gente un momento para refugiarse debajo de un mueble sólido, evacuar los edificios, desviar la aeronave, detener los trenes, cerró los oleoductos y las redes informáticas y la distancia a sí mismos de la maquinaria y los productos químicos peligrosos.



El sistema se basa en TriNet, una densa red de estaciones sísmicas modernas desplegadas en el sur de California.



"Un sistema de alerta temprana es la próxima generación de información sísmica," afirma Richard M. Allen, de la Universidad de Wisconsin-Madison profesor de geología y geofísica y el autor principal del artículo que describe una alarma de terremoto prototipo. "Hay una capacidad ahora de detectar los parámetros del terremoto en cuestión de segundos" y transmitir esa información de una manera que podría proporcionar algunos de alerta temprana para la región propensa a los terremotos densamente poblada.



El sistema de alarma de terremoto, desarrollado por Allen en colaboración con Hiroo Kanamori del Instituto de Sismología Laboratorio de Tecnología de California, está diseñado para utilizar una red de 155 estaciones sísmicas ahora en su lugar en el sur de California. Utiliza lo que los sismólogos llaman ondas P, ondas de baja amplitud de energía que son los primeros en surgir de la fuente subterránea de un terremoto. Estas ondas de baja energía, que generalmente causan pocos daños, viajan a mayor velocidad que las ondas S en tierra rollicking que son la mayor amenaza de cualquier terremoto a la vida y la propiedad.



"El sistema calcula la gravedad del peligro es y cuánto tiempo de aviso de que hay", dice Allen.



Estaciones sísmicas pueden sentir la onda P y - dado el advenimiento de la tecnología que permite que casi instantánea de procesamiento y transmisión de datos - enviar señales para activar alarmas para advertir al público, dice Allen.



El sistema, conocido como ElarmS, es capaz de determinar rápidamente la ubicación, origen, el tiempo y la magnitud de un terremoto antes de que haya cualquier movimiento de tierra significativa. La cantidad de tiempo advirtiendo a la gente que recibirá depende de su proximidad al epicentro del terremoto; cuanto más lejos del origen del evento, más tiempo de aviso está disponible.



"Las personas que necesitan de advertencia más tendrán menos tiempo, pero al menos el sistema puede dar a la gente la oportunidad de reaccionar", dice Allen. "En un terremoto, cada segundo cuenta."



Unos segundos es tiempo suficiente para refugiarse debajo de un escritorio o en otra área protegida. A medida que la cantidad de advertencia que aumenta el tiempo, la gente puede tomar otras medidas para protegerse a sí mismos, mitigar los daños materiales y peligro para los demás.



Por ejemplo, con 15 a 20 segundos de advertencia, controladores de tránsito aéreo onda de aeronaves que llegan, las fábricas pueden parar las líneas de producción, el tráfico puede ser impedido de ingresar autopistas, gasoductos pueden bloquearse por, y los trenes se pueden detener. Con tanto tiempo, la gente también puede evacuar algunos edificios y escuelas pueden tomar medidas para proteger a los niños.



Una de las preocupaciones, sin embargo, es la poca frecuencia relativa de los grandes terremotos. Dada su escasa frecuencia, las personas no pueden responder a una alerta temprana, dice Kanamori: "Las aplicaciones más interesantes y eficaces de los sistemas de alerta temprana serían para incluirlos en los sistemas de control automatizados para edificios y estructuras."



Con ElarmS, el tiempo de alerta fuera sería de unos 40 segundos para las personas a cierta distancia desde el epicentro.



Para algunos grandes eventos sísmicos, puede haber incluso más tiempo de alerta disponibles, ya que tienden a ocurrir más profundo dentro de la tierra.



En Japón, un sistema de alerta temprana que emplea ondas P, conocidos como UrEDAS, se ha utilizado para mantener la operación segura de los trenes bala durante grandes terremotos. El nuevo sistema ideado para el sur de California, combina información de ondas P de varias estaciones de TriNet para obtener estimaciones rápidas y precisas de magnitud.



Otros países propensos a terremotos como México y Taiwan han desarrollado sistemas de alerta temprana basados ??en mediciones de movimiento del suelo máximo el instante en que la onda S en tierra temblando es detectado por una estación sísmica. La ventaja del nuevo sistema, dice Allen, es que utiliza las ondas P de baja energía, proporcionando valiosos segundos para reaccionar ante las dañinas ondas S llegan.



Algunos sistemas de alerta temprana, como el que sirve la ciudad de México, capitalizar la distancia entre una zona seismologically activa y la región densamente poblada del sistema está destinado a advertir. Un lujo de este tipo no está disponible para el sur de California, casi todos los cuales es densamente poblada y que se ata con muchas fallas activas, algunas de las cuales son desconocidas.



Con este sistema, "no necesitamos ningún conocimiento acerca de la distribución de las fallas", dice Allen.



Entre los inconvenientes para el nuevo sistema descrito en la revista Science, es que se requeriría una campaña masiva de educación pública, y hay una posibilidad de falsas alarmas y perdidas, dice Allen.



Para el 'Big One', el gran terremoto previsto que romper una parte importante de un gran fallo, el nuevo sistema sería actualizar continuamente su estimación de la magnitud del terremoto, quizás inicialmente sugiere un terremoto menor, pero el aumento de la estimación de magnitud y riesgo que el evoluciona de eventos, dice Allen.



Sin embargo, la mayoría de los terremotos, incluyendo aquellos que toman vida y hacen un daño significativo a la propiedad, tienden a ser eventos más aislados que se prestarían a la detección temprana, según el sismólogo Wisconsin.



La ventaja del sistema es que, desde una perspectiva técnica y la infraestructura, casi todo está ya en su lugar. El sur de California tiene cientos de estaciones sísmicas del estado de la técnica que podría aprovecharse para un sistema de este tipo de alarma, señala Allen.



"La infraestructura de sísmica para hacer esto sólo se ha instalado en los últimos cinco años", dice Allen. "Hace diez años, no teníamos la tecnología para hacer esto."


Geofísicos UU emiten advertencia réplica del terremoto de Turquía


Pérdida sustancial de possibleUniversity vida de los geofísicos del Ulster han advertido que existe un verdadero peligro de nuevos terremotos en la zona del sur de Turquía devastado el jueves.



El terremoto se produjo en la Zona de Falla de Anatolia Oriental, lo que representa un importante límite de placas entre el árabe y las placas tectónicas de Anatolia.



De acuerdo con la Universidad de Ulster profesor de Geofísica, John McCloskey, los resultados del modelo de estrés publicado por científicos de la Escuela de Ciencias Biológicas y Ambientales identificó el año pasado la ciudad de Bingol como sujetas a un riesgo particularmente alto terremoto.



"Calculamos las tensiones en la Zona de Falla de Anatolia Oriental debido a la carga tectónica y debido a los terremotos históricos en Turquía, y se identificaron dos áreas sometidas a grandes esfuerzos en la falla, señalamos que estas áreas eran los lugares más probables para futuros grandes eventos en este región sísmicamente activa ".



"Terremoto del jueves se produjo en una de estas áreas.





"Es probable que el terremoto rompió un segmento de la Zona de Falla de Anatolia Oriental que se extiende desde el norte de Bingol durante unos 25 kilómetros al sur-oeste. Este evento corresponde muy bien con la localización y el mecanismo identificado en nuestro artículo de 2002 ".



El equipo, de Geofísica Grupo de Investigación de la universidad ha llevado a cabo otra serie de cálculos detallados y han llegado a la conclusión de que hay un aumento significativo del riesgo sísmico en la zona como consecuencia del terremoto de Bingol.



"Nuestros resultados preliminares indican un aumento de riesgo significativo en la Zona de Falla de Anatolia del este al oeste del sur de la ruptura, hacia la ciudad de Elazig y al norte al este de Bingol. Estos resultados, combinados con las fallas conocidas que existen en la zona, indican que se pueden producir grandes réplicas - con eventos de magnitud seis en la escala de Richter posible.



"Eventos de esta magnitud se producen en la zona de una ciudad ya dañada podrían ser muy graves y podrían esperarse que resulte en una pérdida adicional significativa de la vida." dijo el profesor McCloskey.


Modelo científicos casa en el control de clima tropical


MADISON - Desde hace tiempo se sabe que el clima tropical - mediante la redistribución de grandes cantidades de energía solar a través brota de aire caliente y la formación de imponentes nubes cúmulos - influencias tiempo en otras partes del mundo.



No queda claro, sin embargo, la cantidad de los trópicos pueden ser afectados por las latitudes más altas.



Ahora, con la ayuda de un sofisticado modelo informático, los científicos de la Universidad de Wisconsin-Madison han demostrado que los grandes "puentes" y "túneles atmosféricas, oceánicas" creadas por el vuelco de aire y agua, vinculan las latitudes altas de los trópicos y pueden calentarse la temperatura del océano cerca del ecuador.



El hallazgo, publicado en la edición del 13 de mayo de la revista Geophysical Research Letters, tiene implicaciones para la mejor comprensión del cambio climático global y regional, y es el primero en identificar los fenómenos de altas latitudes que influyen significativamente en el clima en las regiones ecuatoriales del mundo.



La idea predominante, según Zhengyu Liu, autor principal del artículo y director del Centro de UW-Madison de Investigación Climática, fue que el clima y los fenómenos meteorológicos en las latitudes más altas tendían a ser estática, con influencia no de largo alcance.



"Ese fue el pensamiento convencional", dice. "Sin embargo, nuestro modelo muestra que estos fenómenos son igualmente ponderados, que el clima y el tiempo en las latitudes más altas tienen mayor cantidad de influencia en los trópicos como el clima tropical y la influencia del clima de las latitudes más altas. Ambos son muy importantes ".



El descubrimiento revela un mecanismo climático oculto que puede ser de importancia crítica para los estudios sobre el pasado y el futuro cambio climático global y regional, dice Liu.



De acuerdo con el escenario representado por los experimentos de modelización realizados por Liu y colega Haijun Yang, el calor transportado a través de los puentes de la atmósfera de los trópicos a latitudes más altas se reduce como resultado del calentamiento climático en las latitudes más altas. Al mismo tiempo, el agua caliente extratropical se canaliza en los túneles bajo la superficie oceánica y se lleva al ecuador donde aflora y calienta el océano tropical.



El estudio sugiere que incluso un centígrados el calentamiento de 2 grados del océano en regiones más allá de los trópicos puede elevar las temperaturas superficiales del mar y el subsuelo de las zonas tropicales hasta en 1 grado Celsius como fluye el aire menos caliente de los trópicos y cálido, agua extratropical se canaliza hacia el ecuador por los túneles oceánicas representadas en el estudio.



"Ese es un cambio significativo" en la temperatura, dice Liu. "Es de fundamental importancia."



El nuevo estudio, dice Liu, ofrece una pieza faltante del rompecabezas climático. Permitirá a los científicos a obtener mayor conocimiento en el clima y el cambio climático como un mecanismo desconocido se revela y se añade a la mezcla de variables que los investigadores deben captar, ya que luchar con la enormemente compleja problemática del cambio comprensión y predicción del clima.



"La magnitud de esta influencia y las contribuciones relativas del puente atmosférica y oceánica túnel haber permanecido incierto", dice Liu. "Pero hemos encontrado que las regiones extratropicales ejercen un fuerte control sobre el clima tropical. Esta es nuestra primera estimación de la influencia extratropical en los trópicos ".



El Centro para la Investigación Climática de la Universidad de Wisconsin-Madison es un centro líder de investigación sobre el clima mundial. Es una parte del Instituto Gaylord Nelson de UW-Madison de Estudios Ambientales.


Gestión sólido, capacidad de recuperación natural, tanto la clave para el éxito salmón rojo




Sockeye regresar a desovar a desarrollar órganos de la llama roja y jefes verdes vivos con los dientes pronunciados y hocicos en forma de gancho.



Crédito de la foto: U. de Washington / Thomas Quinn





La capacidad de recuperación de salmón rojo se ejecuta en la Bahía de Bristol de Alaska - después de un siglo de pesca son tan saludables como lo que he estado - se trata de la fuerza.



No es sólo una abundancia de peces, aunque los números que regresan para desovar es decenas de millones más que el total a través de los 48 estados y acciones prudentes por los pescadores y el Departamento de Pesca y Caza de Alaska han contribuido a que sea un ejemplo clásico de un sostenible pesquería.



Como resultado, se trata también de tener un gran número de segmentos de la población, o componentes, los peces en cada programado para reproducirse y desarrollarse en condiciones un tanto diferentes a los peces en otros componentes de la Universidad de Washington informan los investigadores en Proceedings de esta semana de la Academia Nacional de Ciencias.



Es una importante barrera natural frente a las cambiantes condiciones ambientales, en particular los afectados por el clima, que pueden hacer que los ganadores de componentes aparentemente insignificantes de la población, o en acciones, mientras que empequeñecía el una vez poderoso.



Gerentes de salmón en el noroeste del Pacífico y otros lugares, así como los que supervisan otras poblaciones de peces y mariscos, necesitará considerar este biocomplejidad dentro de una especie, dicen de la UW Ray Hilborn, Thomas P. Quinn y Donald Rogers, todos los profesores de ciencias acuáticas y pesca , y Daniel Schindler, profesor asociado de biología. La pérdida de la complejidad biológica es una característica de salmón en el noroeste del Pacífico, donde muchos componentes de las poblaciones se perdieron a causa de las presas o la sobreexplotación deliberada en un intento de maximizar la captura de los criaderos, dicen los autores.



Es por eso que la protección sólo el hábitat de los peces y de carreras más fuertes de hoy es un error. Uno no puede saber con certeza que va podrían "tropezar" en el futuro, dice Quinn.



Sockeye es una de las cuatro especies de salmón que se encuentran en la costa oeste y en Alaska. Es muy diferente de las otras especies porque los jóvenes pasan un año, a veces más, en los lagos de agua dulce antes de dirigirse al mar. Salmón rojo Bristol Bay en Alaska ha sido tradicionalmente la pesca del salmón más valiosa del mundo, en su apogeo un valor de $ 200 millones a $ 400 millones y, con los precios de hoy, por un valor de entre $ 30 millones y $ 50 millones.



En el trabajo financiado por la Fundación Nacional de Ciencias, los procesadores de salmón Bahía de Bristol y la Universidad de Washington, los científicos examinaron las cambiantes fortunas del salmón en los tres distritos de pesca Bahía de Bristol, cada uno con su distinta a la red de ríos y lagos. A través de la década de 1950, de los 60 y mediados de los años 70, cuando las condiciones tendían a ser más fresco y seco a causa de la influencia de la Oscilación Decadal del Pacífico, la Naknek y red Kvichak superaron con creces a los otros dos distritos. La contribución dominante era del lago Iliamna, el lago más grande del estado unido detrás de los Grandes Lagos.



En 1977-1978 la Oscilación Decadal del Pacífico cambió a una fase diferente que conduce a condiciones más cálidas y húmedas con mayores niveles de agua y los flujos entre los resultados. La productividad de los tres distritos de pesca comenzó a cambiar en respuesta, dice Hilborn.



Hoy Lake Iliamna contribuye tan pocos peces que requiere una gestión especial de protección. La red Egegik, que alimenta otro de los distritos de pesca estudiadas y que representó a principios de apenas un 5 por ciento de la captura, se expandió enormemente hasta los años 90 cuando el tercer barrio de pescadores, la Nushagak, aumentó. En algunos años recientes, la Nushagak ha sido la pesquería más importante en la Bahía de Bristol.



"En la década de 1950, los directivos podrían haber elegido a pasar por alto los sistemas Egegik o Nushagak, y en el momento el costo habría aparecido a ser baja," escriben los autores.



El salmón rojo de stock Bristol Bay es una amalgama de varios cientos de poblaciones discretas o componentes. Es todas esas adaptaciones locales que estabilizan el sistema, dice Quinn. La ventaja va a los varones más profundo de cuerpo cuando la lucha por lugares para desovar y la atracción de las hembras, hasta que se tiene en cuenta lo que sucede cuando los ríos van más baja de lo habitual. Entonces esos hombres más profundo de cuerpo son más propensos a convertirse en cadena y, porque se pegan encima de más arriba fuera del agua, son más fáciles para los osos hambrientos para morder que los hombres en los componentes de la población que tiene la media, o incluso más pequeño que el promedio , el cuerpo profundidades.



El tamaño del huevo, sitios de desove preferidas, el tamaño de la joven al salir del huevo son algunas de las muchas otras adaptaciones que podrían dar ventajas dependiendo de las condiciones.



"Compramos un seguro para el futuro por tener redes de hábitat y no sólo tratar de salvar el hábitat de carreras más fuertes de la actualidad", dice Schindler. Esto podría requerir una escala mucho más fina de la gestión que es la norma actual, dicen los coautores.


Moonshine todavía puede causar problemas de salud


U.Va. Médico del Sistema de Salud se encuentra la toxicidad del plomo puede ocurrir entre abusersCHARLOTTESVILLE crónica, Virginia, 28 de mayo -. La palabra evoca imágenes de la gente del campo a escondidas en el bosque de la espalda o en la planta baja a sus sótanos para participar en una tradición sureña ilícito - moonshine. De acuerdo con informes de prensa recientes, continúa prosperando en Virginia y de acuerdo con un médico en la Universidad de Virginia Health System, puede causar serios problemas de salud en los que abusan de él.



Dr. Christopher Holstege, profesor asistente de medicina de emergencia y el director de la División de Toxicología Médica en la Universidad de Virginia Sistema de Salud, realizó una investigación y encontró que más de la mitad de las muestras de alcohol destilado ilícitamente estudió contenía niveles de plomo que estaban por encima de las directrices de la EPA de agua de 15 partes por billón (ppb). Este contenido de plomo, Holstege sugiere, puede conducir a niveles tóxicos en los que abusan del alcohol ilegal. Sus resultados de la investigación serán presentados en la Sociedad para la reunión anual Academic Emergency Medicine el 31 de mayo en Boston.



"Debido a luz de la luna se considera una tradición del pasado, la toxicidad del consumo de alcohol ilegal es probable que se pasa por alto", dijo Holstege. "Con cientos de miles de litros de alcohol ilegal producidos en todo el país cada año, los médicos deben ser conscientes de este problema en la evaluación de los abusadores del alcohol ilegal."



Holstege estudió 48 muestras fijas diferentes de moonshine ilícitamente destilados obtenidos de funcionarios encargados de hacer cumplir la ley. Un laboratorio independiente, cegados a las muestras de luz de la luna y



una muestra de control de etanol, llevó a cabo el análisis. El contenido de plomo se determinó mediante espectrofotometría de absorción atómica. Los resultados mostraron que 43 de las 48 muestras tenían niveles de plomo que van de cinco a 599 ppb.



"No hay estudios significativos se han hecho para analizar Virginia moonshine de impurezas desde la década de 1960", dijo Holstege. "Esperemos que esta investigación va a dar a conocer al público que todavía hay riesgos asociados con el consumo de alcohol ilegal."



Este estudio es uno de los finalistas para el premio a la mejor presentación en la Sociedad Académica de Medicina de Emergencia Reunión Anual.


Un nuevo mecanismo que desencadena la enfermedad autoinmune


. Charlottesville, 1 de mayo - En estudios con animales, los investigadores de la Universidad de Virginia Health System han descubierto un nuevo mecanismo que puede desencadenar enfermedades autoinmunes en los recién nacidos. La investigación se publica en la edición de mayo del Journal of Immunology.



Los investigadores encontraron que ciertos anticuerpos en ratones hembra unidos a un antígeno en las células de sus bebés. Ese proceso a continuación, estimuló una respuesta de células T, que atacaron los ovarios de las crías de ratón. Del ochenta al 90 por ciento de los ratones bebé había destrucción de ovario o inflamación en el estudio, una indicación de enfermedad autoinmune.



Por lo general, las células T ayudan a dirigir y controlar la respuesta inmune y son importantes en la destrucción de invasores en el cuerpo, tales como virus, bacterias y cáncer. Las células T también se requieren para la producción óptima de anticuerpos. Pero bajo condiciones anormales, las mismas células T pueden activar las células del propio cuerpo y causar la enfermedad autoinmune.



"Los resultados fueron inesperados", dijo Kenneth SK Tung, profesor de patología y microbiología en la Universidad de Virginia "Esto sugiere que la enfermedad autoinmune, además de una influencia genética, también tiene una influencia ambiental y no genético. Es realmente un nuevo paradigma, una nueva manera de pensar acerca de la enfermedad autoinmune ".



Tung y sus colegas también encontraron que hay una ventana de tiempo en el que la exposición al anticuerpo de la madre es crítico para el desarrollo de la enfermedad autoinmune. Los ratones expuestos al anticuerpo materno no desarrollaron la enfermedad autoinmune después de los primeros cinco días de vida. Tung cree que se debe a que las células especiales que controlan la acción de las células T no estaban funcionando en los primeros días de vida.



Ratones transfieren anticuerpos a su descendencia a través de la leche. En los seres humanos, la transferencia de anticuerpos de la madre al bebé pasa a través de la placenta durante el embarazo, dice Tung.



Enfermedad autoinmune se produce cuando la tolerancia normal del cuerpo a sus propias células desaparece y las células sanas son atacados. Diabetes mellitus, la artritis reumatoide, el lupus y la esclerosis múltiple son tipos de enfermedad autoinmune.


Nueva técnica reduce caza de blazares de rayos gamma


NASHVILLE - En la búsqueda para pelar los misterios de algunos de la física más convincente en el cosmos, el enigmático de alta energía de rayos gamma blázar - un chorro chorros de un agujero negro gigante - promete una nueva comprensión de algunos fenómenos astrofísicos que, tentadoramente , parecen ser un poco más allá de la comprensión de los astrónomos.



Pero la localización de dichos blazares con telescopios de rayos gamma terrestres, el tipo de telescopio que podría revelar algunos de los secretos celosamente mantenidos de las mismas especies, de rayos gamma de alta energía raros de blázar, es un proceso difícil, altamente ineficiente. Pocos son conocidos.



Ahora, sin embargo, gracias a las nuevas técnicas ópticas desarrolladas por un equipo de astrónomos de la Universidad de Wisconsin-Madison, los telescopios de rayos gamma del mundo puede ser capaz de acercar rápidamente en este tipo inusual de blázar lugar de perder el valioso tiempo de telescopio en busca de la cielos para sus firmas reveladoras.



En general, blazares son una clase de objetos ricos en información que puede brillar a través del espectro electromagnético - de la radio a los rayos gamma de muy alta energía en algunos casos. En la óptica, la mayoría se parecen mucho a una estrella, un simple punto de luz en el cielo. La mayoría de blazares se encuentran a distancias cosmológicas, miles de millones de años luz de distancia.



Una especie que puede ser especialmente rica en información se conoce como la Blazar de rayos gamma TeV porque emite rayos gamma a energías extremadamente altas. Algunos de estos blazares de gama alta son relativamente cerca, a tan sólo 300 millones de años luz de la Tierra. Pero cuando los telescopios de rayos gamma escanean el cielo, que tienen un tiempo difícil de localizar el las fuentes puntuales que pueden estar emitiendo los rayos gamma.



"Con los telescopios de rayos gamma, se puede observar una fuente de tres meses antes



usted obtiene una señal ", dice Ramotholo Sefako, un astrónomo de la UW-Madison que, con Wisconsin colega Eric Wilcots, hoy (28 de mayo) presentó los resultados de investigación que podrían hacer que sea mucho más fácil para los astrónomos para encontrar blazares TeV. Con estas nuevas técnicas, "podemos decir que los objetos son susceptibles de ser objetos de alta energía. Nuestro objetivo es correlacionar los resultados ópticos y de rayos gamma ", dice Sefako.



Los astrónomos, que utilizaron el telescopio de 1,0 metros en el Observatorio Astronómico de Sudáfrica, compartieron sus conclusiones en la sesión 202 de la Sociedad Astronómica Americana en Nashville. El equipo presentó los resultados sobre las observaciones de ocho objetos y describe técnicas ópticas que reducirían el tiempo de la identificación de un blázar de alta energía entre tres meses y un día.



La capacidad de forma rápida en el hogar en blazares que emiten rayos gamma a energías TeV usando telescopios ópticos terrestres promete una gran cantidad de nuevos objetos de estudio por los astrónomos usando telescopios de rayos gamma. Con blazares rayos gamma más conocidos de alta energía para elegir, los astrónomos pueden usar el escaso tiempo del telescopio de rayos gamma para estudiar lo que se considera que son algunos de los objetos más inusuales en el cosmos en vez de pasar tiempo peinando el cielo para ellos.



Existen Blazars en los núcleos de las galaxias. Y aunque nadie sabe a ciencia cierta lo que está en sus núcleos, el pensamiento actual es que un enorme agujero negro - quizás un billón de veces más masivo que el Sol - crea años luz de larga chorros de plasma que se pegan hacia fuera de los polos de un toro creado por un disco de acreción de material girando en el agujero negro. Es estos chorros que se cree que son la fuente de los rayos gamma de alta energía que los astrónomos de interés.



Consultado en el ángulo derecho, blazares podrían proporcionar una ventana única a un agujero negro, dice Wilcots: "El chorro puede ser una manera de conseguir una mirada hasta el núcleo, una vista que se oculta de otra manera por el toro de estos objetos. "



La capacidad para perforar hasta el núcleo de estos objetos, Sefako señala, puede dar luces sobre la física de los agujeros negros, incluyendo una comprensión más detallada de los discos de acreción comportamiento, la física de los mismos y tal vez incluso ser la clave para descubrir el jets origen de los rayos cósmicos.