Con apretar un botón en el teléfono celular durante una situación de riesgo se envía un mensaje de alerta a la policía que esté en un radio de un kilómetro a la redonda y a los amigos o familiares que usted haya elegido como contactos de seguridad.
La alerta activada informará a su red de contactos el punto geográfico exacto donde está el usuario, y al mismo tiempo activará el micrófono y la cámara de video, de modo que todo lo que ocurra se esté registrando y automáticamente se suba a la Nube de internet.
Esto ya es posible gracias a un programa desarrollado en Aguascalientes por la compañía mexicana Sec-App Technologies, la cual planea ofrecer este servicio a cinco millones de usuarios de celulares.
Esta aplicación también previene delitos al enviar mensajes informándole al usuario que está a punto de llegar a una esquina conflictiva o peligrosa por lo que le sugiere una ruta alterna con seguridad verificada. De modo que el celular se convierte en una herramienta para informar y activar protocolos de seguridad.
En los últimos cinco años el país se convirtió en uno de los lugares del planeta con mayores registros de secuestros, robos, extorsiones telefónicas y homicidios. A partir de esta problemática Sec-App desarrolló una aplicación que puede descargarse gratuitamente en casi 80 millones de teléfonos celulares inteligentes o smarthphone en toda la República. Pero además de la versión gratuita, que se obtiene en la página de App Store, también hay una versión que cuesta 13 pesos y otra con precios personalizados según los beneficios.
http://noticiasdelaciencia.com/not/8572/crean_una_aplicacion_que_alerta_contra_secuestros/
Wikipedia
Resultados de la búsqueda
jueves, 24 de octubre de 2013
Insecticida derivado del veneno de una araña
La creciente resistencia de insectos herbívoros a los insecticidas destinados a erradicarles de los campos de cultivo en los que causan estragos obliga a adoptar soluciones más contundentes, y una de ellas es buscar ayuda en el laboratorio químico natural del metabolismo de las arañas, depredadoras de esos insectos. Una investigación reciente indica que una proteína del veneno de una araña puede servir como bioinsecticida para aniquilar a ciertos insectos que son una plaga preocupante en muchos campos de algodón.
Los venenos de las arañas suelen ejercer su toxicidad cuando son inyectados dentro de la víctima, pero la nueva proteína descubierta en el veneno de una araña australiana, la Selenotypus plumipes, puede también matar con facilidad a los insectos que ingieran un poco de esta sustancia. En la investigación llevada a cabo por el equipo de Glenn King y Margaret Hardy, del Instituto de Biociencia Molecular en la Universidad de Queensland en Australia, se ha comprobado que la proteína referida, al ser ingerida, es fulminante para el insecto de la especie Helicoverpa armigera, uno de los principales culpables de los estragos sufridos por bastantes campos agrícolas.
La proteína, denominada OAIP-1, resultó muy tóxica para los insectos que la consumieron, con una contundencia similar a la del insecticida sintético imidacloprid.
El Helicoverpa armigera y otros insectos culpables de graves pérdidas en las cosechas reducen éstas en un porcentaje de entre el 10 y el 14 por ciento cada año, y dañan entre el 9 y el 20 por ciento de los alimentos almacenados que derivan de estos cultivos. Además, algunas especies de estos insectos se han vuelto resistentes a los insecticidas disponibles en el mercado.
http://noticiasdelaciencia.com/not/8492/insecticida_derivado_del_veneno_de_una_arana/
Los venenos de las arañas suelen ejercer su toxicidad cuando son inyectados dentro de la víctima, pero la nueva proteína descubierta en el veneno de una araña australiana, la Selenotypus plumipes, puede también matar con facilidad a los insectos que ingieran un poco de esta sustancia. En la investigación llevada a cabo por el equipo de Glenn King y Margaret Hardy, del Instituto de Biociencia Molecular en la Universidad de Queensland en Australia, se ha comprobado que la proteína referida, al ser ingerida, es fulminante para el insecto de la especie Helicoverpa armigera, uno de los principales culpables de los estragos sufridos por bastantes campos agrícolas.
La proteína, denominada OAIP-1, resultó muy tóxica para los insectos que la consumieron, con una contundencia similar a la del insecticida sintético imidacloprid.
El Helicoverpa armigera y otros insectos culpables de graves pérdidas en las cosechas reducen éstas en un porcentaje de entre el 10 y el 14 por ciento cada año, y dañan entre el 9 y el 20 por ciento de los alimentos almacenados que derivan de estos cultivos. Además, algunas especies de estos insectos se han vuelto resistentes a los insecticidas disponibles en el mercado.
http://noticiasdelaciencia.com/not/8492/insecticida_derivado_del_veneno_de_una_arana/
Cerámica capaz de doblarse sin romperse
Las cerámicas no son conocidas en absoluto como un material flexible; se rompen con facilidad cuando se las somete a presión. Pero un grupo internacional de científicos ha encontrado una solución para ese problema, al menos en el caso de los objetos muy pequeños.
Este grupo ha ideado un modo de fabricar objetos minúsculos de cerámica que no solo son flexibles, sino que también tienen "memoria" sobre su forma: Cuando se doblan y luego se calientan, regresan a sus formas originales.
Los materiales con memoria de forma a los que se puede deformar y luego son capaces de recobrar su forma original por sí mismos, con o sin ayuda de un estímulo externo como por ejemplo un cambio de temperatura, son conocidos desde la década de 1950. Pero hasta ahora, todos los materiales con esta capacidad han sido esencialmente metales y algunos polímeros, nunca cerámicas.
Primero, estos científicos crearon objetos de cerámica tan pequeños que son invisibles a simple vista. La razón de escoger un tamaño tan minúsculo es que los cuerpos pequeños son más resistentes a la ruptura.
Luego, los investigadores trabajaron en la estructura cristalina del material, optimizándola para su resistencia a las grietas, lo que dio como resultado filamentos de cerámica que tienen un diámetro de solo 1 micrómetro y una deformabilidad que permite que se doblen un 7 por ciento (o sea una extensión equivalente a cerca del 7 por ciento de su tamaño) repetidas veces y sin ninguna ruptura.
Al ser sometida a una carga, la estructura molecular del material cerámico estudiado por el grupo del MIT y la Universidad Tecnológica Nanyang se deforma en vez de quebrarse. Cuando se le calienta, recobra su forma original. Aunque ambas poseen la misma composición química, cada una de las configuraciones moleculares corresponde a un material distinto. Uno de estos materiales es la austenita y el otro la martensita.
Este grupo ha ideado un modo de fabricar objetos minúsculos de cerámica que no solo son flexibles, sino que también tienen "memoria" sobre su forma: Cuando se doblan y luego se calientan, regresan a sus formas originales.
Los materiales con memoria de forma a los que se puede deformar y luego son capaces de recobrar su forma original por sí mismos, con o sin ayuda de un estímulo externo como por ejemplo un cambio de temperatura, son conocidos desde la década de 1950. Pero hasta ahora, todos los materiales con esta capacidad han sido esencialmente metales y algunos polímeros, nunca cerámicas.
Primero, estos científicos crearon objetos de cerámica tan pequeños que son invisibles a simple vista. La razón de escoger un tamaño tan minúsculo es que los cuerpos pequeños son más resistentes a la ruptura.
Luego, los investigadores trabajaron en la estructura cristalina del material, optimizándola para su resistencia a las grietas, lo que dio como resultado filamentos de cerámica que tienen un diámetro de solo 1 micrómetro y una deformabilidad que permite que se doblen un 7 por ciento (o sea una extensión equivalente a cerca del 7 por ciento de su tamaño) repetidas veces y sin ninguna ruptura.
Al ser sometida a una carga, la estructura molecular del material cerámico estudiado por el grupo del MIT y la Universidad Tecnológica Nanyang se deforma en vez de quebrarse. Cuando se le calienta, recobra su forma original. Aunque ambas poseen la misma composición química, cada una de las configuraciones moleculares corresponde a un material distinto. Uno de estos materiales es la austenita y el otro la martensita.
Descubrimiento de la galaxia más densa conocida
En un espacio tan pequeño a escala cósmica como el que nos separa de Alfa Centauri, la estrella más cercana al Sol, poco más de 4 años-luz, se hace difícil imaginar que pueda haber más estrellas. Sin embargo, en otra región del cosmos, hay un espacio de las mismas dimensiones que acoge nada menos que a unas 10.000 estrellas.
Esta situación, que para nosotros sería del todo anómala, es la densidad normal de población de estrellas dentro de una galaxia a la que se considera ahora como la más densa conocida y que fue recientemente descubierta por un equipo internacional de astrónomos dirigido por Jay Strader, profesor de Física y Astronomía en la Universidad Estatal de Michigan en Estados Unidos.
Esta galaxia ultracompacta, aunque enana, se encuentra en lo que se conoce como el cúmulo de galaxias de Virgo, un grupo de galaxias ubicadas a unos 54 millones de años-luz de nuestra Vía Láctea.
Lo que hace tan especial a esta galaxia, llamada M60-UCD1, es que aproximadamente la mitad de su masa está concentrada en un volumen de espacio con un radio de tan sólo unos 80 años-luz. Esto implica que la densidad de estrellas en esa zona sea unas 15.000 veces mayor que la del vecindario interestelar de la Tierra en la Vía Láctea.
Viajar de una estrella a otra sería mucho más fácil en M60-UCD1 que en nuestra galaxia. Dado que las estrellas están mucho más cerca unas de otras en esta galaxia, se necesitaría sólo una pequeña fracción del tiempo que en nuestro vecindario cósmico tardaríamos en completar un viaje desde nuestro sistema solar a la estrella más próxima después del Sol, Próxima Centauri, situada a unos 4,2 años-luz de la Tierra.
Otro aspecto interesante de esta galaxia es la presencia de una brillante fuente de rayos X en su centro. Una explicación para esto es un agujero negro gigante con una masa de unos 10 millones de veces la de nuestro Sol.
http://noticiasdelaciencia.com/not/8575/descubrimiento_de_la_galaxia_mas_densa_conocida/
Esta situación, que para nosotros sería del todo anómala, es la densidad normal de población de estrellas dentro de una galaxia a la que se considera ahora como la más densa conocida y que fue recientemente descubierta por un equipo internacional de astrónomos dirigido por Jay Strader, profesor de Física y Astronomía en la Universidad Estatal de Michigan en Estados Unidos.
Esta galaxia ultracompacta, aunque enana, se encuentra en lo que se conoce como el cúmulo de galaxias de Virgo, un grupo de galaxias ubicadas a unos 54 millones de años-luz de nuestra Vía Láctea.
Lo que hace tan especial a esta galaxia, llamada M60-UCD1, es que aproximadamente la mitad de su masa está concentrada en un volumen de espacio con un radio de tan sólo unos 80 años-luz. Esto implica que la densidad de estrellas en esa zona sea unas 15.000 veces mayor que la del vecindario interestelar de la Tierra en la Vía Láctea.
Viajar de una estrella a otra sería mucho más fácil en M60-UCD1 que en nuestra galaxia. Dado que las estrellas están mucho más cerca unas de otras en esta galaxia, se necesitaría sólo una pequeña fracción del tiempo que en nuestro vecindario cósmico tardaríamos en completar un viaje desde nuestro sistema solar a la estrella más próxima después del Sol, Próxima Centauri, situada a unos 4,2 años-luz de la Tierra.
Otro aspecto interesante de esta galaxia es la presencia de una brillante fuente de rayos X en su centro. Una explicación para esto es un agujero negro gigante con una masa de unos 10 millones de veces la de nuestro Sol.
http://noticiasdelaciencia.com/not/8575/descubrimiento_de_la_galaxia_mas_densa_conocida/
El cerebro ‘saca la basura’ mientras dormimos
Investigadores de la Universidad de Rochester (EE UU) han liderado un estudio que demuestra la naturaleza reparadora del sueño
Para Nedergaard, “dormimos para limpiar el cerebro; dormir parece ser el resultado de la liquidación activa de los subproductos de la actividad neuronal que se acumulan durante la vigilia".
El nuevo trabajo, publicado en la revista Science, apunta que durante el sueño el cerebro es muy activo en la eliminación de residuos, como la proteína beta-amiloide responsable de la enfermedad de Alzheimer y otros trastornos neurológicos.
El conocido como 'sistema glinfático', que fue descubierto el año pasado por los mismos investigadores, suple el papel del sistema responsable de la eliminación de residuos celulares en el resto del cuerpo –el sistema linfático–, cuya función no se extiende a este órgano.
El proceso del cerebro para limpiar residuos no era conocido hasta ahora por los científicos ya que, al observarse solo en el cerebro vivo, no ha sido posible hasta la llegada de nuevas tecnologías de imagen como la microscopía de dos fotones.
Gracias a esta técnica, los investigadores pudieron observar en ratones –cuyos cerebros son muy similares a los seres humanos– una especie de sistema de tuberías en los vasos sanguíneos del cerebro que permite al líquido cefalorraquídeo ‘lavar’ los residuos e incorporarlos al sistema circulatorio para acabar, finalmente, en el hígado, que elimina de la sangre las sustancias nocivas para el organismo.
Los científicos de Rochester comprobaron que el sistema glinfático era casi diez veces más activo durante el sueño y que, al dormir, el cerebro elimina de forma significativa más beta-amiloide
http://noticiasdelaciencia.com/not/8536/el_cerebro__lsquo_saca_la_basura_rsquo__mientras_dormimos/
Para Nedergaard, “dormimos para limpiar el cerebro; dormir parece ser el resultado de la liquidación activa de los subproductos de la actividad neuronal que se acumulan durante la vigilia".
El nuevo trabajo, publicado en la revista Science, apunta que durante el sueño el cerebro es muy activo en la eliminación de residuos, como la proteína beta-amiloide responsable de la enfermedad de Alzheimer y otros trastornos neurológicos.
El conocido como 'sistema glinfático', que fue descubierto el año pasado por los mismos investigadores, suple el papel del sistema responsable de la eliminación de residuos celulares en el resto del cuerpo –el sistema linfático–, cuya función no se extiende a este órgano.
El proceso del cerebro para limpiar residuos no era conocido hasta ahora por los científicos ya que, al observarse solo en el cerebro vivo, no ha sido posible hasta la llegada de nuevas tecnologías de imagen como la microscopía de dos fotones.
Gracias a esta técnica, los investigadores pudieron observar en ratones –cuyos cerebros son muy similares a los seres humanos– una especie de sistema de tuberías en los vasos sanguíneos del cerebro que permite al líquido cefalorraquídeo ‘lavar’ los residuos e incorporarlos al sistema circulatorio para acabar, finalmente, en el hígado, que elimina de la sangre las sustancias nocivas para el organismo.
Los científicos de Rochester comprobaron que el sistema glinfático era casi diez veces más activo durante el sueño y que, al dormir, el cerebro elimina de forma significativa más beta-amiloide
http://noticiasdelaciencia.com/not/8536/el_cerebro__lsquo_saca_la_basura_rsquo__mientras_dormimos/
lunes, 21 de octubre de 2013
Teoría de la panspermia
El máximo defensor de la panspermia, el sueco Svante Arrhenius, cree que una especie de esporas o bacterias viajan por el espacio y pueden "sembrar" vida si encuentran las condiciones adecuadas. Viajan en fragmentos rocosos y en el polvo estelar, impulsadas por la radiación de las estrellas.
Hace 4.500 millones de años, la Tierra primitiva era bombardeada por restos planetarios del joven Sistema Solar, meteoritos, cometas y asteroides. La lluvia cósmica duró millones de años. Los cometas, meteoritos y el polvo estelar contienen materia orgánica. Las moléculas orgánicas son comunes en las zonas del Sistema Solar exterior, que es de donde provienen los cometas. También en las zonas interestelares. Se formaron al mismo tiempo que el Sistema Solar, y aún hoy viajan por el espacio.
Pero, ¿resistirían unas bacterias las condiciones extremas de un viaje interplanetario? Condiciones extremas de temperatura, radiación cósmica, aceleración, y sobrevivir el tiempo suficiente para llegar a otro planeta. Por no hablar de la entrada en la atmósfera. Los expertos creen que sí.
La vida bacteriana es la más resistente que se conoce. Se han reanimado bacterias que estuvieron bajo el hielo ártico durante decenas de miles de años. Bacterias llevadas a la Luna en 1967 por la Surveyor 3 se reanimaron al traerlas de vuelta tres años más tarde. Y si un meteorito fuera lo suficientemente grande, la elevada temperatura que alcanza al entrar en la atmósfera no afectaría a su núcleo.
La teoría de la panspermia cobró fuerza hace unos años cuando, al analizar el meteorito marciano ALH 84001, aparecieron bacterias fosilizadas de hace millones de años. Aunque no podemos saber con certeza si ya estaban allí cuando impactó contra la Tierra. También en el meteorito Murchison se hallaron muestras de las moléculas precursoras del ADN.
La panspermia tiene dos versiones. Para la panspermia dirigida, la vida se propaga por el universo mediante bacterias muy resistentes que viajan a bordo de cometas. La panspermia molecular cree que lo que viaja por el espacio no son bacterias sino moléculas orgánicas complejas. Al aterrizar en la Tierra se combinaron con el caldo primordial de aminoácidos e iniciaron las reacciones químicas que dieron lugar a la vida. La hipótesis de la panspermia es posible, aunque no necesaria para explicar el origen de la vida sobre la Tierra.
Si la panspermia es correcta, en estos momentos las semillas de la vida continuarían viajando por el espacio y la vida podría estar sembrándose en algún otro lugar del Cosmos.
Hace 4.500 millones de años, la Tierra primitiva era bombardeada por restos planetarios del joven Sistema Solar, meteoritos, cometas y asteroides. La lluvia cósmica duró millones de años. Los cometas, meteoritos y el polvo estelar contienen materia orgánica. Las moléculas orgánicas son comunes en las zonas del Sistema Solar exterior, que es de donde provienen los cometas. También en las zonas interestelares. Se formaron al mismo tiempo que el Sistema Solar, y aún hoy viajan por el espacio.
Pero, ¿resistirían unas bacterias las condiciones extremas de un viaje interplanetario? Condiciones extremas de temperatura, radiación cósmica, aceleración, y sobrevivir el tiempo suficiente para llegar a otro planeta. Por no hablar de la entrada en la atmósfera. Los expertos creen que sí.
La vida bacteriana es la más resistente que se conoce. Se han reanimado bacterias que estuvieron bajo el hielo ártico durante decenas de miles de años. Bacterias llevadas a la Luna en 1967 por la Surveyor 3 se reanimaron al traerlas de vuelta tres años más tarde. Y si un meteorito fuera lo suficientemente grande, la elevada temperatura que alcanza al entrar en la atmósfera no afectaría a su núcleo.
La teoría de la panspermia cobró fuerza hace unos años cuando, al analizar el meteorito marciano ALH 84001, aparecieron bacterias fosilizadas de hace millones de años. Aunque no podemos saber con certeza si ya estaban allí cuando impactó contra la Tierra. También en el meteorito Murchison se hallaron muestras de las moléculas precursoras del ADN.
La panspermia tiene dos versiones. Para la panspermia dirigida, la vida se propaga por el universo mediante bacterias muy resistentes que viajan a bordo de cometas. La panspermia molecular cree que lo que viaja por el espacio no son bacterias sino moléculas orgánicas complejas. Al aterrizar en la Tierra se combinaron con el caldo primordial de aminoácidos e iniciaron las reacciones químicas que dieron lugar a la vida. La hipótesis de la panspermia es posible, aunque no necesaria para explicar el origen de la vida sobre la Tierra.
Si la panspermia es correcta, en estos momentos las semillas de la vida continuarían viajando por el espacio y la vida podría estar sembrándose en algún otro lugar del Cosmos.
martes, 15 de octubre de 2013
Teoría de Oparin-Haldane
Según Oparin, para el origen de la vida fueron determinantes las características de la atmósfera primitiva. En su teoría menciona, que cuando se formó la Tierra, la atmósfera carecía de oxígeno (O2), y contenía
compuestos como el metano (CH4) y el amoniaco (NH3). También apuntó que las condiciones atmosféricas o factores físicos del ambiente, como las altas temperaturas ocasionadas por la actividad volcánica, la insolación y la intensa actividad eléctrica, habrían provocado las reacciones químicas entre las moléculas para producir las primeras moléculas orgánicas complejas.
De una manera independiente, el bioquímico escocés John B. S. Haldane propuso, cuatro años después que Oparin, otra teoría que coincide en varios aspectos con la del investigador ruso, por lo que se le conoce como Teoría de Oparin-Haldane.
Tanto Oparin como Haldane hicieron una reseña de las condiciones que debieron prevalecer en la Tierra primitiva. Esta teoría se conoce también como fisicoquímica, porque ambos consideraron que los factores físicos de la Tierra primitiva provocaron que las moléculas interactuaran entre si, dando lugar a las reacciones químicas que propiciaron la formación de compuestos más complejos. Su teoría se considera materialista, ya que proponen que la evolución química fue el mecanismo que permitió la formación de moléculas orgánicas, constituyentes de los primeros seres vivos.
Oparin también propuso que la formación de estructuras llamadas coacervados, dieron origen a las formas precelulares que antecedieron a los seres vivos.
compuestos como el metano (CH4) y el amoniaco (NH3). También apuntó que las condiciones atmosféricas o factores físicos del ambiente, como las altas temperaturas ocasionadas por la actividad volcánica, la insolación y la intensa actividad eléctrica, habrían provocado las reacciones químicas entre las moléculas para producir las primeras moléculas orgánicas complejas.
De una manera independiente, el bioquímico escocés John B. S. Haldane propuso, cuatro años después que Oparin, otra teoría que coincide en varios aspectos con la del investigador ruso, por lo que se le conoce como Teoría de Oparin-Haldane.
Tanto Oparin como Haldane hicieron una reseña de las condiciones que debieron prevalecer en la Tierra primitiva. Esta teoría se conoce también como fisicoquímica, porque ambos consideraron que los factores físicos de la Tierra primitiva provocaron que las moléculas interactuaran entre si, dando lugar a las reacciones químicas que propiciaron la formación de compuestos más complejos. Su teoría se considera materialista, ya que proponen que la evolución química fue el mecanismo que permitió la formación de moléculas orgánicas, constituyentes de los primeros seres vivos.
Oparin también propuso que la formación de estructuras llamadas coacervados, dieron origen a las formas precelulares que antecedieron a los seres vivos.
Teoría celular
La teoría celular constituye uno de los principios básicos de la biología, cuyo crédito le pertenece a los grandes científicos alemanes Theodor Schwann, Matthias Schleiden y Rudolph Virchow, aunque por supuesto, no hubiese sido posible sin las previas investigaciones del gran Robert Hooke.
Los 4 postulados de la teoría celular
- Absolutamente todos los seres vivos están compuestos por células o por segregaciones de las mismas. Los organismos pueden ser de una sola célula (unicelulares) o de varias (pluricelulares). La célula es la unidad estructural de la materia viva y una célula puede ser suficiente para constituir un organismo.
- Todos los seres vivos se originan a través de las células. Las células no surgen de manera espontánea, sino que proceden de otras anteriores.
- Absolutamente todas las funciones vitales giran en torno a las células o su contacto inmediato. La célula es la unidad fisiológica de la vida. Cada célula es un sistema abierto, que intercambia materia y energía con su medio.
- Las células contienen el material hereditario y también son una unidad genética. Esto permite la transmisión hereditaria de generación a generación.
La teoría de la generación espontánea
Durante la antigua Grecia creían que la vida podía surgir del lodo, de la materia en putrefacción, del agua de mar, del rocío y de la basura, ya que ahí observaron la aparición de gusanos, insectos, cangrejos, pequeños vertebrados, etc. A partir de ello, dedujeron que esto se debía a la interacción de la materia no viva con fuerzas naturales como el calor del sol.
Posteriormente, Aristóteles (384-322 a. C.) la convierte en una teoría idealista. Él propone que la generación espontánea de la vida era el resultado de la interacción de la materia inerte con una fuerza vital o soplo divino que llamó entelequia. El pensamiento de Aristóteles prevaleció por muchos años. Como ejemplo podemos destacar los trabajos de J. B. Van Helmont (1577-1644) que realizó muchos experimentos sobre aspectos tales como el origen de los seres vivos, la alimentación de las plantas, etc.
Para comprobar que esta teoría era incorrecta, se realizaron experimentos por diferentes científicos interesados en echarla abajo. Esta idea sufrió un golpe cuando Francesco Redi (1626-1698) en el siglo XVII, realizó un experimento en el que puso carne en unos recipientes. Unos se sellaban y los otros no, con lo que resultaba que en los recipientes sellados no "aparecían" moscas de la carne y en los abiertos sí. Posteriormente, A. Leeuwenhoek (1632 - 1723), el inventor del microscopio, comunico que había observado organismos microscópicos vivos en el agua de lluvia. Esto llevó a que algunos científicos siguiesen admitiendo la posibilidad de que los microorganismos se originasen por generación espontánea. En 1745, J. T. Needham (1713 - 1781), después de realizar una serie de experimentos, siguió defendiendo la hipótesis de la generación espontánea de los microbios. Más tarde, en 1769, L. Spallanzani (1729 - 1799) repitió el experimento con caldo de carne caliente y observó que en los recipientes cerrados no se generaban microorganismos y en los abiertos sí. No obstante, los argumentos en contra eran que, debido a la falta de aire, no aparecían microbios. Por lo tanto, la controversia entre defensores y detractores de la generación espontánea seguía existiendo.
jueves, 10 de octubre de 2013
Nobel de Química 2013 para tres pioneros en modelizar moléculas y reacciones
Hace años los químicos solían crear sus modelos moleculares utilizando bolas y palos de plástico. Hoy esta tarea se lleva a cabo con ordenadores, un trabajo que se inició en la década de los 70 con el trabajo de los investigadores Martin Karplus, Michael Levitt y Arieh Warshel.
Son los tres galardonados con el Premio Nobel de Química de este año, según acaba de anunciar la La Real Academia Sueca de las Ciencias, quien reconoce su aportación al desarrollo de “modelos multiescala para sistemas químicos complejos”.
"Hemos creado modelos informáticos para saber, a partir de las estructuras de las proteínas, cómo van a funcionar", ha comentado Warshel en directo tras conocer la noticia. El químico destaca que su investigaciones han tenido aplicaciones en el diseño de fármacos, aunque, también “para satisfacer mi curiosidad".
Los tres premiados trabajan en EE UU y tienen doble nacionalidad, la estadounidense y la de su país de origen. Martin Karplus nació en 1930 en Viena (Austria) y se doctoró en 1953 en el California Institute of Technology. Es profesor emérito en la Universidad de Harvard.
El británico Michael Levitt nació en Pretoria (Sudáfrica) y se doctoró en la Universidad de Cambridge. Actualmente es profesor de la Escuela de Medicina de la Universidad de Stanford. Por su parte, Arieh Warshel es de Israel, donde nació en 1940. Está asociado a la University of Southern California, en Los Angeles.
Los premiados sentaron las bases para los avanzados programas informáticos que se usan actualmente para entender y predecir los procesos químicos uniendo la fisica clásica y cuántica. Estos dos ámbitos se han representado con una manzana –la de Newton– y un gato –el de Schrödinger– durante el anuncio del premio.
La ventaja de la física clásica es la facilidad de sus cálculos y la posibilidad de modelizar grandes moléculas. Sin embargo, no ofrece una herramienta para simular las reacciones químicas. Aquí entra en juego la física cuántica, aunque presenta el inconveniente de que sus operaciones requieren una enorme potencia de cálculo y se aplican para pequeñas moléculas.
Karplus, Levitt y Warshel supieron conjugar las ventajas de ambas disciplinas. Así, por ejemplo, para simular cómo un medicamento se acopla a su proteína diana en el cuerpo, se emplean la física cuántica para analizar los átomos concretos que interactúan con el fármaco, pero se simula todo el resto de la proteína con la menos exigente física clásica.
En la actualidad los ordenadores son una herramienta tan importante para los químicos como lo es el tubo de ensayo. Las simulaciones son tan realistas que se puede predecir con exactitud el resultado de los experimentos antes de ejecutarlos.
http://noticiasdelaciencia.com/not/8450/nobel_de_quimica_2013_para_tres_pioneros_en_modelizar_moleculas_y_reacciones/
Son los tres galardonados con el Premio Nobel de Química de este año, según acaba de anunciar la La Real Academia Sueca de las Ciencias, quien reconoce su aportación al desarrollo de “modelos multiescala para sistemas químicos complejos”.
"Hemos creado modelos informáticos para saber, a partir de las estructuras de las proteínas, cómo van a funcionar", ha comentado Warshel en directo tras conocer la noticia. El químico destaca que su investigaciones han tenido aplicaciones en el diseño de fármacos, aunque, también “para satisfacer mi curiosidad".
Los tres premiados trabajan en EE UU y tienen doble nacionalidad, la estadounidense y la de su país de origen. Martin Karplus nació en 1930 en Viena (Austria) y se doctoró en 1953 en el California Institute of Technology. Es profesor emérito en la Universidad de Harvard.
El británico Michael Levitt nació en Pretoria (Sudáfrica) y se doctoró en la Universidad de Cambridge. Actualmente es profesor de la Escuela de Medicina de la Universidad de Stanford. Por su parte, Arieh Warshel es de Israel, donde nació en 1940. Está asociado a la University of Southern California, en Los Angeles.
Los premiados sentaron las bases para los avanzados programas informáticos que se usan actualmente para entender y predecir los procesos químicos uniendo la fisica clásica y cuántica. Estos dos ámbitos se han representado con una manzana –la de Newton– y un gato –el de Schrödinger– durante el anuncio del premio.
La ventaja de la física clásica es la facilidad de sus cálculos y la posibilidad de modelizar grandes moléculas. Sin embargo, no ofrece una herramienta para simular las reacciones químicas. Aquí entra en juego la física cuántica, aunque presenta el inconveniente de que sus operaciones requieren una enorme potencia de cálculo y se aplican para pequeñas moléculas.
Karplus, Levitt y Warshel supieron conjugar las ventajas de ambas disciplinas. Así, por ejemplo, para simular cómo un medicamento se acopla a su proteína diana en el cuerpo, se emplean la física cuántica para analizar los átomos concretos que interactúan con el fármaco, pero se simula todo el resto de la proteína con la menos exigente física clásica.
En la actualidad los ordenadores son una herramienta tan importante para los químicos como lo es el tubo de ensayo. Las simulaciones son tan realistas que se puede predecir con exactitud el resultado de los experimentos antes de ejecutarlos.
http://noticiasdelaciencia.com/not/8450/nobel_de_quimica_2013_para_tres_pioneros_en_modelizar_moleculas_y_reacciones/
Emanaciones de hierro en fumarolas del atlántico
Se ha descubierto un extenso penacho de hierro y otros micronutrientes, de más de mil kilómetros de largo, emanando de fumarolas hidrotermales del fondo marino, concretamente del sector sur de la cadena montañosa submarina conocida como Dorsal del Atlántico Medio.
El hallazgo pone en duda la validez de las estimaciones hechas anteriormente sobre la disponibilidad de hierro en las aguas oceánicas y también contradice algunas suposiciones muy aceptadas hasta hoy por una parte de la comunidad científica, acerca de las fuentes de hierro en los mares del mundo.
Éste y otros estudios van a obligar a la comunidad científica a reevaluar cuánto hierro marítimo realmente proviene de las fumarolas hidrotermales y a aumentar esas estimaciones, lo que tiene implicaciones también no sólo para la ciencia geoquímica del hierro, sino para varias otras ramas científicas.
Su ruta cruzaba sobre la Dorsal del Atlántico Medio, un conjunto de montañas y valles que discurren a lo largo del fondo marino del Océano Atlántico, extendiéndose desde el Océano Ártico hasta el Antártico, donde se observan algunas de las placas tectónicas más grandes de la Tierra separándose entre sí muy lentamente.
A lo largo de esta cadena montañosa submarina, hay fumarolas hidrotermales, fisuras en la corteza terrestre que desprenden fluidos muy calientes, acompañados por gases y otros materiales. Estas fumarolas no han sido estudiadas extensamente pues se ha venido asumiendo que las dorsales de expansión lenta son menos activas que las de expansión rápida y por tanto menos interesantes.
http://noticiasdelaciencia.com/not/8409/asombrosas_emanaciones_de_hierro_en_fumarolas_hidrotermales/
El hallazgo pone en duda la validez de las estimaciones hechas anteriormente sobre la disponibilidad de hierro en las aguas oceánicas y también contradice algunas suposiciones muy aceptadas hasta hoy por una parte de la comunidad científica, acerca de las fuentes de hierro en los mares del mundo.
Éste y otros estudios van a obligar a la comunidad científica a reevaluar cuánto hierro marítimo realmente proviene de las fumarolas hidrotermales y a aumentar esas estimaciones, lo que tiene implicaciones también no sólo para la ciencia geoquímica del hierro, sino para varias otras ramas científicas.
Su ruta cruzaba sobre la Dorsal del Atlántico Medio, un conjunto de montañas y valles que discurren a lo largo del fondo marino del Océano Atlántico, extendiéndose desde el Océano Ártico hasta el Antártico, donde se observan algunas de las placas tectónicas más grandes de la Tierra separándose entre sí muy lentamente.
A lo largo de esta cadena montañosa submarina, hay fumarolas hidrotermales, fisuras en la corteza terrestre que desprenden fluidos muy calientes, acompañados por gases y otros materiales. Estas fumarolas no han sido estudiadas extensamente pues se ha venido asumiendo que las dorsales de expansión lenta son menos activas que las de expansión rápida y por tanto menos interesantes.
http://noticiasdelaciencia.com/not/8409/asombrosas_emanaciones_de_hierro_en_fumarolas_hidrotermales/
Agujero negro que expulsa materia en vez de engullirla
Puede parecer una paradoja, ya que un agujero negro es capaz de engullir mediante su poderoso campo gravitatorio cualquier cosa, incluso la luz, pero a veces una combinación de fuerzas y fenómenos físicos alimentada en buena parte por el propio agujero negro, puede provocar el escape de materia de su vecindario. Ahora se ha visto un llamativo caso de esta clase, en el corazón de nuestra galaxia, la Vía Láctea.
Valiéndose de observaciones realizadas por el Telescopio Espacial Chandra de Rayos X de la NASA, unos astrónomos han dado un paso importante hacia la explicación definitiva de por qué el material alrededor del agujero negro supermasivo en el centro de la Vía Láctea es extraordinariamente tenue en rayos X.
Las nuevas imágenes que el Chandra ha tomado de Sagitario A* que se encuentra a unos 26.000 años-luz de la Tierra y cuya masa es aproximadamente 4 millones de veces mayor que la de nuestro Sol, indican que menos del 1 por ciento del gas inicialmente dentro del alcance gravitacional de Sagitario A* acaba alcanzando el punto de no retorno, la frontera que se conoce como horizonte de eventos. Esta frontera representa la distancia más cercana a la que la materia puede acercarse antes de quedar irremediablemente atrapada en el agujero negro. La mayor parte del gas que inicialmente está dentro del alcance gravitacional de Sagitario A* es expulsada antes de que llegue cerca del horizonte de sucesos y tenga la oportunidad de experimentar los fenómenos que aumentarían su temperatura de manera espectacular y le harían brillar mucho más. Como resultado, las emisiones de rayos X son débiles en vez de potentes.
A juzgar por las últimas observaciones, Sagitario A* tiene bastantes dificultades para atrapar la materia que pulula a su alrededor. El gas en el vecindario de Sagitario A* es muy difuso y muy caliente, por lo que le resulta difícil al agujero negro capturarlo y absorberlo.
http://noticiasdelaciencia.com/not/8433/el_agujero_negro_de_nuestra_galaxia_expulsa_mucha_materia_de_sus_cercanias/
Valiéndose de observaciones realizadas por el Telescopio Espacial Chandra de Rayos X de la NASA, unos astrónomos han dado un paso importante hacia la explicación definitiva de por qué el material alrededor del agujero negro supermasivo en el centro de la Vía Láctea es extraordinariamente tenue en rayos X.
Las nuevas imágenes que el Chandra ha tomado de Sagitario A* que se encuentra a unos 26.000 años-luz de la Tierra y cuya masa es aproximadamente 4 millones de veces mayor que la de nuestro Sol, indican que menos del 1 por ciento del gas inicialmente dentro del alcance gravitacional de Sagitario A* acaba alcanzando el punto de no retorno, la frontera que se conoce como horizonte de eventos. Esta frontera representa la distancia más cercana a la que la materia puede acercarse antes de quedar irremediablemente atrapada en el agujero negro. La mayor parte del gas que inicialmente está dentro del alcance gravitacional de Sagitario A* es expulsada antes de que llegue cerca del horizonte de sucesos y tenga la oportunidad de experimentar los fenómenos que aumentarían su temperatura de manera espectacular y le harían brillar mucho más. Como resultado, las emisiones de rayos X son débiles en vez de potentes.
A juzgar por las últimas observaciones, Sagitario A* tiene bastantes dificultades para atrapar la materia que pulula a su alrededor. El gas en el vecindario de Sagitario A* es muy difuso y muy caliente, por lo que le resulta difícil al agujero negro capturarlo y absorberlo.
http://noticiasdelaciencia.com/not/8433/el_agujero_negro_de_nuestra_galaxia_expulsa_mucha_materia_de_sus_cercanias/
¿En qué nos parecemos a las ballenas azules?
El sistema inmune de la ballena azul del Golfo de México es tan bueno como el de los humanos y otros mamíferos terrestres; la especie es sana y podría resistir una epidemia de bacterias u hongos. Así lo da a conocer el primer estudio en su tipo que se lleva a cabo a nivel mundial por investigadores del Instituto Politécnico Nacional (IPN) de México.
El doctor Jorge Ortega Reyes, titular de la investigación que realizó en la Escuela Nacional de Ciencias Biológicas (ENCB/IPN), explicó que el ADN de los cetáceos lo obtienen de un pedazo de su tejido, mediante una máquina es secuenciado un gen específico, en este caso el DQA con el que puede identificarse la inmunidad de la especie, y se amplifica con el fin de observar su variabilidad.
“Se analizó el tejido de 80 individuos, obtuvimos 33 secuencias, 10 muy diferentes y 23 comunes. Es decir, comparamos –por ejemplo- dos individuos y tienen diferente secuencia, lo que hace que respondan de manera distinta a una enfermedad”.
La investigación demostró que la población de ballena azul en el Golfo de México es muy sana en cuanto al gen DQA, es decir, saludable en cuestión de respuesta inmune. “Encontramos haplotipos –configuración genética del cromosoma- con cambios poco frecuentes, lo que muestra que la población es distinta y sana”.
http://noticiasdelaciencia.com/not/8452/_que_tienen_en_comun_la_ballena_azul_y_el_humano_/
El doctor Jorge Ortega Reyes, titular de la investigación que realizó en la Escuela Nacional de Ciencias Biológicas (ENCB/IPN), explicó que el ADN de los cetáceos lo obtienen de un pedazo de su tejido, mediante una máquina es secuenciado un gen específico, en este caso el DQA con el que puede identificarse la inmunidad de la especie, y se amplifica con el fin de observar su variabilidad.
“Se analizó el tejido de 80 individuos, obtuvimos 33 secuencias, 10 muy diferentes y 23 comunes. Es decir, comparamos –por ejemplo- dos individuos y tienen diferente secuencia, lo que hace que respondan de manera distinta a una enfermedad”.
La investigación demostró que la población de ballena azul en el Golfo de México es muy sana en cuanto al gen DQA, es decir, saludable en cuestión de respuesta inmune. “Encontramos haplotipos –configuración genética del cromosoma- con cambios poco frecuentes, lo que muestra que la población es distinta y sana”.
http://noticiasdelaciencia.com/not/8452/_que_tienen_en_comun_la_ballena_azul_y_el_humano_/
domingo, 6 de octubre de 2013
¡Se acabó el sudar!
Por medio de una tecnología que emplea un sistema de microondas, un grupo de investigadores ha podido reducir y eliminar el exceso de sudor en las axilas hasta en un 80 por ciento. Se trata de un proceso que sugieren aplicarlo en dos ocasiones a las personas que padecen hiperhidrosis, es decir, que las glándulas sudoríparas son hiperactivas y producen 10 veces más de lo que necesita el cuerpo para enfriarse.
Esta tecnología consiste en destruir las células de las glándulas sudoríparas, y ya se aplica en diversas instituciones médicas privadas en México.
El ingeniero Steve Kim, creador del sistema no invasivo, explica: primero se examina el área que va a recibir el tratamiento --debajo del brazo--, después el médico con una planilla determina el tamaño del área a tratar, se pone un “tatuaje” temporal que cumple la función de una marca donde el especialista coloca el aparato y punto por punto trata la zona axilar.
Detalla que cuando se coloca el aparato en un punto específico de la axila, la energía de microondas que está a 12.5 milímetros de profundidad de donde se encuentran las glándulas sudoríparas, lo que hace es absorber de manera fácil el agua de éstas.
Kim detalla que mediante dos sesiones en las que se aplica energía de microondas han podido eliminar entre el 80 y 90 por ciento de las glándulas sudoríparas y así evitar el exceso de sudor.
Esta tecnología consiste en destruir las células de las glándulas sudoríparas, y ya se aplica en diversas instituciones médicas privadas en México.
El ingeniero Steve Kim, creador del sistema no invasivo, explica: primero se examina el área que va a recibir el tratamiento --debajo del brazo--, después el médico con una planilla determina el tamaño del área a tratar, se pone un “tatuaje” temporal que cumple la función de una marca donde el especialista coloca el aparato y punto por punto trata la zona axilar.
Detalla que cuando se coloca el aparato en un punto específico de la axila, la energía de microondas que está a 12.5 milímetros de profundidad de donde se encuentran las glándulas sudoríparas, lo que hace es absorber de manera fácil el agua de éstas.
Kim detalla que mediante dos sesiones en las que se aplica energía de microondas han podido eliminar entre el 80 y 90 por ciento de las glándulas sudoríparas y así evitar el exceso de sudor.
Cabe señalar que la función primaria del sudor es regular la temperatura corporal porque se permite al cuerpo refrescarse, y la segunda función es liberar toxinas.
Steve Kim, tecnólogo de origen estadunidense, indica que la investigación demostró que al eliminar las glándulas sudoríparas no se afecta la salud de la persona.
Steve Kim, tecnólogo de origen estadunidense, indica que la investigación demostró que al eliminar las glándulas sudoríparas no se afecta la salud de la persona.
viernes, 4 de octubre de 2013
Partícula de Dios o bosón de Higgs
La oficina de prensa del CERN- Organización Europea para la Investigación Nuclear, ha anunciado la confirmación experimental sobre la existencia del 'bosón de Higgs' más conocida por el público como "la partícula de Dios". El bosón de Higgs era la última pieza que faltaba localizar para completar el cuadro de partículas elementales incluidas en el modelo estándar de la física de partículas, el modelo que relaciona las interacciones fundamentales entre las partículas elementales que componen toda la materia. Por lo tanto, confirmar o descartar su existencia ha sido una de las tareas fundamentales llevadas a cabo en el famoso "colisionador de Hadrones (LHC)" un anillo acelerador situado a 100 m de profundidad en la frontera entre Francia y Suiza, en las cercanías del aeropuerto de Ginebra.
La noticia fue publicada con gran prudencia por el organismo científico destacando que en dos de sus proyectos científicos se ha localizado una nueva partícula compatible con el "bosón de Higgs", pero remarcando que hacen falta más investigaciones para determinarlo unívocamente. Por lo tanto señalan una neta distinción entre el significado científico de "existencia" y "demostración". Su importancia radica en que más que alcanzar una meta final, comprobar la existencia del bosón de Higgs, se trata del inicio de una nueva etapa que promete muchos desarrollos posteriores.
Los protones y neutrones del núcleo están compuestos por partículas más diminutas llamadas "quarks", unidas por otras partículas llamadas "gluones", responsables de transportar la Fuerza Nuclear Fuerte. Las partículas que transportan la Fuerza Nuclear Débil son las partículas llamadas bosones W y Z, que a diferencia de los fotones tienen masa. Para imaginar dos partículas que interactúan se puede considerar a dos personas que se pasan un balón pesado, que sería la partícula de fuerza. Si el balón es más pesado, el rango de interacción es más corto.
El descubrimiento de las partículas W y Z, mereció un premio Nobel para el CERN en los años 80, pero el mecanismo que da lugar a su masa no había sido identificado anteriormente. Aquí entra el mecanismo de Higgs. Es el modelo más sencillo para dar cuenta de la diferencia de masa entre los fotones (que también son bosones) y los bosones W y Z. Los físicos consideran al bosón de Higgs como la clave para entender la estructura fundamental de la materia debido a que atribuye la masa a todas las demás, y a esta propiedad debió su nombre de "partícula de Dios".
Debuta el nuevo cohete Falcon-9 v1.1
La empresa SpaceX efectuó el 29 de septiembre un nuevo paso adelante en su mejora constante de su cohete Falcon-9, introduciendo ahora una nueva versión llamada v1.1, la cual es capaz de enviar al espacio más peso que el Falcon-9 original.
SpaceX ha logrado las nuevas prestaciones de su cohete mediante el uso de una versión mejorada de los motores Merlin (1D), de mayor empuje, así como a la prolongación de los tanques de propergoles, y a la introducción de un nuevo carenado.
El lanzamiento se llevó a cabo a las 16:00 UTC del 29 de septiembre, desde la base de Vandenberg, y sirvió para enviar al espacio a un total de 7 satélites, entre los cuales la carga principal era el canadiense CASSIOPE.
Patrocinado por la Canadian Space Agency y construido por la empresa MacDonald Dettwiler, CASSIOPE (Cascade SmallSat and Ionospheric Polar Explorer) es un satélite con doble función, Por un lado, demostrará el uso de una nueva plataforma de pequeño tamaño y bajo peso (proporcionada por Magellan/Bristol Aerospace), de una media tonelada, que en este caso transporta un equipo de comunicaciones por banda Ka llamado CASCADE. Por otro, su carga incluye un sistema de sensores ePOP, dedicado al estudio de la ionosfera polar.
http://noticiasdelaciencia.com/not/8363/debuta_el_nuevo_cohete_falcon_9_v1_1/
SpaceX ha logrado las nuevas prestaciones de su cohete mediante el uso de una versión mejorada de los motores Merlin (1D), de mayor empuje, así como a la prolongación de los tanques de propergoles, y a la introducción de un nuevo carenado.
El lanzamiento se llevó a cabo a las 16:00 UTC del 29 de septiembre, desde la base de Vandenberg, y sirvió para enviar al espacio a un total de 7 satélites, entre los cuales la carga principal era el canadiense CASSIOPE.
Patrocinado por la Canadian Space Agency y construido por la empresa MacDonald Dettwiler, CASSIOPE (Cascade SmallSat and Ionospheric Polar Explorer) es un satélite con doble función, Por un lado, demostrará el uso de una nueva plataforma de pequeño tamaño y bajo peso (proporcionada por Magellan/Bristol Aerospace), de una media tonelada, que en este caso transporta un equipo de comunicaciones por banda Ka llamado CASCADE. Por otro, su carga incluye un sistema de sensores ePOP, dedicado al estudio de la ionosfera polar.
http://noticiasdelaciencia.com/not/8363/debuta_el_nuevo_cohete_falcon_9_v1_1/
Importante avance hacia la regeneración de neuronas
Las neuronas son las células del sistema nervioso encargadas de recibir y emitir señales que permiten decodificar información y responder con la función orgánica adecuada, ya sea a nivel nervioso, muscular o glandular. Se comunican entre sí a través de impulsos nerviosos que se transmiten desde una neurona, a lo largo de unas extensiones llamadas axones, y que son captados por las prolongaciones, denominadas dendritas, de las otras.
El proceso de conexiones inter-neuronales se conoce como sinapsis. Este ‘cableado’ puede dañarse por diversos accidentes o enfermedades y si el deterioro se localiza en el sistema nervioso central puede resultar, por ejemplo, en parálisis o ceguera.
Si bien las neuronas en su etapa de desarrollo son capaces de generar todos sus componentes, cuando son adultas las lesiones en los axones pueden ser permanentes.
Este es un problema muy serio en medicina y en torno al cual gira el tema de estudio del grupo que dirige Santiago Quiroga
La regeneración de estas extensiones es indispensable para restablecer el funcionamiento normal del sistema nervioso, aunque conlleva numerosas dificultades. El mecanismo descripto por el grupo funciona a través de una enzima llamada PI3K, que activa diferentes vías de señalización dentro de la célula y tiene como resultado el crecimiento de un axón. Ese proceso está ampliamente estudiado durante el desarrollo de las neuronas cuando se desarrollan los axones, pero es la primera vez que se demuestra que puede colaborar en la regeneración de estas prolongaciones en células adultas.
http://noticiasdelaciencia.com/not/8336/importante_avance_hacia_la_regeneracion_de_neuronas/
El proceso de conexiones inter-neuronales se conoce como sinapsis. Este ‘cableado’ puede dañarse por diversos accidentes o enfermedades y si el deterioro se localiza en el sistema nervioso central puede resultar, por ejemplo, en parálisis o ceguera.
Si bien las neuronas en su etapa de desarrollo son capaces de generar todos sus componentes, cuando son adultas las lesiones en los axones pueden ser permanentes.
Este es un problema muy serio en medicina y en torno al cual gira el tema de estudio del grupo que dirige Santiago Quiroga
La regeneración de estas extensiones es indispensable para restablecer el funcionamiento normal del sistema nervioso, aunque conlleva numerosas dificultades. El mecanismo descripto por el grupo funciona a través de una enzima llamada PI3K, que activa diferentes vías de señalización dentro de la célula y tiene como resultado el crecimiento de un axón. Ese proceso está ampliamente estudiado durante el desarrollo de las neuronas cuando se desarrollan los axones, pero es la primera vez que se demuestra que puede colaborar en la regeneración de estas prolongaciones en células adultas.
http://noticiasdelaciencia.com/not/8336/importante_avance_hacia_la_regeneracion_de_neuronas/
El lenguaje y la fabricación de herramientas surgieron al mismo tiempo
Vestigios evolutivos en el cerebro humano revelan que el lenguaje y la fabricación de herramientas surgieron en una misma época de la historia de la especie humana.
La forma en que ha ido evolucionando el cerebro humano puede dar pistas sobre cuáles de las habilidades que nos definen como humanos emergieron primero entre nuestros antepasados. Una investigación efectuada por expertos de la Universidad de Liverpool en el Reino Unido ha revelado la existencia de llamativas correlaciones de actividad cerebral entre el lenguaje y la fabricación de herramientas. Esto sugiere que ambas actividades dependen de las mismas zonas del cerebro y encaja con la teoría de que el uso de herramientas y el lenguaje coevolucionaron y compartieron unas mismas redes neuronales de procesamiento en el cerebro.
El equipo de Georg Meyer examinó la actividad cerebral de diez personas expertas en trabajar sílex para hacer herramientas de piedra, mientras realizaban una tarea de esa clase y mientras se las sometía a un test estándar de lenguaje.
Los investigadores midieron la actividad del flujo de sangre en el cerebro de los participantes cuando realizaban ambas tareas. Las mediciones se hicieron utilizando una técnica que comúnmente se emplea en el ámbito médico para evaluar las funciones del lenguaje después de que una persona haya sufrido una lesión cerebral o antes de una cirugía cerebral. Con esta técnica se percibieron las citadas correlaciones entre ambas clases de actividad mental.
http://noticiasdelaciencia.com/not/8393/el_lenguaje_y_la_fabricacion_de_herramientas_surgieron_al_mismo_tiempo/
La forma en que ha ido evolucionando el cerebro humano puede dar pistas sobre cuáles de las habilidades que nos definen como humanos emergieron primero entre nuestros antepasados. Una investigación efectuada por expertos de la Universidad de Liverpool en el Reino Unido ha revelado la existencia de llamativas correlaciones de actividad cerebral entre el lenguaje y la fabricación de herramientas. Esto sugiere que ambas actividades dependen de las mismas zonas del cerebro y encaja con la teoría de que el uso de herramientas y el lenguaje coevolucionaron y compartieron unas mismas redes neuronales de procesamiento en el cerebro.
El equipo de Georg Meyer examinó la actividad cerebral de diez personas expertas en trabajar sílex para hacer herramientas de piedra, mientras realizaban una tarea de esa clase y mientras se las sometía a un test estándar de lenguaje.
Los investigadores midieron la actividad del flujo de sangre en el cerebro de los participantes cuando realizaban ambas tareas. Las mediciones se hicieron utilizando una técnica que comúnmente se emplea en el ámbito médico para evaluar las funciones del lenguaje después de que una persona haya sufrido una lesión cerebral o antes de una cirugía cerebral. Con esta técnica se percibieron las citadas correlaciones entre ambas clases de actividad mental.
http://noticiasdelaciencia.com/not/8393/el_lenguaje_y_la_fabricacion_de_herramientas_surgieron_al_mismo_tiempo/
Suscribirse a:
Entradas (Atom)