Transcript

Boletín El Hijo de El Cronopio

Museo de Historia de la Ciencia de San Luis Potosí Sociedad Científica Francisco Javier Estrada

No. 968 1 de marzo de 2013 No. Acumulado de la serie: 1449

Boletín de información científica y

tecnológica del Museo de Historia de la Ciencia de San Luis Potosí, Casa de la

Ciencia y el Juego

Publicación trisemanal

Edición y textos Fís. José Refugio Martínez Mendoza

Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. (http://www.amazings.com/ciencia). La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá

enviarse al editor. El contenido será responsabilidad del autor

correos electrónicos: [email protected]

Consultas del Boletín y números anteriores

http://galia.fc.uaslp.mx/museo Síguenos en Facebook

www.facebook.com/SEstradaSLP

-----------------------------

------------------------------------------------

20 Años Cronopio

Radio

175 Aniversario del Nacimiento de Francisco Javier Estrada

11 de febrero de 1838

Cronopio Dentiacutus

145 Años

Nacimiento

de

Valentín Gama

21 de enero

1868

El Hijo de El Cronopio No. 968/1449

30076

Contenido/

Agencias/ Método con georradar ayuda a preservar el patrimonio cultural La dopamina ayuda a modular la ansiedad, según estudio de la UNAM Felicita Meade a mexicanos en el Gran Colisionador de Hadrones Relacionan falta de sueño con obesidad y deterioro cognitivo Desmienten relación entre rasgos faciales y conducta agresiva Vislumbran nuevo enfoque terapéutico contra tumor infantil común Desarrollan científicos mexicanos técnica para detectar enfermedades en fetos Logran científicos interconexión cerebral entre dos ratas Astrónomos en Chile observan por primera vez cómo se formaría un planeta Accidente de la central Fukushima aumenta riesgos de cáncer en áreas más contaminadas: OMS

Noticias de la Ciencia y la Tecnología Gran Enciclopedia de la Astronáutica (36): Alcántara Los intereses económicos de una minoría prevalecen sobre la sostenibilidad energética de la humanidad Nuevos detalles sobre la muerte del rey Ricardo III El verdadero papel de las montañas ayudando a retirar CO2 de la atmósfera Revisar la actividad en Facebook de una persona para evaluar su salud mental LEDs más eficientes gracias a las luciérnagas Buscando explicaciones para el enorme éxito del manga y el anime Los palinomorfos proveen claves para explorar depósitos de hidrocarburos Cómo optimizar la conexión entre redes El grafeno convierte la luz en electricidad ¿Vale la pena estudiar en la universidad?

El Hijo de El Cronopio No. 968/1449

30077

Agencias/

Aplican innovadora técnica para restaurar óleos de los siglos XV y XVI

Método con georradar ayuda a preservar el patrimonio cultural Ahora es posible ubicar diminutos túneles que durante siglos han hecho pequeños devoradores de madera en los cuadros, explican

“México es pionero en el uso de esa tecnología”

Restauradores junto al lienzo Santa Catalina y Santa Magdalena. Foto María Luisa Severiano

Mónica Mateos-Vega/ La Jornada

A simple vista, el óleo de finales del siglo XV titulado Santa Catalina y Santa Magdalena luce en buenas condiciones. Sin embargo, por dentro está carcomido por insectos y en cualquier momento se puede romper.

El Hijo de El Cronopio No. 968/1449

30078

Con ayuda de uno de los georradares del Instituto Nacional de Antropología e Historia (INAH), los restauradores pueden ahora determinar la ubicación exacta de los diminutos túneles que han hecho durante siglos pequeños devoradores de madera y así proponer una intervención más precisa para salvar el cuadro.

El geólogo José Ortega con el carrito electrónico del Instituto Nacional de Antropología e Historia, donde se monta el georradar de alta densidad que mide velocidad y distancia para realizar sondeos. Foto María Luisa Severiano

Se trata de una técnica innovadora que apenas se comienza a utilizar en el Centro Nacional de Conservación y Registro del Patrimonio Artístico Mueble (Cencropam) del Instituto Nacional de Bellas Artes (INBA) para devolver su esplendor a diversas pinturas.

Trabajos en cuatro obras

Silvia Hernández y José Luis Ortiz Castro son los restauradores encargados de un par de obras del acervo del Museo Nacional de San Carlos y otras dos del Museo Nacional de Arte (Munal). Cuentan con la colaboración del doctor en geología José Ortega Ramírez, investigador responsable del laboratorio de geofísica del INAH.

La finalidad de ambas instituciones es una: aplicar los métodos científicos más modernos para salvar el patrimonio nacional. Si bien desde 2002 el laboratorio encargado de los georradares fue creado para dar apoyo a los trabajos arqueológicos, ahora comienza su participación en estudios que se antojan de filigrana.

El Hijo de El Cronopio No. 968/1449

30079

Actualmente el laboratorio de geofísica del INAH cuenta con antenas de 100, 200, 300, 400, 900 y mil 500 Mhz, “así como una de altísima definición que es una maravilla, quizá la Universidad Nacional Autónoma de México tenga una similar, pero probablemente sólo el INAH cuenta con ese aparato en todo el país, es lo más avanzado en tecnología electromagnética de alta frecuencia; incluso, para su operación en Estados Unidos, se requiere de un permiso especial porque son ondas que están en el rango de las frecuencias militares”, explica Ortega en entrevista con La Jornada.

El investigador detalla que con toda esa variedad de instrumentos, el instituto puede hacer sondeos arqueológicos a diferente profundidad “para localizar lo que los arqueólogos llaman subestructuras, necesitamos bajas frecuencias, con la antena de 100 Mhz podemos hacer sondeos, fácilmente, de unos 10 metros de profundidad, cubrimos un espectro bastante grande, pero para que podamos identificar objetos con bajas frecuencias éstos deben ser grandes, porque la amplitud de las ondas lo es”.

El especialista aclara que el georradar no proporciona una imagen, como si se tratara de un ultrasonido o de rayos X, “se obtienen otro tipo de datos que se deben procesar, pero los resultados son muy buenos en cuanto a la detección de lo que llamamos anomalías; pueden ser muros, cavidades grandes, alineamientos de rocas, fracturas, etcétera.

“Otra de las cosas innovadoras que hacemos en el INAH es que para estos estudios trabajamos con programas de computación especializados que generan imágenes en tercera dimensión.”

Rápido y preciso

México es pionero en la aplicación del georradar para trabajos de restauración de pinturas sobre madera, con la ventaja de que se trata de un método no invasivo, continúa Ortega, “lo único que cambia es la escala de la superficie que se va a analizar. El georradar es maravilloso, porque es rápido y preciso, pero sus deficiencias son que si en el subsuelo hay sales o humedad no hay penetración de las ondas, o es más lento el paso de éstas, aunque se pueden hacer trabajos con el georradar en ríos para determinar si hay objetos en el lecho, siempre y cuando el agua sea dulce, que no tenga sales, es decir, que no sea conductiva”.

La relación entre el Cencropam y el laboratorio de geofísica del INAH se dio a raíz de una conferencia que Ortega Ramírez impartió en la Escuela Nacional de Conservación, Restauración y Museografía Manuel del Castillo Negrete del instituto.

Una de las alumnas, especialista en insectos xilófagos, preguntó si el método del georradar podría funcionar en madera, “al principio tuve mis dudas, pues era una aplicación nueva. Pero hace un año concretamos el proyecto de colaboración.

“Empezamos a trabajar con el cuadro Santa Catalina y Santa Magdalena, al cual ya lo habían analizado con rayos X. La madera tiene un espesor de 3.5 centímetros, carcomida por dos tipos de insectos, uno que come la madera blanda, el cual hace pequeños túneles, y otro que se come todo haciendo enormes galerías.

El Hijo de El Cronopio No. 968/1449

30080

“Trabajamos con el georradar de alta densidad, es una antena muy pequeña que va montada en un carrito electrónico que mide velocidad y distancia, lo cual permite un sondeo más preciso.

Otro aspecto de la pintura Santa Catalina y Santa Magdalena. Foto María Luisa Severiano

“Como el georradar debe tener contacto con la superficie, aquí entra la parte bonita de la restauración, pues se debe cubrir la obra para que al pasar las ruedas del carrito no dañemos en ningún momento la pintura.

“Con el mapa de distribución de las oquedades que obtenemos, los restauradores ya pueden ir directamente a las zonas más afectadas para reforzarlas, en vez de usar métodos invasivos o aplicar algunas sustancias en todo el cuadro. Con coordenadas muy precisas y finas les mostramos dónde está el daño que buscan.”

Sigue la resonancia magnética

“Esta tecnología –prosigue José Ortega Ramírez– nos abre campos de aplicación inmensos, sobre todo para la preservación del patrimonio cultural, en este caso los retablos, pues en este momento ya puedo asegurar que sí podemos detectar las cavidades dentro de la madera, o para analizar el soporte de algunos murales, no en pintura de caballete, ahí se tendría que usar resonancia magnética, porque la capa pictórica es de micras de espesor y el georradar, aunque sea de alta frecuencia, no lo capta, y en ese caso lo que se busca es conocer si hay

El Hijo de El Cronopio No. 968/1449

30081

dos capas de pintura o si ésta tiene alteraciones por humedad. Esta tecnología aún no la tenemos en el INAH, sería el siguiente paso”, concluye.

Otros cuadros en los que actualmente se utiliza el georradar para ayudar en su restauración son San Simón, óleo de autor anónimo (realizado entre los siglos XV y XVI), del acervo del Museo Nacional de San Carlos; así como San Juan Bautista, atribuido a Baltasar de Echave Ori (1540-¿1620?), y El ángel de la guarda, de Luis Juárez (1635-1665, discípulo de Echave), los dos de la colección del Museo Nacional de Arte.

_______________________________________________________________

Cerca de 14% de la población mundial ha padecido un trastorno asociado a esa emoción

La dopamina ayuda a modular la ansiedad, según estudio de la UNAM Las investigaciones realizadas en el Instituto de Fisiología Celular han aportado información sobre las bases biológicas y químicas, explica Miguel Pérez de la Mora, también miembro de la AMC

La Jornada

A pesar de que alrededor de 14 por ciento de la población del planeta ha padecido algún trastorno de ansiedad, de acuerdo con la Organización Mundial de la Salud (OMS), aún se sabe poco acerca de las causas que desencadenan el padecimiento, incluso sobre cómo se genera en condiciones normales. Sin embargo, mediante la experimentación con animales de laboratorio, ya se tienen varias pistas sobre las bases biológicas y químicas de esta emoción innata.

A este campo ha contribuido un grupo de investigación del Instituto de Fisiología Celular de la Universidad Nacional Autónoma de México (UNAM), dirigido por el doctor Miguel Pérez de la Mora, quien comenzó a trabajar formalmente sobre esta emoción en 2003. Sus estudios han ayudado a entender la manera en que la amígdala (estructura cerebral llamada así por su parecido a una almendra) participa en los mecanismos químicos que modulan esta emoción.

Pérez de la Mora, miembro de la Academia Mexicana de Ciencias (AMC), explicó que luego de atravesar una serie de estructuras cerebrales, la información relevante del ambiente llega a una parte específica de la amígdala, en la que, después de un procesamiento local, pasa a una región vecina que desarrolla la respuesta, es decir, decide si habrá o no ansiedad.

Como ocurre en cualquier parte del sistema nervioso, las estructuras que comunican con la amígdala lo hacen mediante neurotransmisores: sustancias que se liberan desde una neurona y llegan a los receptores de la neurona vecina, en la que pueden activar o suprimir la

El Hijo de El Cronopio No. 968/1449

30082

actividad de esa célula. El efecto de un neurotransmisor y, por tanto, de la propagación de la información, depende de los receptores involucrados y del arreglo de los circuitos.

“Por ejemplo, se sabe que entre la parte de la amígdala que recibe la información relevante del entorno y la que envía la respuesta ansiogénica, hay grupos de neuronas inhibitorias, llamadas islas intercaladas paracapsulares, que liberan al neurotransmisor conocido como Gaba y que forman una especie de interfase”, explicó el investigador.

El principal efecto de estas células es controlar el paso de los impulsos nerviosos desde la estación de “entrada” y la de “salida” de la amígdala y modular la respuesta ansiosa.

Entre los neurotransmisores que actúan sobre la amígdala también está la dopamina, para la cual hay dos tipos de receptores: D1 y D2.

El grupo de investigación liderado por Pérez de la Mora ha rastreado en qué regiones de la amígdala se encuentran estos receptores y cuál es el resultado de su activación. “Nuestra contribución ha sido determinar que la dopamina desempeña un papel importante en la modulación de la ansiedad dentro de la amígdala”, dijo el también director de la revista Ciencia, de la AMC.

Respuestas

El grupo ha encontrado que los receptores D1 se ubican en las islas intercaladas paracapsulares, mientras los D2 se concentran en la parte de la amígdala que desarrolla la respuesta ansiosa. Más aún, los estudios en los que se administran distintas sustancias en el cerebro de ratas de manera controlada y no dolorosa, “nos han llevado a concluir que los mecanismos en los que participa la dopamina son diferentes para modular las respuestas de ansiedad condicionada y no condicionada”, afirmó.

La ansiedad condicionada se estudia mediante modelos de experimentación en laboratorio, en los cuales el animal en estudio aprende a reconocer la asociación entre un estímulo inicialmente inofensivo con uno que provoca daño, como un choque eléctrico.

Los modelos que estudian la ansiedad no condicionada se enfocan al miedo innato de los animales ante ciertas situaciones, como el que se tiene a las alturas.

Así, el grupo dirigido por Pérez de la Mora ha encontrado que si los receptores D1 se bloquean, y por tanto se impide actuar a la dopamina, los animales presentan efectos ansiolíticos, es decir, se tranquilizan; y si por el contrario se da una sustancia que potencia los efectos de ese neurotransmisor, entonces los animales se alteran. Esto sucede tanto para los modelos de ansiedad condicionada como no condicionada.

En el receptor D2 la situación es ligeramente diferente. Si se trabaja con la ansiedad condicionada, la dopamina también produce ansiedad en estos receptores. Pero si se trata de la ansiedad innata, entonces el efecto de la dopamina sobre los receptores D2 es ansiolítico, pues no hay ansiedad.

_______________________________________________________________

El Hijo de El Cronopio No. 968/1449

30083

Felicita Meade a mexicanos en el Gran Colisionador de Hadrones

NOTIMEX

Ginebra. El secretario de Relaciones Exteriores, José Antonio Meade, hizo hoy un reconocimiento al esfuerzo y el gran talento de la comunidad científica mexicana que participa en las investigaciones del Gran Colisionador de Hadrones (LCH, por sus siglas en inglés). Visitó este martes el Centro Europeo de Investigación Nuclear (CERN, por sus siglas en francés), en el que saludó a los científicos mexicanos que participan en las investigaciones del LCH. Meade fue recibido por el director general del CERN, Rolf Heuer, y por el director de Investigación y Computación Científica, Sergio Bertolucci. Durante el recorrido, los mexicanos Gerardo Herrera Corral, líder de uno de los equipos del experimento Alice, y Arturo Fernández Téllez, quien colaborara con él, explicaron a Meade el funcionamiento del LCH. En el CERN trabajan más de 70 científicos mexicanos provenientes de varias instituciones, como la Universidad Nacional Autónoma de México, el Instituto Politécnico Nacional y la Universidad Autónoma de Puebla. Conocido como la máquina del big bang, en 2012 los responsables de los experimentos Atlas y CMS anunciaron el hallazgo del bosón de Higgs.

_______________________________________________________________

Relacionan falta de sueño con obesidad y deterioro cognitivo

PL

Londres. La falta de sueño podría estar relacionada con una serie de enfermedades como la obesidad, patologías del corazón o el deterioro cognitivo, refiere una investigación publicada en The Proceedings, de la Academia Nacional de Ciencias de Estados Unidos. El estudio sugiere que una semana de insomnio puede alterar la expresión de cientos de los genes implicados con la inflamación, la inmunidad y la respuesta de las células al estrés. Científicos de la Universidad de Surrey analizaron los mecanismos moleculares que relacionan el sueño con la salud en un grupo de 26 voluntarios. Según el artículo, unas personas durmieron menos de seis horas y otras más de 10 horas durante todas las noches de una semana, y después todas permanecieron despiertas por más de 40 horas. Derk-Jan Dijk, líder de la investigación, explicó que mientras transcurría la última fase del ensayo, a los voluntarios se les extraía sangre para observar los efectos de la falta de sueño sobre la expresión de genes en las muestras.

_______________________________________________________________

El Hijo de El Cronopio No. 968/1449

30084

El contexto social y cultural, mucho más determinante, señalan expertos latinoamericanos

Desmienten relación entre rasgos faciales y conducta agresiva Equipo liderado por el argentino Rolando Gozález-José y el mexicano Jorge Gómez-Valdés descarta sustento científico a hipótesis estadunidense que revive la frenolgía

El índice facial, conocido como fWHR, puede llevar a conclusiones erróneas, afirman investigadores latinoamericanos en PLoS One. La imagen es una infografía que muestra las zonas de la cara que son medidas y está realizada con fotos antiguas de presos de Lecumberri. La autora es Natalia Rentería Nieto

La Jornada

El debate sobre la frenología no ha muerto. Investigadores estadunidenses sostienen que hay una relación entre los rasgos físicos y las conductas poco éticas, pero sus resultados son rechazados por científicos latinoamericanos.

Las consecuencias de aplicar esos falsos indicadores faciales podría llevar a una suerte de estigma negativo en aspectos que van desde una entrevista laboral y el ingreso a la universidad hasta un juicio por un tribunal.

En el siglo XVIII la frenología postulaba que se podían determinar la personalidad, el carácter y las tendencias criminales de un individuo basándose en los rasgos físicos, como las dimensiones y forma del cráneo, así como las facciones.

El Hijo de El Cronopio No. 968/1449

30085

Si bien con el paso del tiempo esas nociones se creían superadas, un trabajo de Michael P. Haselhuhn y Elaine Wong, publicado en Proceedings de la Sociedad Real en 2011, sugiere que algunas de esas concepciones de alguna manera siguen vivas.

Los autores del libro sostienen que las personas de cara ancha en relación con la altura del rostro tienden a presentar comportamientos más agresivos, y proponen también que ese rasgo facial dio al sexo masculino una ventaja reproductiva, pero ¿realmente es un fenotipo moldeado por una fuerza evolutiva?

Los sicólogos Michael P. Haselhuhn, de la Universidad de Pensilvania, y Elaine Wong, de la Universidad de Milwakee, basaron su investigación en estudiantes y jugadores de Hockey, a los que se les aplicó un cuestionario para saber con qué frecuencia hacían trampa, y después se les midió la relación entre la altura y el ancho de la cara a partir del índice facial conocido como fWHR; concluyeron que los hombres de cara ancha tienden a tener comportamientos poco éticos.

“Identificamos el fundamento sicológico de la relación entre el métrico facial y la acción poco ética: la experiencia sicológica del poder. Los hombres de mayor fWHR facial se sentían más poderosos, y este sentido de poder afectó su comportamiento ético.” Sin embargo, esas variables, según Jorge Gómez-Valdés, investigador de la Universidad Nacional Autónoma de México (UNAM), son correlaciones espurias, lo que en estadística significa una situación en la que se cree que dos o más variables tienen relación, pero en realidad no es así, sólo son relaciones casuales.

El propósito de la investigación coordinada por Rolando GonzáleZ-José, del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) en Argentina, y Jorge Gómez-Valdés, del Laboratorio de Antropología Física de la Facultad de Medicina de la UNAM, es confrontar esa hipótesis bajo un fundamento evolutivo; para ello se valieron de cinco mil cráneos reunidos de gente “peligrosa”, como cazadores de cabezas del Amazonas, reos de Lecumberri –organizados según el crimen que cometieron– y fueron comparados con los de gente que no cometió delitos; estos cráneos son muestras clasificadas de 94 poblaciones de todo el mundo, utilizadas para corroborar si hay relación entre la morfología de los huesos y la conducta cultural violenta.

En un artículo publicado en 2013 por los científicos latinoamericanos en la revista PLoS One, los análisis se hicieron con distintas bases de datos, entre ellas de medidas obtenidas directamente de la cara y otras mediante fotografías, en las que se midieron las distancias, recreándolas bidimensional y tridimensionalmente.

La anchura de la cara se obtiene mediante el registro de la distancia entre dos puntos en la cabeza conocidos como zigio izquierdo y derecho. Éstos se encuentran en los bordes laterales, cerca de los oídos. La altura de la cara está dada por la distancia entre el nasión y prostión. El nasión está en el centro de la cara, entre las cejas, justo por encima de la nariz. El prostión se encuentra encima del labio superior.

Después de un año de trabajo, se desmintió que hubiera una correlación entre el índice facial y la conducta agresiva. “Lo que sugiere nuestro estudio es que el contexto social y cultural

El Hijo de El Cronopio No. 968/1449

30086

es mucho más determinante para explicar un comportamiento que lo genético”, dijo González-José.

Rechaza ventaja reproductiva de los hombres

La investigación también desmiente la segunda hipótesis de los investigadores estadunidenses, sobre la ventaja reproductiva que tienen los hombres de rasgos agresivos o dominantes, porque cuando la selección sexual opera las características físicas deben ser altamente dimórficas, es decir, las diferencias físicas entre hombres y mujeres deben ser muy significativas, como la cola de los pavorreales machos, que es muy grande, mientras la de las hembras es todo lo contrario.

Los resultados obtenidos por el grupo de investigadores internacionales muestran que el índice facial es una de las medidas cefálicas con menores diferencias entre hombres y mujeres.

También se pudo corroborar que no existe evidencia que permita verificar que los hombres de caras más anchas se han reproducido de manera más exitosa, pues no existe correlación entre la aptitud –una medida para ver el éxito de reproducción de cada individuo– y el índice facial.

Finalmente, las consecuencias de “aplicar esos falsos indicadores faciales podría llevar a una suerte de estigma negativo en cuestiones que van desde una entrevista laboral o el ingreso a la universidad hasta un juicio por tribunal”, finalizó Claiton Bau, del departamento de genética de la Universidad Federal de Río Grande do Sul, Brasil.

_______________________________________________________________

Vislumbran nuevo enfoque terapéutico contra tumor infantil común Si bien dicha terapia mejora la supervivencia de los pacientes, puede tener efectos secundarios a largo plazo en el desarrollo conductual y neurológico de los enfermos más jóvenes.

PL

Washington. La identificación de un mecanismo molecular clave para el desarrollo del meduloblastoma abre hoy otro enfoque para tratar dicho tumor cerebral, el más común entre los niños.

La revista especializada en biología molecular Cell divulgó que el bloqueo del factor de crecimiento placentario PlGF condujo a la regresión de los cuatro subtipos del meduloblastoma en ratones.

El Hijo de El Cronopio No. 968/1449

30087

Los resultados del equipo del Hospital General de Massachussets, Estados Unidos, liderado por Rakesh Jain, proponen usar anticuerpos contra el PlGF como nuevo enfoque terapéutico para este cáncer pediátrico.

Los meduloblastomas representan la quinta parte de los tumores cerebrales pediátricos, es 10 veces más común en niños que en adultos y requiere tratamientos agresivos, con cirugía, quimioterapia y radioterapia.

Si bien dicha terapia mejora la supervivencia de los pacientes, puede tener efectos secundarios a largo plazo en el desarrollo conductual y neurológico de los enfermos más jóvenes.

De ahí la importancia que los científicos conceden a la búsqueda de métodos menos perjudiciales, y que motivó el inicio de experimentos para bloquear la angiogénesis, formación de vasos sanguíneos a partir de otros existentes, en tumores adultos.

Jain y su colega Steele Lei Xu descubrieron que el tratamiento con varios anticuerpos contra el PlGF redujo el crecimiento tumoral y su diseminación, y aumentó la supervivencia de los animales, aún sin inhibir la angiogénesis.

"Nuestro descubrimiento apoya la excitante posibilidad de que los bloqueos del PlGF en el meduloblastoma podría ser más eficaz y con menos efectos secundarios para los pacientes", acotaron.

_______________________________________________________________

Desarrollan científicos mexicanos técnica para detectar enfermedades en fetos El Diagnóstico Genético de Células Fetales es una técnica de biología molecular que permite tener un panorama de los 46 cromosomas del genoma humano, y así detectar a tiempo las aneuploidías (cambio en el número cromosómico) que se van a generar.

AFP

México, DF. Científicos mexicanos desarrollaron una prueba molecular que permite conocer desde la octava semana de embarazo la existencia de síndromes como el de Down, de Turner y de Klinefelter, informó el jueves el Centro de Investigación y de Estudios Avanzados de México.

"El análisis genómico comparativo como técnica se utiliza desde hace varios años en países de primer mundo para analizar genomas bajo diversas circunstancias, pero hacerlo para

El Hijo de El Cronopio No. 968/1449

30088

diagnosticar al bebé sólo se hace en el Cinvestav. Es la primera institución en el mundo que lo hace", indicó la institución en un comunicado.

El Diagnóstico Genético de Células Fetales es una técnica de biología molecular que permite tener un panorama de los 46 cromosomas del genoma humano, y así detectar a tiempo las aneuploidías (cambio en el número cromosómico) que se van a generar, desde riesgo de aborto hasta malformaciones congénitas, prosiguió el comunicado

La prueba tiene una certeza de más de 95%, además en comparación con otras pruebas como la amniocentesis (prueba prenatal), que también verifica el material genético, ésta es más completa, sostuvo el centro.

Con la técnica, los científicos pueden analizar todos los cromosomas, incluyendo los sexuales, por lo que se puede determinar el sexo del bebé desde la octava semana y no esperar hasta la decimosegunda como ocurre con el ultrasonido. Además, no es invasiva, ni riesgosa, es menos costosa y se puede aplicar a cualquier mujer embarazada.

Esta prueba se recomienda a mujeres embarazadas mayores de 35 años, o que hayan sido expuestas a algún tóxico o medicamento agresivo, a radioactividad, que hayan sufrido dos o más abortos previos, o que hayan tenido un hijo o familiares con alteraciones genéticas.

"El objetivo es dar la información precisa a tiempo para que los padres, junto con el experto en consejo genético tomen decisiones que en muchos casos mejoran la calidad de vida de ese bebé", apuntó el Cinvestav.

_______________________________________________________________

Logran científicos interconexión cerebral entre dos ratas Situadas en lugares distantes, una emitía un torrente de impulsos eléctricos a la corteza cerebral a partir de estar entrenada para reconocer luces y mover palancas para conseguir agua como recompensa. La segunda, que enfrentaba un sistema idéntico de búsqueda, recibía las señales.

AFP

Científicos indicaron este jueves que habían logrado que una rata que se hallaba en Brasil ayudara a obtener una recompensa a otra que estaba en Estados Unidos, a través de una conexión entre los cerebros de ambas.

"Establecimos una conexión funcional entre dos cerebros. Creamos un supercerebro que incluye dos cerebros", declaró por teléfono a la AFP el brasileño Miguel Nicolelis, neurólogo de la Facultad de Medicina de la Universidad Duke, en Carolina del Norte (Estados Unidos).

El Hijo de El Cronopio No. 968/1449

30089

"Estamos aprendiendo maneras de enviarle mensajes e interactuar con el cerebro de los mamíferos, las cuales serán fundamentales para nuestros objetivos en materia de rehabilitación" de minusválidos, agregó.

El equipo de Nicolelis, cuyo artículo se publicó en Scientific Reports, entrenó a ratas sedientas, las cuales tenían que reconocer luces y mover palancas para conseguir agua como recompensa.

Luego implantaron electrodos ultrafinos en los cerebros de las ratas, los cuales estaban conectados por cable a una computadora.

El cerebro de la primera rata, que se encontraba en un tanque de vidrio en Natal, mandaba un torrente de impulsos eléctricos a medida que iba descubriendo los trucos para obtener la recompensa.

Los impulsos se enviaban en tiempo real a la corteza cerebral de la segunda rata, la cual estaba enfrentando un idéntico sistema en otro tanque, en Carolina del Norte.

Gracias a estas señales de la otra rata, el segundo animal logró conseguir rápidamente su recompensa.

"Los dos animales colaboraron para llevar a cabo una tarea juntos", afirmó Nicolelis.

Lo que recibió la segunda rata no eran pensamientos ni imágenes, puntualizó.

Cuando la primera rata terminaba las diferentes tareas, los picos de sus señales cerebrales se transcribían a un modelo informante de señales electrónicas que recibía la segunda rata.

Cuando la segunda rata reconocía la utilidad de estos modelos, los mismos se incorporaban en su procesamiento visual y táctil.

"La segunda rata aprende a reconocer un modelo (...) estadístico que describe la decisión que tomó la primera rata. Está creando una asociación entre ese modelo y una decisión", declaró Nicolelis.

"Puede que esté sintiendo pequeños estímulos táctiles, pero eso aún no sabemos cómo describirlo porque no podemos interrogar al sujeto", agregó.

Tampoco queda claro cómo la segunda rata incorpora las señales de la primera en su espacio mental.

"Básicamente, mostramos que el animal descodificador puede incorporar otro cuerpo, como extensión del mapa que tiene en su propio cerebro", dijo Nicolelis. "No sabemos cómo se logra esto", agregó.

_______________________________________________________________

El Hijo de El Cronopio No. 968/1449

30090

Astrónomos en Chile observan por primera vez cómo se formaría un planeta Las teorías actuales afirman que los planetas gigantes crecen al capturar parte de los restos de gas y el polvo que permanecen tras la formación de una estrella, pero nunca ha sido posible observar este proceso en directo.

AFP

Un equipo internacional de astrónomos observó por primera vez de forma directa, gracias a un potente telescopio instalado en el norte de Chile, lo que parece ser un planeta en formación, incrustado aún en un disco de gas y polvo, informó el Observatorio Europeo Austral (ESO).

De confirmarse el hallazgo, posible por el Very Large Telescope (VLT), considerado el telescopio óptico más avanzado del mundo, daría importantes pistas de cómo se forman los planetas y cómo se puede mejorar la observación de estos fenómenos. señaló el ESO.

El equipo de astrónomos, liderado por la suiza Sascha Quanz, estudió el grueso disco de gas y polvo que rodea a la joven estrella HD100546, que se encuentra a unos 335 años luz de la Tierra, y se sorprendió al encontrar lo que parecía ser un planeta en proceso de formación, aún metido en el disco de material que rodea a la joven estrella.

"Se cree que podría ser un gigante gaseoso como Júpiter", dijo ESO en un comunicado.

Las teorías actuales afirman que los planetas gigantes crecen al capturar parte de los restos de gas y el polvo que permanecen tras la formación de una estrella, pero nunca ha sido posible observar este proceso en directo.

La estrella HD 100546 ha sido muy bien estudiada hasta la fecha, según el ESO, y se ha sugerido que ya tiene un planeta gigante a una distancia seis veces mayor a la que separa la Tierra del Sol. Este segundo candidato a planeta se encuentra en "las regiones exteriores del sistema, unas diez veces más alejado" que el otro.

"Hasta ahora, la formación planetaria ha sido un asunto abordado principalmente con simulaciones por ordenador", dijo en un comunicado la astrónoma Sascha Quanz. "Si nuestro descubrimiento es ciertamente un planeta en formación, por primera vez los científicos podrán estudiar de forma empírica el proceso de formación planetaria y la interacción de un planeta en formación con su entorno natal en un estadio muy temprano", agregó.

El hallazgo fue gracias al VLT y a un instrumento de medición de la longitud de onda infrarroja.

El Hijo de El Cronopio No. 968/1449

30091

Según Adam Amara, otro miembro del equipo, "la investigación exoplanetaria es una de las más nuevas y emocionantes fronteras de la astronomía, y la imagen directa de planetas es todavía un campo emergente que se va a beneficiar mucho de los recientes avances en instrumentación y en métodos de análisis de datos".

El VLT se encuentra en el Paranal, un observatorio operado por la ESO que está ubicado a 2.600 metros de altura, cerca de la ciudad de Antofagasta (unos 1.360 km al norte de Santiago).

ESO es la principal organización astronómica intergubernamental de Europa y el observatorio astronómico más productivo del mundo. Quince países apoyan esta institución: Alemania, Austria, Bélgica, Brasil, Dinamarca, España, Finlandia, Francia, Holanda, Italia, Portugal, el Reino Unido, República Checa, Suecia y Suiza.

_______________________________________________________________

Accidente de la central Fukushima aumenta riesgos de cáncer en áreas más contaminadas: OMS Habrá un riesgo de cuatro por ciento más de todo tipo de cánceres sólidos en las mujeres expuestas como infantes, alrededor del seis por ciento del cáncer de seno en mujeres expuestas como infantes y alrededor del siete por ciento de leucemia en los varones expuestos como infantes.

XINHUA

Ginebra. El accidente de la central nuclear nipona de Fukushima en 2011 conducirá probablemente a un aumento en los riesgos de cánceres específicos en la gente de las áreas contaminadas, aunque no se anticipan riesgos adicionales en otras partes de Japón y los países vecinos, señala un informe de la Organización Mundial de la Salud (OMS) publicado hoy.

La evaluación de los riesgos de salud asociadas con el desastre de la mencionada planta nuclear, provocado por el devastador terremoto y tsunami que afectó el noreste de Japón el 11 de marzo de 2011, muestra un mayor riesgo de cáncer comparado con las tasas de referencia de aquellos en dos de las partes más contaminadas en Fukushima. Por ejemplo, habrá un riesgo de cuatro por ciento más de todo tipo de cánceres sólidos en las mujeres expuestas como infantes, alrededor del seis por ciento del cáncer de seno en mujeres expuestas como infantes y alrededor del siete por ciento de leucemia en los varones expuestos como infantes.

El mayor riesgo de cáncer de tiroides entre las mujeres expuestas como infantes en el sitio más afectado es particularmente elevado, casi del 70 por ciento. No obstante, los expertos

El Hijo de El Cronopio No. 968/1449

30092

explicaron que el riesgo normal esperado de cáncer de tiroides en mujeres en su vida es de 0,75 por ciento, que es muy bajo y el riesgo adicional de por vida es de 0,5 por ciento.

En las partes más expuestas en la prefectura de Fukushima, donde las dósis preliminares efectivas de radiación calculada fueron de entre tres y cinco mSv, los mayores riesgos de vida para cáncer frente la base de referencia eran de alrededor de entre una cuarta parte y una tercera parte de la gente de las áreas más afectadas, indica el informe.

Entre los trabajadores de emergencia de la central de Fukushima, los riegos de vida por leucemia, cáncer de tiroides y todos los cánceres sólidos se calcula que sean mayores y unos cuantos de ellos que inhalaron cantidades significativas de yodo radioactivo podrían desarrollar desórdenes de tiroides no cancerosos, según el informe de 200 páginas. Angelika Tritscher, coordinadora de Evaluación y Administración de Riesgos del Departamento de Seguridad Alimentaria y Zoonosis de la OMS, dijo a Xinhua que el informe se basa generalmente en datos ofrecidos por el gobierno japonés y autoridades de otros países.

No obstante, ella señaló que los expertos han tratado de verificar lo más posible los datos por distintos medios. El informe pide una vigilancia continua de largo plazo de alimentos y medio ambiente, así como de la salud de la gente con mayores riesgos de salud.

Noticias de la Ciencia y la Tecnología Astronáutica Gran Enciclopedia de la Astronáutica (36): Alcántara Alcántara (CLA) Centro de la lanzamientos; País: Brasil; Nombre nativo: Centro de Lançamento de Alcântara El programa espacial de Brasil había utilizado durante años un pequeño centro de lanzamiento en la isla de Natal, en Barreira do Inferno, para lanzar varios tipos de cohetes Sonda para estudios a gran altitud, meteorológicos, etc. En 1981, sin embargo, el Instituto de Atividades Espaciais (IAE), que tenía planes para construir un vector capaz de colocar satélites en órbita, decidió empezar la construcción de un centro de despegues más grande y mejor posicionado. El futuro CLA (Centro de Lançamento de Alcântara) quedaría emplazado en las proximidades del ecuador geográfico (2°17′S 44°23′W), junto a la costa atlántica del norte de Brasil, y en una zona dominada básicamente por la selva, del estado de Maranhão. Las instalaciones que se construirían allí en 1982 deberían ser amplias y apropiadas para ensamblar el cohete VLS de cuatro etapas, preparar los satélites y llevar a cabo tareas de seguimiento y control. Se instalaría también un aeropuerto y poco a poco se establecería una ciudad para el personal. El CLA estaría bajo el control militar de la Fuerza Aérea brasileña.

El Hijo de El Cronopio No. 968/1449

30093

Los preparativos para poner a punto el centro de lanzamiento avanzaron a buen ritmo, pero el diseño del cohete y los satélites que debería llevar, responsabilidad del INPE (Instituto de Pesquisas Espaciais), no lo hicieron tanto, de manera que el primer lanzamiento orbital fue retrasándose años tras año. Mientras tanto, se utilizaron las instalaciones de Alcántara para lanzar cohetes sonda de variadas misiones. El primero fue un Sonda 2, que voló el 21 de febrero de 1990 para estudios ionosféricos. Le siguieron más Sonda 2 y 3, y también vehículos estadounidenses y canadienses, como los Nike-Orion, Black Brant y Nike-Tomahawk.

Alcántara. (Foto: Agencia Espacial Brasileña) Voló asimismo un nuevo cohete sonda llamado VS-40, de dos etapas, que en la práctica correspondían a las etapas superiores del futuro cohete VLS y que por tanto podían así ser probadas en vuelo. En 2012 se ensayó un VS-40M mejorado. Otro cohete sonda que voló desde Alcántara fue el VS-30, basado en el Sonda 3, como también el VS-30/Orion y el VSB-30 (donde el VS-30 hacía de etapa superior). Pero la verdadera misión del centro de lanzamiento había sido desde el principio servir como punto de partida para el cohete orbital VLS. Las instalaciones tendrían al menos cuatro rampas de despegue: una para los cohetes sonda (MRL), otra para cohetes de hasta 10 toneladas (Universal), y una para el VLS, equipada con una torre de servicio móvil. En la actualidad se está construyendo otra rampa (ACS) para el lanzamiento de cohetes Tsyklon-4, en cooperación con Ucrania. El desarrollo del cohete VLS-1 se inició hacia 1984, avanzando muy lentamente. La complejidad de la tarea hizo que el INPE buscara ayuda en varios países, pero el control militar de la tecnología lo dificultó grandemente.

El Hijo de El Cronopio No. 968/1449

30094

Cohete VLS-1. (Foto: Agencia Espacial Brasileña) Dos pruebas iniciales, realizadas en Alcántara el 1 de diciembre de 1985 y el 18 de mayo de 1989, sólo utilizaron partes del cohete, aún llamado VLS-R1. El primer VLS-1 completo (V1) se lanzó el 2 de diciembre de 1997. Llevaba el satélite SCD-2A, pero no alcanzó la velocidad orbital. El siguiente cohete (V2) partió desde el mismo lugar el 11 de diciembre de 1999, con el SACI-2, pero tampoco lo logró. Tras varios años de trabajos para resolver los problemas técnicos, se iba a lanzar el V3 el 24 de agosto de 2003, pero el día 22 una dramática explosión en la misma rampa de despegue, tras el encendido anómalo de uno de los cuatro motores de la primera etapa, acabó con el vehículo y con la vida de 21 personas. El accidente, uno de los más graves de la historia espacial, paralizó el programa brasileño durante prácticamente un lustro, ya que perdió a personal indispensable en el proyecto y supuso una profunda investigación y la reconstrucción de la infraestructura. Finalmente, se aprobó la preparación del V4, que utilizaría una versión mejorada del cohete. Además, el camino hacia este lanzamiento constituiría un verdadero programa en sí mismo. El VLS-1 V4 no volará hasta 2018, con el satélite Amazônia-1, y antes de que se lleve a cabo su misión Brasil lanzará varios prototipos que probarán las diversas etapas de propulsión y los sistemas de separación entre ellas. El primero (XVI-01) debería volar en 2013, para el cual

El Hijo de El Cronopio No. 968/1449

30095

ya se ha construido una nueva torre de servicio. Al mismo tiempo, Brasil está desarrollando variantes del cohete, como el VLS Alfa o el VLS Beta, de mayor potencia que su antecesor, que podrían despegar en 2017 ó 2018.

Alcántara. (Foto:Space Imaging) Los acuerdos firmados con Ucrania para el lanzamiento del Tsyklon-4, un cohete comercial, han permitido sopesar la posibilidad de construir instalaciones en Alcántara de índole únicamente civil, sin control militar, junto al CLA, que gestionaría la Agência Espacial Brasileira. Por el momento el primer Tsyklon-4 debería partir en 2014 desde la antigua base. Sus misiones serán gestionadas por la empresa Alcântara Cyclone Space. Durante los últimos tiempos se ha hablado de que Alcántara podría ofrecer su polígono para el despegue de otros cohetes (aparte del Tsyklon), deseosos de aprovechar las ventajas de su posición ecuatorial. Podría ocurrir con los futuros Angara y Proton rusos, e incluso con los Shavit de Israel, pero no existe en estos momentos ningún acuerdo al respecto ni obras encaminadas a hacerlo posible. Videos http://www.youtube.com/watch?v=cpCflRxvd2Y&feature=player_embedded http://www.youtube.com/watch?v=DsgFZbkRpjM&feature=player_embedded

El Hijo de El Cronopio No. 968/1449

30096

Ecología Los intereses económicos de una minoría prevalecen sobre la sostenibilidad energética de la humanidad Modificar las leyes de modo que los propietarios (y accionistas) de aquellas empresas que causen catástrofes ecológicas, asuman el costo económico de repararlas o de indemnizar a los damnificados, conduciría a un auge de las energías limpias en detrimento de las sucias y peligrosas. Lo dice la sabiduría popular, pero ahora también las conclusiones de una investigación llevada a cabo por especialistas del Instituto Internacional para el Análisis de Sistemas Aplicados (IIASA por sus siglas en inglés) en Austria y el Instituto para la Investigación de Impactos del Clima, en Potsdam, Alemania. El estudio se ha publicado en la revista académica PNAS (Proceedings of the National Academy of Sciences, o Actas de la Academia Nacional de Ciencias, de Estados Unidos). Es fácil considerar que la energía nuclear o los combustibles fósiles son baratos, desde el punto de vista de quienes tienen intereses comerciales en ellos, si siempre se aplica la regla de privatizar las ganancias y socializar las pérdidas en casos de grandes catástrofes como un accidente nuclear o una marea negra graves. El estudio saca a la luz lo que se describe como una estructura rígida y firmemente anclada dentro de la economía energética que favorece el uso de combustibles fósiles y energía nuclear a pesar de sus grandes costos medioambientales y sociales. Los investigadores consideran que esta estructura inmovilista se podría reducir mucho si entrasen en vigor nuevas leyes que obligaran a los dueños y accionistas de empresas a afrontar el costo de los daños que éstas provoquen. "El sistema energético del mundo actualmente depende en gran medida de los combustibles fósiles y del uranio, y sus emisiones habitualmente causan daños al medio ambiente en forma de contaminación, mareas negras o fugas nucleares", expresa Jerome Dangerman, del equipo de investigación, y académico del IIASA. Pero mientras que las empresas pueden ser penalizadas por daños al medio ambiente causados por ellas, no suele suceder lo mismo con sus propietarios. Los accionistas no afrontan cargos de esta clase, por lo que pueden hacer inversiones con un riesgo económico más bajo que si tuvieran que afrontar los costos de los desastres medioambientales derivados de la actividad comercial de la empresa. En su informe, el equipo de investigación examina las transiciones históricas del sistema energético, analizando los factores que llevaron a las transiciones anteriores en el uso de la energía, por ejemplo de la madera al carbón, y luego del carbón al petróleo. Los investigadores argumentan que la década de 1970 representa un período de tiempo en el que pudo iniciarse una nueva transición a gran escala hacia las energías renovables, gracias a la revolución tecnológica que por entonces se iniciaba en ese campo. Sin embargo, el sistema

El Hijo de El Cronopio No. 968/1449

30097

global ha permanecido "congelado" desde entonces, manteniendo a los combustibles fósiles y nucleares como las principales fuentes de energía.

La electricidad mueve al mundo moderno. Obtenerla exclusivamente de fuentes limpias y renovables beneficiará a la humanidad. (Foto: Amazings / NCYT / JMC) Dangerman y Hans Joachim Schellnhuber, Director del Instituto para la Investigación de Impactos del Clima, han explorado las razones de la rigidez en el sistema energético actual. Fuertes inversiones en el campo de los combustibles fósiles han dejado grandes ganancias a los accionistas, lo que a su vez conduce a mayores inversiones en aquello que ha demostrado ser muy rentable. Se trata por lo tanto de un círculo vicioso. Mientras se cumpla el objetivo principal, que los inversores obtengan ganancias económicas, no parece que el sistema vaya a cambiar por sí mismo. Factores como una mayor financiación estatal a las energías convencionales refuerzan aún más ese inmovilismo. El reparto de subvenciones estatales es claro: En el período 2007-2010, 496.000 millones de dólares fueron destinados a la energía convencional, excluyendo la nuclear, mientras que sólo 61.000 millones de dólares se destinaron a las energías alternativas. Los balances de beneficios y pérdidas en el mercado de las energías fósiles y el de la nuclear no van acompañadas de cálculos sobre costos económicos por daños medioambientales y los perjuicios económicos "colaterales" derivados de estos, de modo que los accionistas sienten poco interés en estos factores. A fin de cambiar el sistema, según argumenta Schellnhuber, algo debe truncar ese círculo vicioso. Los autores del estudio creen que un buen modo de cambiar este sistema es promover alguna forma de realimentación negativa: Terminar con la actual ausencia de responsabilidad de los accionistas y hacer que sean ellos, y no el estado con el dinero público, quienes paguen por los daños que sus empresas causan.

El Hijo de El Cronopio No. 968/1449

30098

Dangerman cita a modo de ejemplo, la explosión de la plataforma petrolera DeepWater Horizon: "Si los accionistas tuvieran la responsabilidad legal, la próxima vez considerarían el riesgo medioambiental antes de invertir, o forzarían a los directivos de la empresa a cambiar el rumbo de los negocios hacia opciones menos peligrosas para el medio ambiente”. El estudio se basa en cuarenta años de investigaciones sobre energía y tecnología en el IIASA. Los científicos del IIASA han sido pioneros en analizar cómo ciertas tecnologías, que son dominantes debido a los beneficios económicos que proporcionan a un sector determinado, actúan de barrera contra el progreso tecnológico en otros sectores que son competidores comerciales potenciales y por tanto rivales a quienes se procura impedir que entren en el mercado. Este bloqueo lleva mucho tiempo dificultando la transformación tecnológica de la humanidad hacia un modelo energético sostenible, tal como argumenta el profesor Nebojsa Nakicenovic, vicedirector del IIASA. El IIASA es un instituto internacional financiado por instituciones científicas de África, América, Asia, Oceanía y Europa. Información adicional http://www.pnas.org/content/early/2013/01/02/1219791110 Paleontología Nuevos detalles sobre la muerte del rey Ricardo III El análisis exhaustivo del esqueleto del rey Ricardo III, hallado bajo un aparcamiento de automóviles en la ciudad británica de Leicester, revela nuevos detalles sobre su muerte en combate, acaecida hace medio milenio. Ricardo III (1452-1485), el último rey inglés muerto en una batalla, reinó durante sólo dos años, y ha sido una figura históricamente marcada por la polémica. Aparte de los hechos históricos probados, a Ricardo III se le atribuyen muchas maldades, en especial desde las páginas de la historia escritas por sus adversarios. La exhumación de los restos mortales y el análisis minucioso al que estos han sido sometidos por un equipo de arqueólogos, forenses y especialistas de diversos ámbitos, dirigido desde la Universidad de Leicester, está ayudando a esclarecer las circunstancias exactas de la muerte de Ricardo III, un monarca con fama de maldito y al que muchos quisieron borrar de la historia. Su tumba cayó en el olvido, y sus restos mortales vivieron diversas vicisitudes y estuvieron a punto de ser destruidos. Ahora, tras haber visto el paso de cinco siglos, esos huesos están comenzando a hablarle a la ciencia forense moderna sobre lo que ocurrió realmente el 22 de agosto de 1485, cuando el rey luchó en la Batalla de Bosworth hasta su último aliento, y quizá obliguen a reescribir páginas de la historia.

El Hijo de El Cronopio No. 968/1449

30099

El esqueleto de Ricardo III a medio desenterrar. (Foto: © Universidad de Leicester) Sobre el estado nutricional de Ricardo III, los análisis indican que seguía una dieta con alto contenido proteico, incluyendo cantidades significativas de marisco. Su columna vertebral presenta una fuerte deformidad típica de la escoliosis, que debió hacer que un hombro fuese claramente más alto que el otro, algo que concuerda con descripciones de Ricardo III hechas en su época y difiere de otras hechas posteriormente. Quienes padecen de escoliosis, tienen la columna vertebral torcida hacia un lado. No es el encorvamiento que da lugar a lo que vulgarmente se conoce como "joroba". Los análisis indican que Ricardo III no sufría de atrofia en ningún brazo, en contra de la creencia que se difundió tiempo después de su muerte. Nada menos que una decena de heridas han sido descubiertas en el esqueleto. De ellas, dos son mortales. Una fue hecha probablemente con una espada y la otra parece ser que con una alabarda. Cualquiera de las dos bastaba para provocarle la muerte. En el esqueleto también se encontró una punta de flecha entre vértebras de la parte superior de la espalda. La causa de la muerte fue traumatismo craneal, concretamente en la parte trasera de la cabeza. Otras heridas, no mortales, aparecen en cabeza, costillas y pelvis. Se cree que una vez abatido, y ya sin posibilidad de defenderse y presumiblemente muerto, los adversarios de Ricardo III se ensañaron con su cuerpo, provocándole heridas a modo de

El Hijo de El Cronopio No. 968/1449

30100

humillación. Éste parece ser el caso de una herida causada por una espada que le clavaron a través de su nalga derecha.

El esqueleto de Ricardo III. (Foto: © Universidad de Leicester) El cadáver de Ricardo III acabó finalmente dentro de una fosa, excavada con mucha prisa y que no era lo bastante larga para su estatura, dentro de la Abadía de Greyfriars en Leicester. Dicha abadía dejó de existir como tal hace mucho tiempo, y sus ruinas quedaron sepultadas. Al desenterrar el esqueleto, no se hallaron restos de un ataúd ni de una mortaja. El hallazgo e identificación de Ricardo III es el fruto de una búsqueda de varios años, iniciada por la escritora Philippa Langley (de la Richard III Society), y en la que han trabajado de manera destacada los arqueólogos Richard Buckley y Mathew Morris, la osteoarqueóloga Jo Appleby, la genetista Turi King, la historiadora Lin Foxhall y el genealogista Kevin Schürer, todos ellos de la Universidad de Leicester. Información adicional http://www2.le.ac.uk/offices/press/press-releases/2013/february/university-of-leicester-announces-discovery-of-king-richard-iii

El Hijo de El Cronopio No. 968/1449

30101

Geología El verdadero papel de las montañas ayudando a retirar CO2 de la atmósfera Los procesos que liberan dióxido de carbono a la atmósfera terrestre son contrarrestados parcialmente por algunos procesos que hacen lo contrario, extraer dióxido de carbono de la atmósfera. Uno de ellos es la erosión química, que se produce en algunos procesos que deshacen la materia pétrea convirtiéndola en tierra. Las moléculas de dióxido de carbono y la lluvia se combinan para disolver la roca, y los productos de esta erosión, incluyendo sedimentos, llegan tarde o temprano, y a través de corrientes de agua, al mar, donde parte del CO2 queda atrapado en el fondo oceánico y en arrecifes de coral y conchas marinas. Durante años, los geólogos creyeron que las montañas, debido a sus pronunciadas pendientes y altas tasas de erosión, eran contribuyentes importantes a dicho efecto de extracción de CO2 atmosférico. Pero un nuevo estudio realizado por el equipo de Jane Willenbring, de la Universidad de Pensilvania en Estados Unidos, sugiere que las montañas no desempeñan un papel importante en esta actividad, contradiciendo ese paradigma geológico del papel destacado de las montañas, y poniendo en tela de juicio las conclusiones de estudios anteriores, las cuales sugirieron que los pequeños ríos de montaña eran los que más contribuían al flujo de sedimentos que llega a los mares del mundo. Lo que estos otros científicos olvidaron tener en cuenta, según Willenbring, fue que incluso las laderas más pronunciadas y de mayor erosión representan sólo una pequeña fracción de la superficie de la Tierra. Así que aunque estas cuestas empinadas tienen ciertamente tasas muy altas de absorción de carbono por unidad de superficie, se ven sobrepasadas por los terrenos de pendientes suaves, que son mucho más abundantes.

Montañas. (Foto: Anthony R. Picciolo, NOAA NODC)

El Hijo de El Cronopio No. 968/1449

30102

Para los estudios anteriores no se disponía de una nueva técnica de investigación que fue desarrollada hace relativamente poco tiempo. Con este método se realiza un examen de nucleidos cosmogénicos, que son formas raras de elementos químicos, que se producen sólo cuando una estrella explota en forma de supernova, enviando radiación de alta energía a la Tierra, y desintegrando otros átomos. Contar estos isótopos químicos permite a los investigadores determinar cuánto tiempo el sedimento ha permanecido en una cuenca específica, permitiendo medir periodos muy largos de tiempo. En cambio, las técnicas usadas anteriormente, en las que se mide físicamente el flujo de sedimentos en ríos y arroyos, sólo capturan información sobre erosión y tasas de flujo de sedimentos para un período corto de tiempo. Los investigadores analizaron datos publicados sobre concentraciones de nucleidos cosmogénicos de todo el mundo para determinar los niveles de flujo de sedimentos durante un período de tiempo de miles a cientos de miles de años. También recopilaron datos topográficos para determinar las laderas presentes en los alrededores. A continuación, extrapolaron estas tasas de deposición de sedimentos a la superficie completa de la Tierra. Con Willenbring, también han trabajado Alexandru Codilean del Centro Alemán de Investigación en Geociencias (GFZ), y Brandon McElroy de la Universidad de Wyoming en Estados Unidos. Información adicional http://www.upenn.edu/pennnews/news/penn-research-shows-mountains-are-only-minor-contributors-sediment-erosion-and-climate-regulati Psicología Revisar la actividad en Facebook de una persona para evaluar su salud mental Analizar el registro de actividad de una persona en Facebook u otras redes sociales de internet puede ser un muy buen modo de evaluar la salud mental, al menos para las personas que tienen suficiente presencia en internet. Así se ha determinado en una investigación reciente, para la cual la actividad en Facebook sirvió de ventana para evaluar la salud psicológica de los sujetos de estudio. Ahora, el equipo de Elizabeth Martin, de la Universidad de Misuri en la ciudad de Columbia, Estados Unidos, cree que los terapeutas probablemente puedan valerse de la actividad de sus pacientes en las redes sociales de internet para afinar sus diagnósticos y supervisar de manera más detallada la conducta de sus pacientes.

El Hijo de El Cronopio No. 968/1449

30103

La baza de analizar la actividad de los pacientes en redes sociales de internet es que evita algunos de los problemas asociados con la información relatada por ellos a los psicólogos. Por ejemplo, los cuestionarios que recaban datos sobre las actividades del paciente durante los últimos días, a menudo dependen de la memoria de la persona, que puede ser precisa o imprecisa.

Elizabeth Martin. (Foto: Universidad de Misuri) En cambio, si el paciente permite que su psicólogo examine su actividad de los últimos días en Facebook, la evaluación de la conducta y la del estado mental pueden ser mucho más precisas y fiables. Y no sólo porque cosas como comentarios y demás quedan registrados como si el perfil de Facebook fuese una especie de Caja Negra de avión, sino también porque el psicólogo tiene la ocasión de ver cómo su paciente se comporta de forma espontánea, fuera del consultorio. Incluso las partes de su actividad en Facebook que escojan mantener secretas le pueden revelar al psicólogo datos del estado mental de su paciente, ya que el deseo de ocultar ciertas áreas de actividad lleva implícito un significado. Las redes sociales de internet son empleadas cada vez más por la gente, lo que permite ya comenzar a hacer estudios sociológicos bastante fiables, así como analizar la conducta de las personas en un medio que ya no les resulta extraño como al principio sino tan natural como una cafetería en la que se reúnan a charlar con sus amigos. A raíz de esto, psicólogos y psiquiatras prestan cada vez más a atención a internet como un entorno relevante de las actividades sociales cotidianas de la gente de bastantes naciones. Información adicional http://munews.missouri.edu/news-releases/2013/0124-facebook-activity-reveals-clues-to-mental-illness-says-mu-researcher/

El Hijo de El Cronopio No. 968/1449

30104

Electrónica LEDs más eficientes gracias a las luciérnagas El brillo nocturno de las luciérnagas ha inspirado a un equipo de científicos para afrontar de manera imaginativa una modificación a un diodo emisor de luz (LED) a fin de dotarle de una eficiencia mucho mayor que la del modelo original de LED. Los investigadores, de Bélgica, Francia, y Canadá, estudiaron la estructura interna de los órganos del abdomen bioluminiscente de las luciérnagas, que éstas hacen brillar para atraer a sus parejas potenciales para el apareamiento. El equipo de Annick Bay y Jean Pol Vigneron, de la Universidad de Namur en Bélgica, identificó un patrón inesperado de escamas que refuerzan la luz de las luciérnagas, y aplicó este conocimiento al diseño del nuevo LED, para crearle un recubrimiento que imita esa estructura natural de las luciérnagas. El recubrimiento, que aumentó la extracción de luz del LED en un 55 por ciento, podría ser adaptado fácilmente al diseño de los diodos existentes para contribuir a una iluminación artificial con menor consumo de electricidad.

Un LED de nitruro de galio, o GaN, recubierto con una capa cuya estructura emula la de las escamas de las luciérnagas analizadas. (Foto: Nicolas André)

El Hijo de El Cronopio No. 968/1449

30105

Uno de los aspectos más importantes de este trabajo de investigación y desarrollo es que muestra cuánto podemos aprender observando cuidadosamente la naturaleza, tal como subraya la investigadora Annick Bay, de la Universidad de Namur en Bélgica, especializada en el estudio de las estructuras fotónicas naturales, incluyendo las escamas de ciertos escarabajos y las alas de algunas mariposas. Las luciérnagas generan la luz a través de una reacción química que tiene lugar en las células especializadas llamadas fotocitos. La luz se emite a través de la cutícula del insecto, pero una parte de ella puede finalmente no llegar a salir al exterior. Sin embargo, la geometría única de la superficie de las cutículas de algunas luciérnagas puede ayudar a minimizar esa pérdida de luz, lo que significa una mayor emisión de luz, más capaz de alcanzar los ojos de otras luciérnagas potencialmente dispuestas a aparearse con la que emite la luz. Información adicional http://www.osa.org/about_osa/newsroom/newsreleases/2013/scientists_mimic_fireflies_to_make_brighter_leds/ Sociología Buscando explicaciones para el enorme éxito del manga y el anime A fines de la década de 1970, una serie televisiva de dibujos animados japoneses de ciencia-ficción sobre robots gigantes, llamada Mazinger Z, se hizo muy popular en España y otros países. Otras producciones de animación niponas, como por ejemplo "Bola de Dragón" y "Queen Millennia" (cuya película tuvo su banda sonora compuesta por Kitaro, http://www.jorge-munnshe.com/tema82.html) también se hicieron famosas. Fue el despegue definitivo del manga y de su versión animada, el anime, un despegue ya augurado una década antes por el éxito de la serie "Meteoro". Y en años relativamente recientes, el fenómeno ha proseguido. Inuyasha, Pokemon, Detective Conan, Death Note (Cuaderno de Muerte)... La lista es amplia y sigue creciendo. La pregunta es obvia: ¿Por qué los comics y los dibujos animados japoneses surgidos con aquella ola y las posteriores han tenido tan buen éxito, comparados con producciones similares de otros países? ¿Puede la sociología aportar alguna explicación? Ian Condry, profesor del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, cree que puede explicarlo y ha escrito incluso un libro sobre el fenómeno. Su hipótesis es que la "colaboración creativa" con las masas ha sido la clave de la popularidad mundial del anime. Y expone un ejemplo:

El Hijo de El Cronopio No. 968/1449

30106

A principios de 1979, una serie de dibujos animados sobre robots gigantes, "Mobile Suit Gundam", hizo su debut en la televisión japonesa. No fue un éxito. Planificada para tener una duración de 12 meses, estuvo a punto de ser cancelada después de tan sólo 10 meses.

El libro "The Soul of Anime". (Foto: MIT / Duke University Press) Pero entonces los creadores de la serie percibieron algo inesperado: Ésta tenía una audiencia, que aunque relativamente pequeña, era muy leal. Los fans estaban creando enciclopedias sobre la serie y confeccionando cronologías sobre los sucesos narrados en ella. A la serie se le dio un nuevo impulso, y el estudio que lo producía prestó atención a cuáles de los elementos de la serie habían demostrado ser más populares entre su audiencia. Con la nueva oportunidad y algunos ajustes creativos, la serie "Gundam" se convirtió en la base de una sucesión extensa de dibujos animados, películas, cómics, videojuegos, juguetes y otros productos. Un fenómeno parecido de culto entre los fans se ha registrado con muchas otras series niponas de dibujos animados. Según una estimación, el 60 por ciento de las series de dibujos animados de televisión del mundo son hechas en Japón. Se han vuelto populares, como Condry afirma en su nuevo libro, "The Soul of Anime" ("El Alma del Anime"), publicado recientemente por Duke University Press, gracias a adoptar lo que él llama "creatividad colaborativa", o sea la estrategia de aceptar aportes de una amplia gama de artistas, y, fundamentalmente, modificaciones propuestas por los fans, lo que lleva a una realimentación. Y cuando los fans participan, dice Condry, una producción televisiva de

El Hijo de El Cronopio No. 968/1449

30107

estas características funciona como un producto de la cultura Pop, al igual que la música de las estrellas Pop que cultivan el contacto con los fans en las actuaciones en directo y en otros muchos eventos sociales. Por supuesto, una cosa es la teoría, y otra la práctica. Si una productora intenta lanzar una serie siguiendo deliberadamente el esquema descrito, no hay ninguna garantía de que logre el éxito que obtuvieron otras series que en cambio fueron planteadas inicialmente de una forma más espontánea. A partir del auge del manga y el anime, Japón ha pasado a ser conocido en el mundo por esta parte de su cultura de un modo impresionante, capaz de eclipsar a elementos fundamentales de su identidad como país. Una anécdota ilustra la situación a la perfección: En 2004, cuando Japón envió camiones cisterna para ayudar en la reconstrucción de Irak, los iraquíes que coordinaban el trabajo sintieron que la bandera japonesa, mostrada en los costados de los camiones, probablemente no sería reconocida por la población. A raíz de ello, el gobierno japonés también pegó en los vehículos carteles grandes del Capitán Tsubasa, un popular personaje de una serie de dibujos animados japonesa, como forma más eficaz de hacer notar a la gente cuál era país que les proporcionaba los camiones. Información adicional http://web.mit.edu/newsoffice/2013/the-soul-of-anime-0129.html Paleontología Los palinomorfos proveen claves para explorar depósitos de hidrocarburos “Somos los paleontólogos de un mundo microscópico”, comenta Claudia Rubinstein, investigadora independiente de CONICET en el Instituto Argentino de Nivología, Glaciología y Ciencias Ambientales (IANIGLA, CONICET-Mendoza-UNCu). Rubinstein interpreta la biodiversidad en el planeta de hace 500 millones de años. “En el Paleozoico inferior la vida estaba restringida a los océanos. El estudio del microplancton fosilizado es clave para entender el surgimiento de formas de vida que empezaron a generar fotosíntesis”. Estos organismos eran la base de la cadena trófica, el alimento de seres más avanzados. Cuando no había plantas sobre la faz de la tierra, fueron los responsables de comenzar a generar las condiciones en la atmósfera para convertir a nuestro planeta en un medio habitable. La aparición de las plantas terrestres es un hito evolutivo de importancia. “Es trascendente entender el nexo entre la vida en los mares y la vida sobre la superficie terrestre. Estas esporas fosilizadas son nuestros testigos más antiguos”, comenta la investigadora.

El Hijo de El Cronopio No. 968/1449

30108

En 2010 Rubinstein y su grupo de trabajo encontraron en la provincia de Jujuy esporas fósiles que corresponderían a las primeras plantas que colonizaron tierra firme hace 472 millones de años, cuando los océanos y continentes tenían una distribución muy diferente a la actual y nuestro país formaba parte del megacontinente Gondwana. La investigación fue publicada en la revista científica internacional New Phytologist.

Claudia Rubinstein, especialista en Paliopalinología. (Foto: gentileza investigadora) Parte esencial del microfitoplancton de los mares paleozoicos que estudia Rubinstein son los llamados “acritarcos”, que en griego significa incierto. No se conoce su afinidad biológica, es decir a qué organismo correspondió el fósil encontrado, y sin embargo permite interpretar diversa cantidad de información relacionada a eventos globales como grandes cambios climáticos y las glaciaciones, qué especies del microplancton marino y de las plantas terrestres se adaptaron y cuáles se extinguieron. Entre las múltiples aplicaciones, la paleopalinología – estudio del polen, esporas, algas y plancton marino fósiles – es de utilidad en la exploración de hidrocarburos. La rocas donde se produce y se aloja el petróleo tienen características particulares. Están relacionadas a una edad geológica y a un ambiente determinado en el cual se acumuló materia orgánica que, sin oxidarse y destruirse a lo largo de los años, se fosilizó y sufrió determinados procesos fisicoquímicos que dieron origen a los hidrocarburos. “La paleopalinología aporta herramientas muy precisas y económicas a través del análisis de los palinomorfos fosilizados, que permiten determinar la edad de las rocas y el ambiente donde se acumularon los sedimentos que les dieron origen para evaluar la posibilidad de encontrar petróleo, teniendo en cuenta que realizar la perforación de pozos es muy costoso”, concluye Rubinstein. (Fuente: CONICET/DICYT)

El Hijo de El Cronopio No. 968/1449

30109

Matemáticas Cómo optimizar la conexión entre redes Tres investigadores del Centro de Astrobiología (CAB, CSIC-INTA), el Centro de Tecnología Biomédica (Universidad Politécnica de Madrid) y la Universidad Rey Juan Carlos, todos en España, han desarrollado una nueva teoría para entender la competición que aparece entre diferentes redes al entrar en conexión, así como para diseñar estrategias óptimas para que cada red se beneficie de las uniones con otras redes. Las posibles aplicaciones de esta nueva teoría, cuyos detalles publica Nature Physics, abarcan desde las redes sociales a las comerciales, pasando por la propagación de enfermedades o el diseño eficiente de redes tecnológicas. El trabajo aplica la denominada teoría de perturbaciones, una forma de describir sistemas complejos en términos sencillos. En física se aplica al contexto de la teoría de grafos para identificar las claves de la conexión entre dos o más redes. Los autores muestran que es posible hacer uso de esta teoría de manera fácil, mostrando ejemplos en redes sociales, ecosistemas, dominios web o redes genéticas. El estudio parece explicar los procesos de conexión y competición entre redes y ayuda a predecir, antes de que se produzcan, las consecuencias de dicho fenómeno. Mediante un desarrollo matemático basado en la teoría de perturbaciones, se ha conseguido explicar el estado final de la conexión entre varias redes partiendo únicamente del estado previo a la conexión. “Conociendo únicamente la naturaleza de las redes que entran en competición al ser conectadas, podemos predecir cuáles serán las consecuencias de dicha conexión y elegir los nodos –o elementos– conectores que más beneficiarán a una u otra red”, explica Jacobo Aguirre, investigador del CAB. “La idea surgió estudiando las conexiones entre redes biológicas relacionadas con procesos evolutivos de poblaciones de RNA –prosigue–, y en muchos casos, una de las redes absorbía la práctica totalidad de la población y no entendíamos la razón”. A partir de ahí, un largo camino de cálculos analíticos y simulaciones numéricas les llevó a dar con la solución: el estado final sólo dependía de los nodos que actuaban como conectores entre ambas redes y de lo ‘fuerte’ que era cada una de las redes antes de conectarse. “Lo sorprendente es que pequeñas variaciones en estas cuestiones pueden cambiar radicalmente el resultado final de la competición. De esta forma, una red débil puede ganar a otra más fuerte o por el contrario ser barrida por ella en función de cómo se conecten entre sí”, explica Aguirre.

El Hijo de El Cronopio No. 968/1449

30110

Red de blogs de carácter conservador (en rojo) y liberal (azul) sobre política en EEUU en 2004. (Foto: J. Aguirre et al.) Los resultados presentan una aplicación potencial en una gran diversidad de sistemas. Supongamos, por ejemplo, dos ecosistemas aislados donde existe una red de relaciones tróficas –o alimentarias– entre especies y cuyo equilibrio se mantiene en el tiempo. En el momento en que una o más especies de cada ecosistema entran en contacto, las cadenas alimentarias de ambos ecosistemas se alteran, pudiendo producir un beneficio o perjuicio en alguno de los dos ecosistemas. Gracias a la nueva teoría propuesta en este trabajo, es posible avanzar cuáles serán las consecuencias de la conexión entre ambos ecosistemas, e identificar la conexión entre especies que beneficiaría a uno u otro ecosistema. Javier Buldú, del Centro de Tecnología Biomédica, avanza que los resultados “permiten identificar qué redes están siendo perjudicadas por la conexión con otras redes, cuantificar ese perjuicio y proponer posibles estrategias de conexión para mejorar la situación actual”. Según el investigador, las aplicaciones a las redes sociales son claras ya que ahora es posible comprender cómo la conexión entre dos comunidades afecta a la importancia de cada uno de los individuos en una red social: “Cuando agregamos a un nuevo amigo en Facebook, estamos creando un nuevo flujo de información entre nuestra red de contactos y la red de nuestro nuevo amigo. Las consecuencias de la nueva conexión afectan a ambos grupos y no solamente a los individuos conectores”. Con esta nueva metodología, es posible analizar cómo el flujo de información dentro de una red se ve alterado por conexiones con otras redes, cuantificar cómo está siendo la difusión de información dentro de cada una de las redes e identificar cuál de ellas está siendo más eficaz. Otro de los retos es trasladar las posibles aplicaciones de esta nueva teoría al conocimiento de las redes cerebrales. David Papo, científico israelí especializado en neurociencias,

El Hijo de El Cronopio No. 968/1449

30111

comenta que durante cualquier actividad cognitiva “nuestro cerebro actúa como una compleja red de comunicaciones donde, a su vez, se pueden identificar diversas subredes. Sería fundamental entender cómo estas subredes están conectadas entre sí, y si la conexión entre ellas está potenciando el papel de alguna de ellas”. Aunque es pronto para avanzar resultados, Papo y sus colaboradores están trabajando en su aplicación al análisis de señales cerebrales obtenidas mediante magnetoencefalografía. “Sería clave poder ver diferencias en las conexiones entre subredes en un individuo sano y un paciente con una determinada patología. Nos ayudaría a entender porqué distintas enfermedades provocan el fallo de una determinada actividad cognitiva”, apunta el científico. (Fuente: CAB (INTA-CSIC)) Ciencia de los Materiales El grafeno convierte la luz en electricidad Un equipo español del Instituto de Ciencias Fotónicas (ICFO), en colaboración con el Massachussets Institute of Techology de Estados Unidos, el Max Planck Institute for Polymer Research de Alemania y Graphenea S.L. de Donostia-San Sebastián, muestran en Nature Physics que el grafeno es capaz de convertir un fotón absorbido en múltiples electrones que pueden conducir corriente eléctrica. Este prometedor descubrimiento convierte el grafeno en una importante alternativa para la tecnología de energía solar, actualmente basada en semiconductores convencionales como el silicio. “En la mayoría de los materiales, un fotón absorbido genera un solo electrón, pero en el caso del grafeno hemos visto que un fotón absorbido es capaz de producir muchos electrones excitados, y por lo tanto una señal eléctrica mayor” explica Frank Koppens, líder del grupo de la investigación en ICFO. Esta característica hace del grafeno el ladrillo ideal para la construcción de cualquier dispositivo que quiera convertir la luz en electricidad. En particular, permite la producción de potenciales células solares y detectores de luz que absorban la energía del sol con pérdidas mucho menores. El experimento ha consistido en mandar un número conocido de fotones a diferentes energías sobre una capa fina de grafeno. “Hemos visto que los fotones de alta energía –por ejemplo, los de color violeta– inducen un mayor número de electrones excitados que los fotones de baja energía –por ejemplo, los infrarrojos–”, explica Klass-Jan Tielrooij, investigador del ICFO que ha realizado el experimento.

El Hijo de El Cronopio No. 968/1449

30112

Simulación artística de una hoja de grafeno ondulada. (Foto: Jannik Meyer (Universidad de Manchester)) “En ambos casos siempre era igual o superior al número de fotones mandado –prosigue–. Esta relación nos muestra que el grafeno convierte la luz en electricidad con una eficiencia muy alta. Hasta ahora se especulaba que el grafeno tenía un gran potencial para convertir luz en electricidad, pero ahora hemos visto que es incluso mejor de lo esperado”. Aunque aún hay algunos aspectos que los científicos están tratando de mejorar, como la baja absorción del número de fotones, el grafeno tiene el potencial de provocar cambios radicales en muchas tecnologías actualmente basadas en semiconductores convencionales. "Se sabía que el grafeno es capaz de absorber un espectro muy grande de colores de la luz. Sin embargo, ahora sabemos que una vez el material ha absorbido esta luz, la eficiencia de conversión de energía es muy alta. Nuestro próximo reto será encontrar formas para extraer la corriente eléctrica y mejorar la absorción del grafeno. Entonces seremos capaces de diseñar dispositivos de grafeno que detectan la luz de manera más eficiente, dando paso a células solares más eficientes ", concluye Koppens. Botellas, envases, mobiliario… todo de plástico. Y es que hoy se nos hace difícil imaginarnos nuestras vidas sin el material que revolucionó la tecnología del siglo pasado.

El Hijo de El Cronopio No. 968/1449

30113

Todo parece indicar que en las próximas décadas se va a vivir un cambio de paradigma con el grafeno similar al que ocurrió con el plástico el siglo pasado. Móbiles que se pliegan, placas solares trasparentes y flexibles, ordenadores muy delgados… se podrán desarrollar con grafeno. Las industrias y autoridades están convencidos de su gran potencial para revolucionar la economía mundial. Tal es así que la Unión Europea acaba de comprometer una inyección de 1.000 millones de euros para su desarrollo. (Fuente: ICFO) Educación ¿Vale la pena estudiar en la universidad? Artículo, del blog Bitnavegantes, que recomendamos por su interés. ¿Cuál es el precio justo para una educación universitaria? ¿Y cuál es su valor? ¿Es cierto que existe una "burbuja educacional" (que los costes universitarios se han disparado demasiado altos para hacer que un grado valga la pena)? Éstas son preguntas cruciales en este momento de creciente deuda de los estudiantes y de alto desempleo. En un foro del MIT, se ha examinado el tema y se han dado respuestas muy claras. El artículo, del blog Bitnavegantes, se puede leer aquí. http://bitnavegante.blogspot.com.es/2013/02/vale-la-pena-estudiar-en-la-universidad.html


Recommended