http://gis.unicafam.edu.co/index.php/gis/gateway/plugin/AnnouncementFeedGatewayPlugin/atomGestión Ingenio y Sociedad: Avisos2024-01-11T16:36:50+00:00Open Journal Systems<p><span style="font-size: medium;"><em><span style="color: #808080;"><strong><br /></strong></span><span style="font-size: large;"><span style="color: #808080;"><strong>Revista científica dedicada a publicar artículos e información sobre temas variados, relacionados </strong></span><span style="color: #808080;"><strong>con el desarrollo y los procesos que tienen impactos en la sociedad.</strong></span></span></em></span></p><p><span style="font-size: medium; color: #808080;"><strong><br /></strong></span></p><p><strong style="color: #808080; font-size: medium;"><img src="/public/site/images/mikhail/homepageImage_es_ES.png" alt="" /></strong></p><p style="text-align: center;"> </p>http://gis.unicafam.edu.co/index.php/gis/announcement/view/303Ciencia: La sensacional capacidad olfativa de los perros2024-01-11T16:36:50+00:00Gestión Ingenio y Sociedad<p>La nariz de los perros se destaca como una obra maestra de la evolución, desencadenando una sensacional capacidad olfativa que deja perplejos a los científicos. Conozcamos las asombrosas proezas de la nariz de los perros, desentrañando los misterios detrás de su olfato extraordinario y cómo esta habilidad ha dejado una huella imborrable en campos que van desde la ciencia forense hasta el rescate y la medicina.</p><p>La Nariz Canina: Un Órgano de Alta Precisión</p><p>La nariz de un perro es mucho más que un accesorio adorable. Se trata de un órgano altamente especializado, equipado con una intrincada red de aproximadamente 220 millones de receptores olfativos, en comparación con los 5 millones en los humanos. Esta sorprendente diferencia en la capacidad olfativa subraya la asombrosa habilidad de los perros para detectar olores con una precisión sin igual.</p><p>El Mundo Olfativo de los Perros: Una Sinfonía de Aromas</p><p>Para comprender la magnitud de la capacidad olfativa de los perros, es crucial tener en cuenta que su órgano vomeronasal, también conocido como órgano de Jacobson, les permite detectar feromonas y señales químicas en el ambiente. Esta habilidad no solo les ayuda a rastrear presas o identificar compañeros potenciales, sino que también los convierte en héroes en diversas áreas de servicio, desde la detección de sustancias ilegales hasta el rescate de personas atrapadas.</p>2024-01-11T16:36:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/302Psicología: El uso de videojuegos durante la infancia mejora la memoria de trabajo años después2020-09-22T22:44:13+00:00Gestión Ingenio y Sociedad<p>Diferentes estudios han demostrado que el uso de videojuegos provoca cambios estructurales y funcionales en el cerebro, como el aumento del tamaño de algunas regiones y la activación de regiones responsables de la atención y de las habilidades visoespaciales. Una nueva investigación de la Universitat Oberta de Catalunya (UOC) (España) va un paso más allá y revela que algunos cambios cognitivos podrían producirse incluso años después de haber dejado de jugar a videojuegos.</p><p> </p><p>Esta es una de las conclusiones de un estudio que publica la revista Frontiers in Human Neuroscience y en el que participaron 27 personas de entre 18 y 40 años con y sin experiencia en este tipo de entretenimiento audiovisual.</p><p> </p><p>"Aquellos que fueron jugadores habituales de videojuegos antes de la adolescencia, a pesar de que en la actualidad ya no lo sean, mostraron un mayor rendimiento en tareas de memoria de trabajo, que implican la retención y la manipulación de información en la mente para producir un resultado", señala Marc Palaus, doctorado en la UOC.</p><p> </p><p>El artículo científico es fruto de la tesis doctoral de Palaus, dirigida por Elena Muñoz y Diego Redolar, investigadores del grupo Cognitive NeuroLab, de los Estudios de Ciencias de la Salud de la UOC. Los tres son coautores del estudio junto con Raquel Viejo, investigadora del mismo equipo.</p><p> </p><p>Los resultados del artículo muestran que los participantes que no tenían experiencia temprana en videojuegos no se beneficiaban de una mejora al procesar e inhibir estímulos irrelevantes. De hecho, eran más lentos que quienes habían jugado a videojuegos de pequeños, lo que concuerda con estudios previos.</p><p> </p><p>Además, "las personas que durante su infancia eran jugadoras habituales de videojuegos tenían un rendimiento inicial mayor al procesar objetos en 3D, aunque estas diferencias se mitigaban tras el periodo de entrenamiento en videojuegos, cuando los dos grupos terminaban rindiendo a un nivel similar", puntualiza Palaus.</p><p>Tomado de NCYT</p>2020-09-22T22:44:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/301Psicología: El uso de videojuegos durante la infancia mejora la memoria de trabajo años después2020-09-22T22:43:50+00:00Gestión Ingenio y Sociedad<p>Diferentes estudios han demostrado que el uso de videojuegos provoca cambios estructurales y funcionales en el cerebro, como el aumento del tamaño de algunas regiones y la activación de regiones responsables de la atención y de las habilidades visoespaciales. Una nueva investigación de la Universitat Oberta de Catalunya (UOC) (España) va un paso más allá y revela que algunos cambios cognitivos podrían producirse incluso años después de haber dejado de jugar a videojuegos.</p><p> </p><p>Esta es una de las conclusiones de un estudio que publica la revista Frontiers in Human Neuroscience y en el que participaron 27 personas de entre 18 y 40 años con y sin experiencia en este tipo de entretenimiento audiovisual.</p><p> </p><p>"Aquellos que fueron jugadores habituales de videojuegos antes de la adolescencia, a pesar de que en la actualidad ya no lo sean, mostraron un mayor rendimiento en tareas de memoria de trabajo, que implican la retención y la manipulación de información en la mente para producir un resultado", señala Marc Palaus, doctorado en la UOC.</p><p> </p><p>El artículo científico es fruto de la tesis doctoral de Palaus, dirigida por Elena Muñoz y Diego Redolar, investigadores del grupo Cognitive NeuroLab, de los Estudios de Ciencias de la Salud de la UOC. Los tres son coautores del estudio junto con Raquel Viejo, investigadora del mismo equipo.</p><p> </p><p>Los resultados del artículo muestran que los participantes que no tenían experiencia temprana en videojuegos no se beneficiaban de una mejora al procesar e inhibir estímulos irrelevantes. De hecho, eran más lentos que quienes habían jugado a videojuegos de pequeños, lo que concuerda con estudios previos.</p><p> </p><p>Además, "las personas que durante su infancia eran jugadoras habituales de videojuegos tenían un rendimiento inicial mayor al procesar objetos en 3D, aunque estas diferencias se mitigaban tras el periodo de entrenamiento en videojuegos, cuando los dos grupos terminaban rindiendo a un nivel similar", puntualiza Palaus.</p><p>Tomado de NCYT</p>2020-09-22T22:43:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/300Salud: Los esteroides anabólicos para aumentar masa muscular causan graves daños en el hígado2020-01-31T20:44:23+00:00Gestión Ingenio y Sociedad<p>Los esteroides anabólicos, empleados frecuentemente por usuarios de gimnasio para el fomento de la masa muscular, pueden provocar una patología del hígado denominada colestasis, pero hasta ahora se desconocía el mecanismo subyacente. En esta línea, una investigación del CIBER de Enfermedades Hepáticas y Digestivas (CIBEREHD) del grupo de José Vicente Castell en el Instituto de Investigación Sanitaria La Fe de Valencia (España), ha demostrado por qué el epistane, ya retirado por la Agencia Española de Medicamentos y Productos Sanitarios, causa daños hepáticos y abre una nueva vía para el estudio de las lesiones en este órgano causadas por otros tipos de medicamentos.</p><p> </p><p>Los autores, en este estudio publicado en Archives of Toxicology, demuestran que el epistane aumenta la síntesis de ácidos biliares conjugados, mediante la inducción de los niveles de un enzima clave para dicha síntesis, el CYP8B1, lo que contribuye al aumento de ácidos biliares en el hígado.</p><p> </p><p>Al complicarse su correcta eliminación por la bilis se provoca la colestasis, una enfermedad caracterizada por la disminución o la ausencia del flujo normal de la bilis desde el hígado hasta el duodeno. Asimismo, los autores también han demostrado que el epistane puede interferir en las vías reguladoras mediadas por algunos receptores nucleares del hígado.</p><p> </p><p>Según explica Petar Petrov, primer firmante del estudio, “caracterizar fenómenos idiosincráticos, es decir, que no ocurren en todos los individuos, no es tarea fácil, ya que el número de casos que aparecen es bajo. En este trabajo, hemos analizado el perfil de los ácidos biliares de hombres jóvenes ingresados en el Hospital La Fe con colestasis tras consumir epistane, detectando un aumento de más de 60 veces en la concentración de ácidos biliares en sangre, sobre todo primarios (ácido cólico) y disminución de los secundarios”.</p><p>Con este punto de partida, los investigadores emplearon hepatocitos humanos tratados con epistane como modelo para caracterizar en detalle los efectos moleculares que este esteroide provoca a las células del hígado, y se ha demostrado igual que en pacientes, que el epistane aumenta los niveles de ácidos biliares in vitro, particularmente el ácido cólico, y los tres principales enzimas que participan en su síntesis.</p><p> </p><p>Además, el esteroide afectó al transporte de ácidos biliares, que junto al aumento de su síntesis, condujo a su acumulación dentro de los hepatocitos. Los ácidos biliares, en concentraciones elevadas, tienen efectos tóxicos y causan daño en el hígado.</p><p> </p><p>En este artículo se demuestra por primera vez la importancia del receptor nuclear de andrógenos del hígado en el metabolismo de los ácidos biliares, y asimismo la amplia variabilidad poblacional de los niveles del enzima CYP8B1 explicaría por qué existen personas con más riesgo y por qué no todas las que usan epistane desarrollan colestasis.</p><p> </p><p>Aparte de su relevancia directa para los usuarios de gimnasios que utilizan de forma ilícita los esteroides para aumentar músculo –se estima que un 6% de los asiduos al gimnasio, unas 20.000 personas en España los toman-; la investigación del CIBEREHD cuenta con una trascendencia mayor ya que permite conocer mejor los mecanismos de la colestasis inducida por medicamentos, que se observa frecuentemente (35-50% de los casos) en los pacientes que padecen una lesión hepática tóxica por fármacos.</p><p> </p><p>Según explica el investigador del CIBEREHD Ramiro Jover, coordinador del estudio, “abrimos de esta manera una nueva vía para el estudio de la colestasis inducida por fármacos, que puede perjudicar el funcionamiento del hígado hasta el punto de que haya un fallo hepático fulminante y sea necesario un trasplante. Como por el momento no existe una terapia específica, esta investigación puede ayudar al desarrollo de nuevos tratamientos”. (Fuente: CIBER/DICYT)</p>2020-01-31T20:44:23+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/299Tecnología: Un buen paso hacia paneles solares sin células tóxicas2019-12-21T12:26:38+00:00Gestión Ingenio y Sociedad<p>El aumento acelerado de la instalación de paneles solares en ámbitos domésticos, industriales y públicos no hace sino reflejar una demanda cada vez mayor (más de 2 millones de nuevas instalaciones en el primer trimestre de 2019 solo en Estados Unidos, el mayor incremento de la historia) para este sistema de obtención de energía.</p><p>Dicha demanda también exige el desarrollo de alternativas más eficientes y baratas que las actuales células solares basadas en silicio (la tecnología más ampliamente utilizada actualmente). Durante los últimos años se han efectuado estudios continuados sobre nuevos tipos de células para <a href="https://es.wikipedia.org/wiki/Panel_solar">paneles solares</a>, como es el caso de la sustitución del silicio por otros materiales, como las perovskitas de haluro de plomo, que son muy prometedoras pero al mismo tiempo inestables. Además, contienen plomo, el cual es tóxico y presenta un potencial peligro para la salud y medioambiental, como sería la contaminación de las aguas subterráneas si los paneles solares <a href="https://noticiasdelaciencia.com/art/35885/reciclaje-de-paneles-solares">no son reciclados</a>.</p><p>Un equipo de ingenieros de la Washington University en St. Louis ha encontrado lo que creen es un <a href="https://www.madrimasd.org/notiweb/noticias/tecnologias-menos-toxicas-fabricacion-celulas-solares">semiconductor más estable y menos tóxico para paneles solares</a>, utilizando para ello un novedoso óxido de perovskita doble, el cual han descubierto a través de análisis de datos y cálculos de mecánica cuántica. Su trabajo se ha publicado en la revista Chemistry of Materials.</p><p>Rohan Mishra y sus colegas hallaron el nuevo semiconductor, que está hecho de potasio, bario, telurio, bismuto y oxígeno (KBaTeBiO6).</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/35935/un-buen-paso-hacia-paneles-solares-sin-celulas-toxicas" target="_blank">CYT</a></p>2019-12-21T12:26:38+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/298Tecnología: Un buen paso hacia paneles solares sin células tóxicas2019-12-21T12:24:37+00:00Gestión Ingenio y Sociedad<p>El aumento acelerado de la instalación de paneles solares en ámbitos domésticos, industriales y públicos no hace sino reflejar una demanda cada vez mayor (más de 2 millones de nuevas instalaciones en el primer trimestre de 2019 solo en Estados Unidos, el mayor incremento de la historia) para este sistema de obtención de energía.</p><p>Dicha demanda también exige el desarrollo de alternativas más eficientes y baratas que las actuales células solares basadas en silicio (la tecnología más ampliamente utilizada actualmente). Durante los últimos años se han efectuado estudios continuados sobre nuevos tipos de células para <a href="https://es.wikipedia.org/wiki/Panel_solar">paneles solares</a>, como es el caso de la sustitución del silicio por otros materiales, como las perovskitas de haluro de plomo, que son muy prometedoras pero al mismo tiempo inestables. Además, contienen plomo, el cual es tóxico y presenta un potencial peligro para la salud y medioambiental, como sería la contaminación de las aguas subterráneas si los paneles solares <a href="https://noticiasdelaciencia.com/art/35885/reciclaje-de-paneles-solares">no son reciclados</a>.</p><p>Un equipo de ingenieros de la Washington University en St. Louis ha encontrado lo que creen es un <a href="https://www.madrimasd.org/notiweb/noticias/tecnologias-menos-toxicas-fabricacion-celulas-solares">semiconductor más estable y menos tóxico para paneles solares</a>, utilizando para ello un novedoso óxido de perovskita doble, el cual han descubierto a través de análisis de datos y cálculos de mecánica cuántica. Su trabajo se ha publicado en la revista Chemistry of Materials.</p><p>Rohan Mishra y sus colegas hallaron el nuevo semiconductor, que está hecho de potasio, bario, telurio, bismuto y oxígeno (KBaTeBiO6).</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/35935/un-buen-paso-hacia-paneles-solares-sin-celulas-toxicas" target="_blank">CYT</a></p>2019-12-21T12:24:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/297Medio Ambiente: Bacterias en lugar de fertilizantes químicos, y sin impactos ambientales2019-07-31T13:25:11+00:00Gestión Ingenio y Sociedad<p>Científicos del Laboratorio Nacional de Biorrenovables (LNBR), con sede en el Centro Nacional de Investigaciones en Energía y Materiales (CNPEM), Brasil, estudian bacterias que promueven el crecimiento de las plantas. Debido a que se los aisló en el suelo, estos organismos tienen potencial de uso como fertilizantes sin contaminar las aguas ni causar alteraciones que perjudiquen al propio suelo, tal como puede ocurrir con los fertilizantes químicos.</p><p>Este estudio estuvo coordinado por Juliana Velasco, investigadora del LNBR-CNPEM, y se lo dio a conocer el durante el Workshop Biopharma and Metabolomics, realizado en la sede de la FAPESP. Este proyecto es uno de los que cuentan con financiación en el marco de un acuerdo de cooperación suscrito entre la FAPESP y Agilent Technologies.</p><p>Luego de aislar bacterias del suelo, el equipo de Velasco empezó a identificar los llamados compuestos orgánicos volátiles (COVs), productos derivados del metabolismo de las bacterias que promueven el crecimiento de las plantas. “El objetivo ahora consiste en investigar y entender de qué manera se altera el metabolismo de las plantas a causa de esas moléculas de señalización”, declaró Velasco.</p><p>Durante la primera fase del trabajo se emplearon dos especies de plantas modelos: la Arabidopsis thaliana y la Setaria viridis. Los investigadores seleccionaron las cepas bacterianas que aportaron más al crecimiento de esas plantas y ahora las están probando en arroz, aún en laboratorio.</p><div class="new_text "><p>“De entrada, se hace imposible reemplazar totalmente a los fertilizantes químicos. Pero seguramente podremos disminuir considerablemente su uso al aplicar productos biológicos”, dijo Velasco.</p><p> </p><p>La meta consiste en desarrollar un bioproducto que pueda aplicarse en el suelo en forma sólida (como polvo) o líquida, al principio en cultivo tales como los de caña de azúcar, maíz y arroz. Ya se emplean actualmente tecnologías similares para la fijación del nitrógeno.</p><p>Velasco explicó que, en buena parte de los cultivos de soja brasileños, se aplican productos bacterianos como sustitutos de los abonos nitrogenados. El uso excesivo de estos fertilizantes es conocido porque provoca la contaminación del suelo y de los ecosistemas acuáticos, aparte de aumentar la emisión de óxido nitroso, que agrava el efecto invernadero.</p><p>La FAPESP y Agilent Technologies han emitido hasta ahora tres convocatorias a la presentación de propuestas conjuntas, con selección y apoyo a seis proyectos de investigación.</p><p>“Esta asociación ha generado oportunidades sumamente interesantes para los investigadores vinculados a universidades e institutos de investigación del estado de São Paulo”, dijo Carlos Henrique de Brito Cruz, director científico de la FAPESP, durante la apertura del evento.</p><p>Jim Hollenhorst, director sénior de tecnología de Agilent, comentó que alrededor del 8% de la facturación de la empresa se invierte anualmente en investigación y desarrollo. La mayoría se refiere a lo que la empresa denomina como I&D orgánicos, es decir, dentro de la propia compañía.</p><p>“Pero una parte de nuestros laboratorios de investigación se enfoca en innovación a largo plazo, con un riesgo mayor, pero con un potencial muy alto de retorno. No creemos que todas las buenas ideas estén en nuestra empresa, y esta es la principal razón por la cual estamos actuando en el marco de asociaciones como esta, acá y en otras partes del mundo”, dijo Hollenhorst, quien a su vez afirmó en Brasil vislumbra bastante potencial para entablar asociaciones con la empresa. (Fuente: AGENCIA FAPESP/DICYT)</p></div><div class="floatbreaker">Tomado de <a href="https://noticiasdelaciencia.com/art/33803/bacterias-en-lugar-de-fertilizantes-quimicos-y-sin-impactos-ambientales" target="_blank">NCYT</a></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424"></ins></div></div></div>2019-07-31T13:25:11+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/296Medio Ambiente: Bacterias en lugar de fertilizantes químicos, y sin impactos ambientales2019-07-31T13:24:42+00:00Gestión Ingenio y Sociedad<p>Científicos del Laboratorio Nacional de Biorrenovables (LNBR), con sede en el Centro Nacional de Investigaciones en Energía y Materiales (CNPEM), Brasil, estudian bacterias que promueven el crecimiento de las plantas. Debido a que se los aisló en el suelo, estos organismos tienen potencial de uso como fertilizantes sin contaminar las aguas ni causar alteraciones que perjudiquen al propio suelo, tal como puede ocurrir con los fertilizantes químicos.</p><p>Este estudio estuvo coordinado por Juliana Velasco, investigadora del LNBR-CNPEM, y se lo dio a conocer el durante el Workshop Biopharma and Metabolomics, realizado en la sede de la FAPESP. Este proyecto es uno de los que cuentan con financiación en el marco de un acuerdo de cooperación suscrito entre la FAPESP y Agilent Technologies.</p><p>Luego de aislar bacterias del suelo, el equipo de Velasco empezó a identificar los llamados compuestos orgánicos volátiles (COVs), productos derivados del metabolismo de las bacterias que promueven el crecimiento de las plantas. “El objetivo ahora consiste en investigar y entender de qué manera se altera el metabolismo de las plantas a causa de esas moléculas de señalización”, declaró Velasco.</p><p>Durante la primera fase del trabajo se emplearon dos especies de plantas modelos: la Arabidopsis thaliana y la Setaria viridis. Los investigadores seleccionaron las cepas bacterianas que aportaron más al crecimiento de esas plantas y ahora las están probando en arroz, aún en laboratorio.</p><div class="new_text "><p>“De entrada, se hace imposible reemplazar totalmente a los fertilizantes químicos. Pero seguramente podremos disminuir considerablemente su uso al aplicar productos biológicos”, dijo Velasco.</p><p> </p><p>La meta consiste en desarrollar un bioproducto que pueda aplicarse en el suelo en forma sólida (como polvo) o líquida, al principio en cultivo tales como los de caña de azúcar, maíz y arroz. Ya se emplean actualmente tecnologías similares para la fijación del nitrógeno.</p><p>Velasco explicó que, en buena parte de los cultivos de soja brasileños, se aplican productos bacterianos como sustitutos de los abonos nitrogenados. El uso excesivo de estos fertilizantes es conocido porque provoca la contaminación del suelo y de los ecosistemas acuáticos, aparte de aumentar la emisión de óxido nitroso, que agrava el efecto invernadero.</p><p>La FAPESP y Agilent Technologies han emitido hasta ahora tres convocatorias a la presentación de propuestas conjuntas, con selección y apoyo a seis proyectos de investigación.</p><p>“Esta asociación ha generado oportunidades sumamente interesantes para los investigadores vinculados a universidades e institutos de investigación del estado de São Paulo”, dijo Carlos Henrique de Brito Cruz, director científico de la FAPESP, durante la apertura del evento.</p><p>Jim Hollenhorst, director sénior de tecnología de Agilent, comentó que alrededor del 8% de la facturación de la empresa se invierte anualmente en investigación y desarrollo. La mayoría se refiere a lo que la empresa denomina como I&D orgánicos, es decir, dentro de la propia compañía.</p><p>“Pero una parte de nuestros laboratorios de investigación se enfoca en innovación a largo plazo, con un riesgo mayor, pero con un potencial muy alto de retorno. No creemos que todas las buenas ideas estén en nuestra empresa, y esta es la principal razón por la cual estamos actuando en el marco de asociaciones como esta, acá y en otras partes del mundo”, dijo Hollenhorst, quien a su vez afirmó en Brasil vislumbra bastante potencial para entablar asociaciones con la empresa. (Fuente: AGENCIA FAPESP/DICYT)</p></div><div class="floatbreaker">Tomado de <a href="https://noticiasdelaciencia.com/art/33803/bacterias-en-lugar-de-fertilizantes-quimicos-y-sin-impactos-ambientales" target="_blank">NCYT</a></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424"></ins></div></div></div>2019-07-31T13:24:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/295Tecnología: Nuevas tecnologías para reducir las emisiones contaminantes de los vehículos2019-04-10T19:50:01+00:00Gestión Ingenio y Sociedad<p>En los próximos años, a pesar del esperado incremento de vehículos eléctricos, aproximadamente un 98% de los coches estará aún impulsado exclusiva o parcialmente por un motor de combustión interna, ya sea con diésel, gasolina o, en menor medida, gas.</p><div>En este contexto, investigadores de la Universitat Politècnica de València (UPV) en España y la multinacional Littelfuse están trabajando en el desarrollo de nuevas tecnologías que permitirán obtener motores de combustión más ecológicos. Sus esfuerzos se centran en la mejora de las prestaciones del sistema de ignición del motor, componente clave en los vehículos de gasolina. Su correcto funcionamiento es fundamental para asegurar la fiabilidad del motor -y del vehículo en general- e influye directamente en las emisiones del mismo.</div><p><br />Según explica Ricardo Novella, investigador del Instituto CMT-Motores Térmicos de la UPV, las nuevas regulaciones de emisiones imponen requisitos mucho más exigentes para la electrónica que controla el motor, por lo que se espera una rápida e importante revolución tecnológica en los motores gasolina a nivel mundial. “Y es en esta revolución donde entra en juego la investigación que estamos desarrollando con Littelfuse. Los sistemas de ignición resultado de esta colaboración se adelantarán incluso a las nuevas normativas de control de emisiones y contribuirán a conseguir esos motores cada vez más verdes”, destaca Novella.</p><p><br />Mediante un estudio exhaustivo de las nuevas y futuras normativas de control de emisiones esperables en los próximos años, y con un motor instalado en un banco de pruebas ubicado en el CMT-Motores Térmicos, los investigadores de la UPV y Littelfuse determinan los puntos de operación más representativos para el motor en una situación de conducción real, que se replican en el laboratorio.</p><p>En el motor de pruebas es posible emular todas las condiciones de operación posibles y controlar que los gases emitidos por el motor cumplan con los escenarios derivados de las normativas por venir que se han determinado con anterioridad. De ese modo se puede medir y predecir los requisitos para las futuras generaciones de sistemas de ignición con años de anterioridad.</p><div><div class="new_text "><p>El motor de pruebas consiste en un motor de investigación monocilíndrico equipado con sistemas de nueva generación altamente flexibles donde todos los parámetros de funcionamiento son regulables. La mezcla aire/combustible admitida es regulable en presión, temperatura y composición, y la re-circulación de gases (EGR) es posible hasta niveles por encima de un 40%. La sincronización de encendido puede ser controlada en tiempo real por la Unidad de Control Electrónica de Ignición que integra los Sistemas de Ignición de Littelfuse. Las emisiones gaseosas de escape (CO2, NOx, CO y otros) y las partículas pueden ser analizadas y medidas de forma continua.</p><p>“El sector de la automoción evoluciona muy rápidamente, con nuevas regulaciones cada pocos años, lo que provoca que los fabricantes de dispositivos tengan que adelantarse a las tendencias con suficiente antelación para tener el producto listo en el momento más adecuado, garantizando los niveles de calidad y fiabilidad exigidos. Analizando las restricciones de las futuras regulaciones de emisiones y testeándolas en un motor de pruebas como el del CMT-Motores Térmicos de la Universitat Politècnica de València, generaremos un conocimiento más profundo del sistema para su posterior transferencia a nuevas tecnologías y desarrollos en Littelfuse”, concluye José Padilla, Global Product Marketing Manager de la multinacional. (Fuente: UPV / DICYT)</p></div><div class="floatbreaker"> </div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div></div>2019-04-10T19:50:01+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/294Otros artículos: El hallazgo de un yacimiento prehistórico en Euskadi aportará datos sobre uno de los periodos menos conocidos de su historia2019-04-10T19:46:43+00:00Gestión Ingenio y Sociedad<p>Entre los estudios realizados por el momento, los análisis de termoluminiscencia y de carbono 14, para la datación de los restos encontrados, sitúan el yacimiento entre la última etapa del Neolítico y los estados más iniciales del Calcolítico, es decir, hace 5.000 años, el momento en el que comienzan a generalizarse los asentamientos al aire libre y a darse los pasos hacia una estructura social más compleja como la actual.</p><p>El descubrimiento ha supuesto una sorpresa para el equipo investigador de la UPV/EHU dedicado a esta parte de la investigación en Punta Begoña, dado que apenas hay testimonios de este tipo en nuestro territorio, y particularmente en áreas de litoral. La naturaleza de estos asentamientos al aire libre dificulta enormemente tanto su conservación como su visibilidad. Más aún en una zona tan densamente edificada como esta franja de la costa de Bizkaia y en pleno casco urbano del municipio de Getxo. A ello se suma la fragilidad de los restos, que han llevado a proteger y tapar el yacimiento para garantizar el mantenimiento de los mismos hasta que las condiciones meteorológicas permitan trabajar sobre él con garantías.</p><p>Sin embargo, los sondeos efectuados por los arqueólogos de GPAC (Grupo de Investigación en Patrimonio Construido) en 2018 avanzan la presencia de evidencias que informan sobre la actividad que pudo tener este lugar por aquel entonces. “Aunque los restos recuperados no son espectaculares a la vista, ya que se tratan de fragmentos muy pequeños de cerámica, sílex y restos de carbón vegetal, algo habitual en este periodo histórico, han permitido corroborar la antigüedad del yacimiento, al tiempo que serán muy útiles para aportar datos sobre nuestra historia y formas de vida”, indica Peraita.</p><div><p>En el hecho del hallazgo, la rigurosidad del proceso de recuperación y puesta en valor de las Galerías Punta Begoña ha sido determinante. “Podemos hablar de un caso de extraordinaria fortuna, ya que, de haberse seguido un proceso de restauración al uso en las galerías, casi con total seguridad, el yacimiento habría sido destruido”, concluye.</p><p>A partir de aquí, la prioridad pasa por recabar datos sobre un momento poco conocido de la historia de Euskadi, a través de una campaña de excavación en la que se primarán sus valores didácticos y que, al igual que el resto del monumento, estará abierta al público para que pueda ir conociendo de primera mano el proceso de la excavación y sus conclusiones. Un proceso del que se trasladarán los resultados tan pronto como cada uno de ellos vaya siendo contrastado de forma fehaciente, siempre conforme a los pasos que exige un estudio científico, en un empeño máximo por la transparencia y la participación social.</p><p>La salida a la luz del yacimiento enriquece el proyecto, pero también demanda un esfuerzo suplementario para compatibilizar la obra y el plan de divulgación con los contenidos y las posibilidades que se incorporan. Hasta el momento, se ha puesto en marcha una campaña de prácticas académicas en la excavación, dirigida a alumnado universitario del grado de Historia de la UPV/EHU, con la que contribuir a su formación integral, además de al impulso de la empleabilidad de estos futuros profesionales mediante la adquisición de nuevas competencias. La inscripción a las prácticas podrá hacerse a partir de la semana próxima por los canales habituales definidos por la UPV/EHU. Al tiempo se está trabajando en distintas acciones de divulgación al público, en general, por medio de visitas específicas, de actividades familiares y de talleres escolares o de futuras rutas y exposiciones en colaboración con otras entidades de gran prestigio en el campo, como el Museo Arqueológico (Arkeologi Museoa) de Bilbao. (Fuente: UPV/EHU)</p></div>2019-04-10T19:46:43+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/293Salud: Confirman el nexo entre el cáncer de próstata y el cáncer de mama hereditario2019-01-10T00:00:00+00:00Gestión Ingenio y Sociedad<p>El cáncer de próstata más agresivo, uno de los tumores que más muertes causan en hombres, se asocia a mutaciones en el gen BRCA2, relacionado también con cáncer de mama hereditario, ovario y páncreas, entre otros. Lo confirma el trabajo que ahora se publica en Journal of Clinical Oncology, liderado por Elena Castro, Nuria Romero-Laorden y David Olmos, investigadores de la Unidad de Investigación Clínica de Cáncer de Próstata del Centro Nacional de Investigaciones Oncológicas (CNIO) (España).</p><p>Este hallazgo implica que los familiares de pacientes de cáncer de próstata con mutaciones en BRCA2 y en otros genes de la reparación del ADN podrían tener un mayor riesgo de desarrollar tumores y, por tanto, deberían acceder a programas de prevención del cáncer familiar.</p><p>Además, el nuevo trabajo muestra que los pacientes de cáncer de próstata con mutaciones en BRCA2 evolucionan peor y responden mal al tratamiento habitual para esta enfermedad. Los investigadores estudian ya si podrían beneficiarse, en cambio, de otras terapias ya en uso en cáncer de ovario y mama.</p><p>Los resultados que ahora se publican son los primeros del estudio PROREPAIR-B, coordinado desde el CNIO en colaboración con el Instituto de Investigación Biomédica de Málaga (IBIMA) y el Instituto de Genética Médica y Molecular (INGEMM). En él han participado 38 hospitales de toda España. Durante cinco años –desde 2013– se ha seguido a más de 400 pacientes de cáncer de próstata metastásico del tipo resistente a la castración –o bloqueo hormonal–, para analizar sus rasgos genéticos y relacionarlos con el progreso de la enfermedad y la respuesta al tratamiento.</p><p>“Esta es la primera demostración prospectiva –basada no en la revisión de datos, sino en el seguimiento de los pacientes desde el diagnóstico de cáncer avanzado– de que las mutaciones en BRCA2, por sí mismas e independientemente de otros factores, confieren peor pronóstico y pueden condicionar diferente respuesta a los tratamientos”, explica Castro, primera firmante del artículo.</p><p>“Es importante insistir en que hemos identificado mutaciones heredables, aunque en muchos casos no existían antecedentes familiares de cáncer que hicieran sospechar la presencia de estas alteraciones. Buscar estas mutaciones en los pacientes con cáncer de próstata metastásico es importante para el pronóstico y el manejo de estos pacientes, pero también para sus familiares, dado que aumentan el riesgo de otros tumores como cáncer de mama, ovario y páncreas”, prosigue Castro.</p><p>Se trata del primer estudio en todo el mundo que ha seguido durante un periodo prolongado a un alto número de pacientes de cáncer de próstata metastásico resistente a la castración con alteraciones heredables.</p><div class="new_text "><p>“Nuestro estudio demuestra que los protocolos de tratamiento y seguimiento que utilizamos en los pacientes con cáncer de próstata avanzado pueden ser insuficientes para aquellos con mutaciones en BRCA2. Estamos trabajando para entender las características que hacen a estos tumores más agresivos y para definir nuevas estrategias de manejo que mejoren el pronóstico de estos pacientes”, concluye David Olmos, jefe de la Unidad de Investigación Clínica de Cáncer de Próstata del CNIO y uno de los coordinadores del trabajo.</p><p>El cáncer de próstata es el más frecuente en hombres en España y en los países occidentales, y el segundo a nivel mundial. Aunque en los últimos años la supervivencia ha aumentado de forma continuada debido al diagnóstico precoz, todavía representa la tercera causa de muerte por cáncer en hombres europeos.</p><p>La mayoría de los tumores se detecta en estadios muy iniciales, y el pronóstico es entonces mucho mejor. Cuando el tumor está en fase avanzada la forma más habitual de combatirlo es mediante bloqueo hormonal, pero hay pacientes que no responden a este tratamiento y desarrollan lo que en términos técnicos se llama cáncer de próstata metastásico resistente a la castración. Una parte de estos pacientes, además, responde peor a las terapias aprobadas para este cáncer de próstata, el más agresivo. En general, la supervivencia media en pacientes de cáncer de próstata avanzado no supera los tres años tras hacerse resistentes al bloqueo hormonal.</p><p>En PROREPAIR B los investigadores buscan marcadores genéticos que permitan identificar lo antes posible a los pacientes de peor pronóstico. Además, conocer mejor los rasgos genéticos de los tumores más agresivos ayuda a explorar nuevas vías de tratamiento.</p><p>En particular, los investigadores se han concentrado en estudiar patrones genéticos asociados a los defectos en los mecanismos de reparación del ADN. Las células tumorales tienen muchos más defectos genéticos que las células normales, y necesitan por tanto mecanismos muy eficaces para reparar estos defectos. Como explica Castro, “sabíamos que la vía de reparación del ADN es muy importante en cáncer de próstata, lo que no sabíamos es la proporción de pacientes con enfermedad avanzada y mutaciones heredadas en estos genes en nuestra población”.</p><p>El análisis ha mostrado que el 3% de los pacientes tiene mutaciones en BRCA2, que asciende hasta el 16% cuando consideramos todos los genes asociados con la reparación del daño del ADN y analizados en el estudio. “Es un porcentaje que puede parecer relativamente bajo, aunque representa a un número muy significativo de pacientes, dada la alta incidencia del cáncer de próstata”, señala Castro.</p><p>Los investigadores creen que es importante mejorar las estrategias de tratamiento de estos pacientes, tanto optimizando los tratamientos ahora disponibles, como con la introducción de nuevos fármacos. Por ejemplo, en algunos de estos pacientes podrían funcionar un tipo de fármacos que interfieren precisamente con los mecanismos de reparación del ADN -la célula muere porque no es capaz de corregir sus defectos genéticos-.</p><p>Se trata de los inhibidores de PARP, cuyo uso está aprobado ya en cáncer de ovario y cuya eficacia en cáncer de próstata se está estudiando en varios ensayos clínicos. Otra opción es el carboplatino, un fármaco de menor coste ya aprobado y utilizado rutinariamente para otros tipos tumorales, como cáncer de mama y ovario. Los investigadores han obtenido ya financiación del Departamento de la Defensa de Estados Unidos para desarrollar un ensayo clínico en nuestro país que demuestre la efectividad de los platinos en pacientes con cáncer de próstata y defectos de la reparación del ADN.</p><p>Este estudio se integra en la plataforma PROCURE, una iniciativa de la Unidad de Investigación Clínica de Cáncer de Próstata del CNIO que cuenta con múltiples estudios prospectivos para la búsqueda de biomarcadores. Esta plataforma es fruto de la colaboración y esfuerzo de múltiples investigadores españoles, y ha dado lugar a una de las mayores colecciones prospectivas multicéntricas de muestras biológicas de pacientes con cáncer de próstata avanzado en el ámbito académico europeo. (Fuente: CNIO)</p></div><div class="floatbreaker"> </div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div><div class="google-auto-placed ap_container"><ins class="adsbygoogle adsbygoogle-noablate" data-ad-format="auto" data-ad-client="ca-pub-5663005764905852" data-adsbygoogle-status="done"><ins id="aswift_6_expand"></ins></ins></div>2019-01-10T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/292Medio Ambiente: Las crecientes llegadas de polvo sahariano a la península afectan a las microalgas2019-01-10T12:09:27+00:00Gestión Ingenio y Sociedad<p>Científicos de la Universidad de Granada (UGR) (España) han descubierto que los frecuentes eventos climáticos extremos con entradas de polvo de origen sahariano a la Península Ibérica durante la última década ha llevado al declive de algas mixotróficas (mitad planta, mitad animal), especies clave en la red trófica de ecosistemas acuáticos.</p><p>El 50 por ciento de la producción de oxígeno del planeta depende de las microalgas. Una alta proporción de ellas presenta un metabolismo singular denominado mixotrófico. Estas microalgas mixotróficas son capaces de funcionar como plantas (realizando la fotosíntesis) y como animales “carnívoros” (depredando bacterias) simultáneamente, y potencian la transferencia de carbono y nutrientes minerales entre los eslabones de las redes tróficas.</p><p>Los resultados de la investigación publicados en la prestigiosa revista Scientific Reports han demostrado que las crecientes entradas de polvo sahariano rico en nutrientes minerales, unidas al incremento de la temperatura media de las lagunas de Sierra Nevada entre el año 2005 y 2015, están provocando un importante cambio en las microalgas dominantes.</p><p>“Este cambio es consistente con una disminución en las tasas de depredación de bacterias asociada a la actividad de microalgas mixótrofas entre 2005 y 2015”, explica el autor principal de este trabajo, Juan Manuel González Olalla, investigador del departamento de Ecología de la UGR y alumno del programa de Doctorado de Biología Fundamental y de Sistemas de la Escuela Internacional de Posgrado.</p><p>Paralelamente, la actividad fotosintética de estas microalgas se ha incrementado debido al predominio de organismos fotosintéticos estrictos (es decir, sin capacidad de depredación) que proporcionan un tono verde a las lagunas de Sierra Nevada.</p><p>El declive de estas algas mixotróficas -como Chromulina nevadensis, endémica de Sierra Nevada- supone una pérdida de biodiversidad y un deterioro en la eficiencia de funcionamiento de estos ecosistemas ligado a un mayor número de eslabones conformando la red trófica, advierten los investigadores. (Fuente: UGR/DICYT)</p>2019-01-10T12:09:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/291Ciencia: Descubren una protoestrella con un disco deforme a muy temprana edad2019-01-08T15:15:35+00:00Gestión Ingenio y Sociedad<p>Usando el Atacama Large Millimeter/subillimeter Array (ALMA) en Chile, investigadores observaron por primera vez un disco deforme alrededor de una joven protoestrella que se formó hace apenas unas decenas de miles de años. Esto implica que la desalineación de órbitas planetarias de muchos sistemas, incluido nuestro propio Sistema Solar, pueden tener su origen en tempranas distorsiones del disco protoplanetario que da origen a los planetas.</p><p>Los planetas de nuestro Sistema Solar orbitan alrededor del Sol en planos que están como mucho 7 grados desalineados con el ecuador del mismo Sol. Se sabe desde hace un tiempo que muchos planetas extrasolares (que se encuentran en sistemas planetarios distintos al nuestro) tienen órbitas que no se encuentran alineadas en un solo plano o con el ecuador de su estrella central. Una explicación para esto es que algunos de ellos podrían haber sufrido colisiones con otros objetos en el sistema o la influencia de estrellas pasando por o cerca del sistema, afectando sus órbitas iniciales.</p><p><img src="/public/site/images/mikhail/Protoestrella1.JPG" alt="" /></p><p>Sin embargo, permanece la posibilidad de que la desalineación de estos planetas se originaría en realidad por una deformación de la nube en que nacen la estrella y los planetas. Imágenes recientes de discos protoplanetarios, discos de gas y polvo que rotan en los que se forman los planetas alrededor de una estrella central, han mostrado ya estas deformaciones, pero se mantenía incierto que tan temprano aparecen estas.</p><p>El grupo de investigadores del Clúster para la Investigación Pionera (CPR, por su sigla en inglés) de RIKEN y de la Universidad de Chiba, en Japón, publicó en la revista Nature sus últimos descubrimientos describiendo que L1527, una joven protoestrella aún inserta en una nube incubadora, tiene un disco dividido en dos partes: una sección interior que rota en un plano y una exterior en un plano diferente. El disco es muy joven y se encuentra aún en crecimiento. L1527 se encuentra a 450 años-luz de la Tierra en la nube molecular de Tauro y es un buen objeto de estudio ya que se su plano rotacional se encuentra prácticamente alineado con nuestro eje de visión.</p><div class="new_text "><p>Según explica Nami Sakai, del equipo de investigación, “estas observaciones muestran que es concebible que la desalineación de los planos orbitales puede ser causada por una estructura deforme originada en las etapas más tempranas de formación planetaria. Tendremos que investigar más sistemas para saber si este es un fenómeno común o no”.</p><p>Queda la duda de qué es lo que origina estas deformaciones en el disco. Sakai sugiere dos posibles explicaciones: “una posibilidad es que irregularidades en el flujo de gas y polvo en la nube protoestelar se manifiestan de esta manera en el disco; otra posibilidad es que el campo magnético de la protoestrella se encuentre en un plano distinto al de rotación del disco, forzando la sección interna del disco a diferenciarse del resto”. Agrega además que esperan determinar en investigaciones futuras la causa de las deformaciones en el disco. (Fuente: Observatorio Alma / DICYT)</p></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div>2019-01-08T15:15:35+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/290Ciencia: Un remanente de supernova en varias longitudes de onda2019-01-08T15:07:37+00:00Gestión Ingenio y Sociedad<p>Puede que el Año Nuevo haya pasado, pero aún no hemos terminado con los fuegos artificiales. Esta imagen, que incluye datos del observatorio espacial Herschel de la ESA, muestra los restos de una explosión, aunque no de las que vemos durante las celebraciones del cambio de año, sino de tipo estelar.</p><p>El objeto de la imagen, denominado G54.1+0.3, es un remanente de supernova, lo que queda de una estrella masiva que murió de manera violenta. Se halla a unos 20.000 años luz de distancia, en la constelación boreal de Sagitta (la Flecha).</p><p><img src="/public/site/images/mikhail/Supernova1.JPG" alt="" /></p><p>Cuando la estrella se quedó sin combustible, expulsó sus capas exteriores en una potente explosión, al tiempo que su núcleo colapsó debido a la gravedad para dar lugar a una densísima estrella de neutrones. Los restos de esta particular explosión constituyen un púlsar, una estrella de neutrones que rota a gran velocidad y brilla con fuerza en las secciones de ondas de radio y rayos X del espectro electromagnético.</p><p>Además del remanente estelar, llaman la atención el polvo y el gas que lo envuelven. De acuerdo con un estudio reciente de J. Rho y otros, estas capas contienen sílice (también conocida como dióxido de silicio, o SiO2), uno de los principales componentes de numerosas rocas en nuestro planeta, y que suma el 60 % de la corteza terrestre. Este estudio es el primero en mostrar que este ingrediente común en materiales cotidianos, como la arena o el vidrio, se puede formar durante supernovas.</p><p>Esta imagen combina datos en el infrarrojo y en rayos X recopilados por tres observatorios espaciales y observaciones de radio obtenidas desde la Tierra.</p><p>Los datos de Herschel, que en esta vista aparecen con tonos verdosos y corresponden a una longitud de onda de infrarrojos de 70 micras, fueron fundamentales para que los astrónomos pudieran detectar sílice en la polvorienta envoltura de este remanente de supernova, junto con las observaciones en el infrarrojo medio del telescopio espacial Spitzer de la NASA, con longitudes de 24 micras y que se muestran en azul.</p><p>Los datos de radio, obtenidos por el Karl G. Jansky Very Large Array de Nuevo México (Estados Unidos), están representados en rojo, mientras que los tonos de amarillo corresponden a los datos de rayos X del observatorio Chandra de la NASA.</p><p>Herschel, que estuvo operativo entre 2009 y 2013, dejó un legado de valiosos datos que cada año siguen produciendo multitud de resultados científicos. El estudio del remanente de supernova G54.1+0,3 se basa en datos de archivo de uno de los programas clave del observatorio: Hi-GAL, el estudio del Plano Galáctico realizado por Herschel en el infrarrojo. (Fuente: ESA)</p>2019-01-08T15:07:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/289Unicafam: Presentación de la tercera medición del Índice de Competitividad Turística de Colombia2018-11-29T00:00:00+00:00Gestión Ingenio y Sociedad<p>El Centro de Pensamiento Turístico, integrado por la Asociación Hotelera y Turística de Colombia (<span style="text-decoration: underline;">Cotelco</span>) y la Fundación Universitaria Unicafam, presentaron el Índice de Competitividad Turística Regional de Colombia con la participación del presidente de la República, Iván Duque.</p><p>“Este informe demuestra los esfuerzos de las regiones por hacer del turismo un sector cada vez más competitivo. En otras ocasiones he manifestado que nuestro interés es hacer de este sector económico el nuevo petróleo de Colombia”, dijo el primer mandatario.</p><p>De acuerdo con el informe, Bogotá, Bolívar y Valle del Cauca fueron los departamentos que lideraron el ranking del país entre los 26 territorios analizados gracias a la oferta de prestadores de servicios turísticos activos y la gestión cultural que han adelantado para hacer de Colombia un destino atractivo para los turistas.</p><p><img src="/public/site/images/mikhail/Duque_rector_casa_de_nariño1.JPG" alt="" /></p><p>“La industria turística de Colombia ha experimentado un crecimiento importante en los últimos años, gracias al trabajo colaborativo entre el sector público y privado. Sin duda, una mejor imagen a nivel internacional, sumado al desarrollo de la infraestructura y el manejo económico, han puesto a Colombia en la mira del turismo internacional, hecho que se ve reflejado en el aumento de llegada de extranjeros residentes, cifra que en lo corrido del año se ubica en casi tres millones y medio de turistas”, dijo Gustavo Toro, presidente de Cotelco.</p><p>En el análisis por ciudades, Cartagena, Medellín y Barranquilla fueron los punteros gracias a su desarrollo cultural y de infraestructura, además presentaron un gran flujo de turistas extranjeros en lo corrido de 2018.</p><p>“El turismo es una herramienta muy importante para la generación de empleo e ingresos en las poblaciones vinculadas con las múltiples actividades que hacen parte de la cadena de valor de esta industria. Incluso, en muchos de nuestros municipios, el turismo es el principal sector económico y sustento para miles de hogares”, indicó Cristina Varela, , directora de la Escuela de Turismo y Gastronomía de Unicafam.</p><p><a href="https://www.larepublica.co/empresas/bogota-bolivar-y-valle-del-cauca-lideraron-el-ranking-de-competitividad-turistica-2799340" target="_blank">Tomado de la República</a></p>2018-11-29T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/288Unicafam: Primer simposio sobre ingenio y el emprendimiento en Unicafam2018-11-26T00:00:00+00:00Gestión Ingenio y Sociedad<p><span>En el marco de los 10 años de la institución, el día del Administrador y la 5ta Semana de Ingeniería, las Facultades de Ingeniería y de Ciencias Administrativas en alianza con el Consejo Profesional de Administración de Empresas – CPAE, Microsoft Colombia y Willy’s Pizza, organizaron este escenario académico con el objetivo de generar un espacio de conocimiento emprendedor, alrededor de una muestra empresarial, presentación de pósteres y la participación de conferencistas y ponentes, interesados en la formación de futuros profesionales emprendedores, comprometidos con el desarrollo socioeconómico del país.</span></p><div class="item-page"><div><p><img src="/public/site/images/mikhail/simposio_IE1.JPG" alt="" />Con la participación de más de 250 asistentes, el primer día del evento contó con la presencia de reconocidos conferencistas que compartieron su mirada acerca del emprendimiento, incluyendo a Raymond Aurborg, docente de la Facultad de Ingeniería con su proyecto de innovación “Girojet”; Elias Maida, Presidente Creativo de EM2 Entertainment, una compañía colombiana que lleva 12 años inspirando y fascinando a través de grandes propuestas y ejecuciones de eventos de moda y arte en Estados Unidos, Latinoamérica y El Caribe. Milton Ricardo Villar, asesor de AppsCo, una iniciativa del Ministerio de Tecnologías de la Información y las Comunicaciones que busca apoyar emprendimientos TIC en el país, presentó cómo a través de las fases de acompañamiento de Apps.co, se generan oportunidades para que los colombianos puedan emprender con sus ideas y negocios digitales. </p><p><img src="http://www.unicafam.edu.co/images/Noticias/2018/simposio/IMG_2775.JPG" alt="IMG 2775" width="330" height="220" />La segunda jornada, la mayor parte del día transcurrió con la presentación de ponencias relacionadas con proyectos de investigación en emprendimiento, pósteres de investigación, Desarrollo e Innovación (I+D+I) y pósteres de emprendimiento, presentados por estudiantes y docentes de Unicafam, así como de otras Instituciones de Educación participantes, incluyendo a la Corporación Universitaria Minuto de Dios, la Fundación Universitaria Unicervantes, la Fundación Universitaria Los Libertadores y el Servicio Nacional de Aprendizaje – SENA. Un espacio cuyo propósito era divulgar los resultados de investigaciones relacionados con el espíritu empresarial.</p><p>La agenda del evento incluyó la realización de dos talleres prácticos, el primero denominado “The Customer Experience" a cargo de Juan Carlos Osorio Echeverri, experto en consultoría de estrategia y proyectos que involucran el pensamiento creativo y disruptivo; y el segundo, denominado “Formalización y Creación de Empresas”, presentado por la Cámara de Comercio de Bogotá.</p><p>Durante el tercer y último día se cumplió la jornada de la muestra empresarial, donde más de 20 proyectos de emprendimiento e innovación fueron expuestos por estudiantes de todos los semestres y Facultades, incluso proyectos presentados por candidatos de las instituciones de educación que nos visitaron durante la muestra.</p><p><img src="http://www.unicafam.edu.co/images/Noticias/2018/simposio/grupo%20Tuudo_01.jpg" alt="grupo Tuudo 01" width="391" height="220" />Durante el desarrollo de esta actividad, se llevó a cabo la conferencia “UniCafam & Tuudo – nuestros primeros pasos juntos en una cooperación histórica” a cargo de Iikka Meriläinen, Director General de la aplicación móvil de origen finlandés, TUUDO, la cual, desde el pasado mes de octubre llegó a nuestra institución para ser parte de la vida universitaria; en el marco de esta presentación contamos con la presencia del Señor Jukka Kokkoniemi, Oficial Comercial de la Embajada de Finlandia.</p><p>Antes del evento de cierre, se realizó la muestra de proyectos de máquinas de Goldberg, dirigido por Israel Fetecua, docente de la Facultad de Ingeniería.</p><p>El acto de clausura inició con las palabras de agradecimiento del Sr. Rector Francisco Cajiao, quien agradeció a todos los organizadores y participantes por su colaboración en el desarrollo de este importante evento para la institución. Enseguida, la Sra. Ángela María Vargas, representante del Consejo Profesional de Administración de Empresas – CPAE se dirigió a los asistentes y agradeció a especialmente a Unicafam por el desarrollo de este evento como apoyo al fortalecimiento del sector.</p><p><img src="http://www.unicafam.edu.co/images/Noticias/2018/simposio/IMG_2943.JPG" alt="IMG 2943" width="330" height="220" />Momentos antes de anunciar a los ganadores en las tres categorías, el grupo de representación Institucional de danzas “Somos Pazcifico”, realizó una muestra cultural, reflejo de una mezcla de danza contemporánea y tradicional colombiana.</p><p>Después de esta intervención cultural, la Dra. Lina Paola Gómez, Decana de la Facultad de Ciencias Administrativas realizó el lanzamiento oficial del primer ejemplar del <span>Boletín de Emprendimiento – Empcrea</span>, fruto del esfuerzo de los docentes tutores de emprendimiento de la Facultad, pero en especial de los estudiantes del Semillero de Investigación Core Business, línea de Emprendimiento.</p><p>Finalmente llegó el momento esperado y los ganadores fueron anunciados:</p><table border="1"><tbody><tr><td><p><span>Modalidad</span></p></td><td><p><span>Premios</span></p></td><td><p><span>Autores</span></p></td><td><p><span>Institución</span></p></td></tr><tr><td rowspan="3"><p><span>Ponencias de emprendimiento</span></p></td><td><p><span>Primer lugar</span></p><p>¿Hacia dónde va el emprendimiento? una mirada al ecosistema de nuestro país</p></td><td><p>· Laura Marcela Patiño</p><p>· Omar Alonso Patiño</p></td><td><p>Docente Unicafam</p><p>Docente Universidad EAN</p></td></tr><tr><td><p><span>Segundo lugar</span></p><p>Una mirada al ecosistema de emprendimiento en Rusia</p></td><td>· Daniela León</td><td><p>Unicafam – Negocios Internacionales</p><p>3er semestre</p></td></tr><tr><td><p><span>Tercer lugar</span></p><p>Economía naranja: un mundo de retos y oportunidades</p></td><td><p>· Fany Puentes Buitrago</p><p>· Ana Lucía Bonilla</p><p>· Fabio Eduardo Villarreal</p></td><td>Docentes Fundación Universitaria los Libertadores</td></tr><tr><td rowspan="3"><p><span>Pósteres</span></p></td><td><p><span>Primer lugar</span></p><p>LUMBAC</p></td><td><p>· Daniela Cortes Leguizamo</p></td><td><p>Unicafam – Enfermería</p><p>6to semestre</p></td></tr><tr><td><p><span>Segundo lugar</span></p><p>H&H Tiempo y trato</p></td><td><p>· Michael <br />Herrera</p><p>· Omar Alberto Hernández</p></td><td><p>Unicafam – Enfermería</p><p>6to semestre</p></td></tr><tr><td><p><span>Tercer lugar</span></p><p>Home Baby</p></td><td><p>· Tatiana Junco</p><p>· Tatiana <br />Fique</p><p>· Ximena Morales Rubio</p></td><td><p>Unicafam – Enfermería</p><p>6to semestre</p></td></tr><tr><td rowspan="3"><p><span>Muestra empresarial</span></p></td><td><p><span>Primer lugar</span></p><p>Fe de Errata</p></td><td><p>· Brayan Steven Legada</p></td><td><p>Unitec – Administración de Empresas</p></td></tr><tr><td><p><span>Segundo lugar</span></p><p>Glass Smoke</p></td><td>· Daniela Barbosa</td><td>Unicafam – Administración de Empresas 4to semestre</td></tr><tr><td><p><span>Tercer lugar</span></p><p>Pet Bag</p></td><td>· Viviana Lombana</td><td>Unicafam – Administración de Empresas 4to semestre</td></tr></tbody></table><p>La primera versión del Simposio de Ingenio y Emprendimiento Unicafam finalizó con la intervención musical de Drum Center Academy, una academia dedicada a la formación artística de niños y jóvenes, dirigida por el maestro Fredy Hernández.</p><div> Tomado de: <a href="http://www.unicafam.edu.co/index.php/noticias/451-el-ingenio-y-el-emprendimiento-se-tomaron-unicafam" target="_blank">Portal de UNICAFAM</a></div></div></div><div class="row"> </div><p><span><br /></span></p>2018-11-26T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/287Unicafam: Sexto Congreso de Investigación Unicafam2018-11-26T00:00:00+00:00Gestión Ingenio y Sociedad<p><span><span><span><span><span><span><span><span><span>El pasado martes 13 de noviembre se llevó a cabo el 6to Congreso de Investigación Unicafam, un espacio de formación que desde hace seis años la institución organiza, para que estudiantes de todas las Facultades y Escuelas participen, desarrollen y fortalezcan una cultura investigativa. </span></span></span></span></span></span><br /></span></span></span></p><p>El desarrollo del Congreso es un escenario de socialización de las diferentes investigaciones que los estudiantes de la institución presentan en tres modalidades: <span>semilleros de investigación, proyección social y trabajos de grado</span>, con el fin de compartir los resultados de los mejores proyectos desarrollados durante su carrera.</p><p><img src="/public/site/images/mikhail/VI_congreso11.JPG" alt="" /></p><p>En esta versión se presentaron un total de <span>47 proyectos</span>, 10 en modalidad de ponencias de semilleros, 9 en ponencias de proyectos de grado, 8 proyectos de proyección social y 20 trabajos en modalidad de póster, superando con este resultado la participación de años anteriores.</p><p>El 6to Congreso de Investigación Unicafam se desarrolló en dos jornadas, en las que los estudiantes tuvieron la oportunidad de exponer los resultados de sus proyectos a los evaluadores y al público en general. Al finalizar, se realizó la premiación a los dos mejores trabajos en cada una de las modalidades, con los siguientes resultados:</p><table class="table" border="1" cellpadding="1"><thead><tr><th><span>Modalidad</span></th><th><span>Premios</span></th><th><span>Autores</span></th><th><span>Escuela / Facultad</span></th></tr></thead><tbody><tr><td rowspan="2">Póster</td><td><p><span>Primer lugar:</span> Mejora de proceso logístico para incrementar niveles de servicio y generación de indicadores de gestión.</p></td><td><p>• Elizabeth Barbosa Cagua<br />• Liliana Katherine Arrieta González<br />• Ángel Ernesto Cortes Palencia – Docente</p></td><td><p>• Facultad de Ingeniería</p></td></tr><tr><td><span>Segundo lugar:</span> Análisis del impacto de Plantillas antifatiga en trabajadores de la empresa Challenger.</td><td>• César Anderson Reyes Barreiro<br />• Ingrid Lorena Velandia Arguello<br />• Israel Fetecua Soto - Docente</td><td>• Facultad de Ingeniería</td></tr><tr><td rowspan="2">Ponencias de semilleros</td><td><p><span>Primer lugar:</span> NFC Tracker</p></td><td><p>• Cristhian Ramírez<br />• Camilo Andrés Navarrete Arias<br />• Emerson David Cardona Marín - Docente</p></td><td><p>• Facultad de Ingeniería</p></td></tr><tr><td><span>Segundo lugar:</span> Una mirada al emprendimiento en India</td><td>• Angie Paola Vivas Otálora Angie Paola<br />• Carlos Eduardo Ángel Arias - Docente</td><td>• Facultad de Ciencias Administrativas</td></tr><tr><td rowspan="2">Ponencias de trabajos de grado</td><td><p><span>Primer lugar:</span> Conocimiento y recuperación de las tradiciones y técnicas culinarias referentes a los amasijos en Obando, Valle del Cauca, Colombia</p></td><td><p>• Gutierrez Rivera Maria Fernanda<br />• Rodriguez Tegua Jerson Camilo<br />• Laura Valguera<br />• Cristian Camilo Gaitán - Docente<br />• Sandra Juliana Enríquez - Docente</p></td><td><p>• Escuela de Turismo y Gastronomía</p></td></tr><tr><td><span>Segundo lugar:</span> El geoturismo en el desierto de la Tatacoa desde una perspectiva cultural comprometida con el medio ambiente</td><td>• Johana Andrea Rubiano Duarte<br />• Juan Felipe Tosa</td><td>• Escuela de Turismo y Gastronomía</td></tr><tr><td rowspan="2">Ponencias de proyección social</td><td><p><span>Primer lugar:</span> La flexibilidad como factor clave en la alfabetización tecnológica en el adulto mayor</p></td><td><p>• Neiber Andrés Celis Orjuela<br />• Franky Alejandro Santamaría Parra<br />• Miguel Ángel Hernández Sánchez<br />• Jhon Fredy Retis Parra<br />• Jairo Rodrigo Velásquez Moreno – Docente</p></td><td><p> • Escuela de Pedagogía y Facultad de Ingeniería</p><p> </p></td></tr><tr><td><span>Segundo lugar:</span> Mujeres Libres y empoderadas a partir de un proceso de PyP</td><td>• Mónica Daniela Fajardo Cáceres<br />• María Fernanda Gonzalez Borras<br />• Daniela Prada Capera<br />• Natalia Fernanda Reyes León<br />• Juanna Alexandra Díaz Cuadros - Docente</td><td>• Escuela de Pedagogía y Escuela de Enfermería</td></tr></tbody></table><p><br />En el marco del evento, se hizo el reconocimiento a tres proyectos de semilleros investigación, obtuvieron la posibilidad de ser seleccionados para el <span>XXI Encuentro Nacional de Semilleros de Investigación</span> a celebrarse en el mes de octubre del 2019 en la ciudad de Pasto.</p><p> Tomado de: <a href="http://www.unicafam.edu.co/index.php/noticias/448-sexta-version-del-congreso-de-investigacion-unicafam" target="_blank">Portal de UNICAFAM</a></p>2018-11-26T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/286Tecnología: Nueva aplicación de ultrasonidos para aumentar la capacidad antioxidante de extractos de semillas de uva2018-11-26T15:07:19+00:00Gestión Ingenio y Sociedad<p>La industria vitivinícola genera residuos orgánicos altamente contaminantes para el medio ambiente, por lo que la legislación obliga a tratarlos antes de verterlos. Esta situación reclama nuevas tecnologías capaces de transformar los residuos en productos revalorizados.</p><p>Por otro lado, los extractos de semillas de uva (Vitis vinifera L.), con alto poder antioxidante debido a su elevado contenido en procianidinas, son actualmente excelentes candidatos como fuentes de compuestos bioactivos.</p><p>Teniendo en cuenta todo esto, y con el propósito de disponer de ingredientes alimentarios con funcionalidad mejorada revalorizando la materia prima de partida, un equipo del CSIC y la UAM (España) se propuso investigar el efecto de una técnica emergente, los ultrasonidos de potencia (US), en la desagregación de procianidinas procedentes de subproductos de la industria vitivinícola, y en su capacidad antioxidante.</p><p>Según los autores, los US pueden intensificar procesos reduciendo tiempos e incrementando rendimientos: “Es una técnica considerada ecológica e innovadora que implica menos tiempos de tratamiento y energía, constituyendo una buena alternativa a procesos convencionales”, afirman.</p><div class="new_text "><p><img src="/public/site/images/mikhail/UTS.JPG" alt="" /></p><p>La técnica de los ultrasonidos de potencia se basa en la aplicación de ondas acústicas, a una frecuencia por encima del umbral que el oído humano puede oír (mayor que 16 kHz). Estas ondas viajan a través del material por el que se propagan a una velocidad que depende de las características de la onda y del propio medio de propagación.</p><p>“Los de alta potencia (16-100 kHz; 10-1000 W/cm2) pueden inducir cambios físicos y químicos en las propiedades de los alimentos, siendo la cavitación el principal mecanismo de acción. Uno de los principales efectos es la despolimerización y desagregación de macromoléculas”, explica Mar Villamiel, una de las firmantes del trabajo.</p><p>“Estudiamos el impacto de los US (45 y 20 kHz) en una fracción macromolecular (85% procianidinas poliméricas) de semillas de uva mediante diferentes técnicas de caracterización estructural, como MALDI-TOF MS, NP-HPLC y FTIR”, detalla la investigadora.</p><p>Los resultados, publicados en Ultrasonics - Sonochemistry, revelaron que los US, particularmente a 45 kHz, producen un considerable incremento en la proporción de catequinas y procianidinas oligo y poliméricas.</p><p>Los análisis por MALDI-TOF MS de esta fracción mostraron la existencia de 6 procianidinas de tipo B, aumentando la intensidad de señal tras la sonicación, especialmente en las de mayor masa molecular.</p><p>Los US también produjeron un importante incremento en la actividad antioxidante en el extracto de semilla de uva, siendo los resultados más relevantes los obtenidos a 45 kHz con una concentración de 1% y a 20 kHz con 0.01% de la fracción macromolecular de semilla de uva.</p><p>“Estos resultados fueron atribuidos a cierta desagregación de procianidinas unidas a otros biopolímeros, tales como proteínas y/o polisacáridos, indicando que los US son una eficiente técnica para modificar la estructura química y la bioactividad de las procianidinas”, concluyen los investigadores. (Fuente: UAM)</p></div><div class="floatbreaker">Tomado de: <a href="https://noticiasdelaciencia.com/art/30786/nueva-aplicacion-de-ultrasonidos-para-aumentar-la-capacidad-antioxidante-de-extractos-de-semillas-de-uva" target="_blank">NCYT</a></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div>2018-11-26T15:07:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/285Medio Ambiente: Una nueva especie de colibrí de los Andes ecuatorianos, ya en peligro crítico2018-10-11T15:15:49+00:00Gestión Ingenio y Sociedad<p>En 2017, un grupo de investigadores que trabaja en los Andes ecuatorianos tropezó con una especie de colibrí desconocida anteriormente pero, como se documenta en un nuevo estudio publicado en ‘The Auk: Ornithological Advances’, su pequeña población, su hábitat especializado y las amenazas de la actividad humana apuntan a que esta especie recién descrita probablemente esté ya en peligro crítico.</p><p> </p><p>Este colibrí es distinto a los demás, ya que vive en hábitats de gran altitud en los Andes y tiene adaptaciones especiales a las bajas temperaturas. Francisco Sornoza, del Instituto Nacional de Biodiversidad de Ecuador, observó por primera vez y fotografió un colibrí previamente desconocido durante un trabajo de campo en el suroeste de Ecuador, en abril de 2017.</p><p> </p><p>Después de esta primera expedición, el investigador y sus colegas Juan Freile, Elisa Bonaccorso, Jonas Nilsson y Niels Krabbe estudiaron esa posible nueva especie, volviendo en mayo para capturar otros ejemplares y confirmar el hallazgo. Llamaron a la nueva especie ‘Oreotrochilus cyanolaemus’ y colibrí de garganta azul.</p><p><img src="/public/site/images/mikhail/colibrí.JPG" alt="" /> </p><p>Este colibrí se encuentra solo a lo largo de arroyos arbolados en un área de aproximadamente 100 kilómetros cuadrados, y los investigadores estiman que no hay más de 750 individuos, quizás menos de 500. Las amenazas a su hábitat incluyen los incendios, el pastoreo y la minería, y cumple con los criterios para ser considerado en peligro crítico.</p><p>"Se necesita un completo apoyo de las agencias de conservación nacionales e internacionales para salvar a esta especie", subraya el coautor Francisco Sornoza-Molina. "El plan de acción para la conservación de esta ave está creando una red de áreas protegidas a lo largo de su rango geográfico", añade.</p><p>“Los colibríes se encuentran en las partes más escarpadas, aisladas e inaccesibles de los Andes, se posan en cuevas, se alimentan en el suelo. Este sorprendente descubrimiento confirma que la vida en la altitud de los Andes todavía esconde muchos secretos ", señala Christopher Witt, de la Universidad de Nuevo México, un experto en colibríes que no participó en el estudio. "La ubicación es adecuada para una nueva especie de colibrí, porque es una cadena montañosa remota que está aislada y está intercalada entre los rangos de otras dos especies de colibrí. Los autores hicieron un trabajo exhaustivo comparando la nueva especie con sus parientes", agrega el experto externo. (Fuente: CGP/DICYT</p><p> </p>2018-10-11T15:15:49+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/284Tecnología: Drones para volar en espacios subterráneos2018-10-11T14:48:03+00:00Gestión Ingenio y Sociedad<p>Volar por el interior de cuevas, minas, túneles de metro y otros espacios subterráneos no es tarea fácil. A las dificultades inherentes a todo espacio cerrado se les suman otras que son típicas de los espacios subterráneos, como por ejemplo la oscuridad. Y sin embargo, se trata de lugares para los que resulta muy conveniente poder enviar drones en misiones de rescate.</p><p>Unos investigadores de la Universidad de Colorado en Boulder, Estados Unidos, han iniciado una colaboración con la empresa de sistemas automatizados y robóticos Scientific Systems Company Inc. (SSCI), en el mismo país. El objetivo es diseñar drones que puedan explorar entornos subterráneos como túneles de metro, minas y cuevas.</p><p>La DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa, dependiente del Departamento de Defensa de Estados Unidos) ha otorgado al equipo una subvención de 4,5 millones de dólares para ayudar a materializar sus innovaciones y apoyar su participación en el certamen nacional Subterranean Challenge, de la DARPA, que finalizará en el otoño de 2021. El equipo competirá contra otros cuatro, también financiados, de diversas partes del país. La meta de la competición es completar tres retos subterráneos con un nivel de dificultad creciente.</p><p>Tal como enfatiza Sean Humbert, profesor en el Departamento de Ingeniería Mecánica de la citada universidad, el proyecto ampliará las fronteras de lo que pueden hacer los sistemas autónomos.</p><div><p>Las cuevas, las minas y los túneles de metro son laberínticos y visualmente redundantes, tal como señala Christoffer Heckman, profesor en el departamento de computación de la universidad antedicha y miembro del equipo de desarrollo. Cada vez está más claro que los sistemas autónomos que deban operar en entornos de ese tipo necesitan un enfoque de diseño fundamentalmente diferente al de los robots para entornos convencionales.</p><p>Esta línea de investigación y desarrollo podría algún día permitir que robots voladores y robots rodantes trabajasen juntos en misiones de búsqueda y rescate dentro de entornos oscuros y peligrosos con el objetivo de encontrar supervivientes humanos bajo escombros dejados por un terremoto, atrapados en una mina tras un derrumbe o aislados dentro un túnel tras un accidente ferroviario, por citar tres ejemplos.</p><p>El proyecto además tendrá repercusiones más allá de la búsqueda y rescate subterráneos. Fabricar drones que puedan volar a través de entornos tan difíciles podría también mejorar su eficiencia cuando trabajan en situaciones más seguras junto a personas, como en fábricas o almacenes.</p></div>2018-10-11T14:48:03+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/283Tecnología: Un hormigón hecho con cenizas de carbón prueba ser igual de resistente que el obtenido con áridos de canteras2018-10-11T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un equipo de investigación de la Universidad de Córdoba en colaboración con la Universidad de Navarra (España) logra sustituir recursos naturales por residuos de centrales termoeléctricas en la elaboración de hormigones de uso estructural y demuestra que tiene las mismas cualidades para la construcción.</p><p>La sobreexplotación de las canteras para obtener arenas y gravas para la fabricación de hormigón supone uno de los grandes desafíos ambientales del momento. Aunque lo parezcan, las piedras no son infinitas. Por eso, la comunidad científica busca desde hace años la manera de elaborar hormigón sin esquilmar la corteza terrestre. Y lo hacen enfocando el problema desde diferentes perspectivas. Es el caso de dos equipos de la Universidad de Córdoba que han trabajado juntos para conseguir un material igual de resistente y duradero, pero más sostenible. Lo han hecho químicos e ingenieros de la mano.</p><p>Concretamente, el grupo de investigación “Materiales y Aplicaciones”(FQM391) liderado por el profesor José María Fernández y el de “Ingeniería de la Construcción”(TEP227) encabezado por el profesor José Ramón Jiménez han conseguido fabricar un hormigón autocompactante sustituyendo recursos naturales por residuos derivados de la combustión del carbón. En concreto, estos investigadores han logrado utilizar las cenizas no conformes de las centrales termoeléctricas en lugar de la fracción ultrafina de los áridos naturales (filler silicio) extraídos de piedra de canteras y molienda.</p><p>El estudio, publicado recientemente en dos números de la revista Construction and BuilingMaterials, ha consistido en un análisis físico-químico de las cenizas y con posterioridad el diseño y ensayo de mezclas con dichas cenizas en lugar de las fracciones ultrafinas (filler) de canteras. Y todo ello con el objetivo de obtener hormigón más amigable con el medioambiente. Tras numerosas pruebas, el grupo de investigación ha conseguido producir un hormigón con las propiedades mecánicas y de durabilidad adecuadas para su uso en construcción. Siete años de trabajo han servido para lograr un hormigón estructural autocompactante con mejores prestaciones que los realizados con materiales convencionales, según explican los directores de la investigación. </p><p>Además de optimizar los recursos naturales y la recuperación de residuos, el trabajo de los investigadores de la UCO, en cuyo análisis han contado con la colaboración de la Universidad de Navarra, ofrece una salida a las centrales termoeléctricas de carbón. Y es que, las cenizas volantes se acumulan en estas fábricas sin utilidad ninguna y su destino final son vertederos controlados. Este estudio abre un horizonte interesante para darle utilidad y cambiar así su destino.</p><p>Con este nuevo hormigón está prevista la fabricación de elementos prefabricados de uso estructural como vigas, soportes o elementos de forjados.La intención del equipo de investigación implicado es industrializar el nuevo hormigón.</p><p>Las cenizas volantes para el desarrollo de la investigación proceden de la central térmica de Puente Nuevo, enclavada entre las localidades de Espiel y Villaviciosa de Córdoba. </p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/30217/un-hormigon-hecho-con-cenizas-de-carbon-prueba-ser-igual-de-resistente-que-el-obtenido-con-aridos-de-canteras" target="_blank">NCYT</a></p>2018-10-11T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/282Ciencia: Hacen crecer tejido de esófago a partir de células madre en un laboratorio2018-10-11T14:20:09+00:00Gestión Ingenio y Sociedad<p>Unos científicos que trabajan con el objetivo de reproducir en un laboratorio todo el sistema gastrointestinal humano han conseguido ahora, mediante el uso de células madre pluripotentes, cultivar organoides ("brotes") de esófago humano.</p><p>Este es el avance más reciente del equipo de Jim Wells, experto de un centro especializado en medicina de células madre y de organoides adscrito al Centro Médico del Hospital Pediátrico de Cincinnati en Estados Unidos.</p><p>En esa institución se trabaja en el desarrollo de nuevas formas de estudiar defectos de nacimiento y enfermedades congénitas que provocan problemas gastrointestinales a millones de personas. Esta línea de investigación está llevando a nuevos métodos de diagnóstico personalizados y se prevé que, más a largo plazo, conduzca hacia terapias para regeneración de tejidos encaminadas a tratar o curar afecciones gastrointestinales.</p><p>El logro más reciente de Wells y sus colegas constituye, hasta donde ellos saben, la primera vez que se logra hacer crecer tejido humano del esófago exclusivamente de células madre pluripotentes. Estas células madre pueden formar cualquier tipo de tejido en el cuerpo.</p><p>El esófago es un tubo muscular que mueve de forma activa alimentos desde la boca al estómago. El órgano puede verse afectado por malformaciones y otros problemas congénitos derivados de mutaciones genéticas que provoquen su estrechamiento u otros efectos nocivos.</p><p><img src="/public/site/images/mikhail/esofago.JPG" alt="" /></p><p><span>Esta imagen, procedente de un microscopio confocal, muestra un organoide de esófago humano a los dos meses de comenzar a formarse por inducción de los científicos a partir de células madre pluripotentes. Con un tamaño de unos 700 micrómetros, el organoide ha sido teñido para permitir ver mejor en él las proteínas estructurales esenciales expresadas en el esófago maduro. (Foto: Cincinnati Children's Hospital Medical Center)</span></p><p>Otras enfermedades afectan al esófago y pueden reducir severamente la calidad de vida de los enfermos o incluso amenazar su vida. Entre ellas están el cáncer de esófago, la enfermedad por reflujo gastroesofágico, o una rara dolencia llamada acalasia esofágica, que afecta a los músculos del esófago inferior y que evita la contracción del órgano y el paso de alimentos.</p><p>Todas estas afecciones necesitan mejores tratamientos y encontrarlos requiere un conocimiento más profundo de los mecanismos genéticos y bioquímicos subyacentes en las causas de tales dolencias. Esta necesidad de información detallada se puede satisfacer mediante la capacidad de generar y estudiar modelos robustos y funcionales, coincidentes genéticamente, de tejido humano del esófago que pueda crecer a partir de las propias células de una persona.</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/30238/hacen-crecer-tejido-de-esofago-a-partir-de-celulas-madre-en-un-laboratorio" target="_blank">NCYT</a></p>2018-10-11T14:20:09+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/281Tecnología: Desarrollan materiales moleculares análogos al grafeno capaces de incorporar magnetismo2018-09-20T15:21:11+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de químicos y físicos, liderado por Eugenio Coronado y Guillermo Mínguez Espallargas, investigadores en el Instituto de Ciencia Molecular de la Universitat de València (ICMol), en el Parc Científic (España), han conseguido preparar materiales análogos al grafeno desde una aproximación molecular. Se trata de los MUV-1, materiales robustos de gran versatilidad química y capaces de incorporar diferentes propiedades físicas, como el magnetismo.</p><p>Los resultados de la investigación han sido publicados en la revista Nature Chemistry. En este trabajo se diseñan materiales bidimensionales metal-orgánicos –los MUV-1 (Materiales Universitat de València)– a partir de una aproximación molecular. A diferencia de lo que ocurre con el grafeno y otros materiales bidimensionales, esta nueva aproximación permite modificar a voluntad las propiedades de la superficie, variándola por ejemplo de hidrófoba a hidrófila, e incorporar propiedades físicas como el magnetismo, que son difíciles de introducir.</p><p>El estudio abre las puertas a la integración y aplicación de estos materiales en diferentes áreas tecnológicas, como la nanoelectrónica y la espintrónica, o al desarrollo de sensores moleculares ultrasensibles, capaces de reconocer y detectar selectivamente determinadas moléculas.</p><p>Desde el descubrimiento del grafeno –primer material bidimensional formado por una capa de átomos de carbono–, se han preparado numerosos materiales bidimensionales inorgánicos. Uno de los problemas de dichos materiales es que no permiten modificar sus propiedades mediante el anclaje de moléculas en su superficie, lo que impide incorporar nuevas propiedades o mejorar su procesabilidad. Por otra parte, el estudio del magnetismo en los materiales bidimensionales de naturaleza inorgánica hasta hoy conocidos constituye un reto científico, ya que todos ellos son químicamente inestables en condiciones ambientales.</p><p>La nueva aproximación molecular a los materiales bidimensionales que el equipo del ICMol propone a la comunidad científica internacional ofrece soluciones a ambos problemas. Por un lado, la posibilidad de funcionalizar a voluntad la superficie de estos materiales 2D permite modular fácilmente sus propiedades, haciéndolos por ejemplo hidrófobos o hidrófilos. Dicha procesabilidad, sumada al hecho de que los MUV-1 poseen estabilidad mecánica y química, ha permitido a los científicos construir membranas basadas en estos materiales y aislar las primeras monocapas magnéticas basadas en la química de coordinación.</p><p>El grupo internacional que ha desarrollado esta investigación está formado por científicos de siete instituciones europeas –Instituto de Ciencia Molecular de la Universitat de València, Instituto de Tecnología Química de la Universitat Politècnica de València, Consejo Superior de Investigaciones Científicas, Universidad de Manchester (Reino Unido), Instituto Laue Langevin de Grenoble (Francia), Universidad de Lisboa (Portugal) y Universidad Tecnológica de Delft (Paises Bajos).</p><p>El equipo de la Universitat de València, que lidera el trabajo, lo conforman Javier López Cabrelles, Samuel Mañas Valero, Guillermo Mínguez Espallargas y Eugenio Coronado. (Fuente: U. de València)</p>2018-09-20T15:21:11+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/280Ciencia: Gaia detecta una sacudida de la Vía Láctea2018-09-20T11:40:04+00:00Gestión Ingenio y Sociedad<p>Un equipo liderado por investigadoras del Instituto de Ciencias del Cosmos de la Universidad de Barcelona (ICCUB, UB-IEEC) (Catalunya, España) y de la Universidad de Groninga ha descubierto, mediante el análisis de los datos de Gaia, subestructuras hasta ahora desconocidas en la Vía Láctea. El hallazgo, surgido al combinar las posiciones y las velocidades de seis millones de estrellas del disco de nuestra galaxia, se ha publicado en la revista Nature.</p><p><img src="/public/site/images/mikhail/galaxia_con_perturbación1.JPG" alt="" /><br /> «Hemos observado formas con distintas morfologías, como una espiral similar a una concha de caracol. La existencia de estas subestructuras se ha observado por primera vez gracias a la precisión sin precedentes de los datos aportados por el satélite Gaia, de la Agencia Espacial Europea (ESA)», explica Teresa Antoja, investigadora del ICCUB (IEEC-UB) y primera firmante del artículo. «Estas subestructuras —añade—, permiten concluir que el disco de nuestra galaxia sufrió una importante perturbación gravitacional hace entre 300 y 900 millones de años». Este es uno de los primeros grandes descubrimientos de arqueología galáctica que deben permitir averiguar el origen y la evolución de la Vía Láctea.</p><p> </p><p>¿Pero qué provocó esta perturbación? Para obtener una respuesta se ha comparado con los modelos dinámicos la estructura y el grado de retorcimiento de la espiral mencionada. Como explican las investigadoras, ello ha permitido formular la hipótesis de que la perturbación se debió al último paso de la galaxia enana de Sagitario cerca del disco de la Vía Láctea.</p><p> </p><p>«El trabajo establece, de forma definitiva, que el disco de nuestra galaxia es dinámicamente joven, sensible a las perturbaciones y cambiante en el tiempo», afirma Antoja. «Una de las formas más destacables que hemos observado —continúa la investigadora— es el patrón espiral que muestran las estrellas situadas cerca del Sol, y que nunca hasta ahora se había visto. De hecho, las formas observadas en las gráficas eran tan evidentes (a diferencia de los casos habituales), que llegamos a pensar que podría tratarse de un error en los datos», explica Antoja. En este sentido, más de cien ingenieros y científicos europeos, entre los que el equipo de la UB tiene un papel destacado, trabajaron durante meses en las tareas de verificación y validación de los datos de Gaia. Como parte de dicha labor de comprobación, Mercè Romero Gómez, investigadora de la UB, explica: «Con las simulaciones realizadas en la UB también hemos podido reproducir las espirales observadas».</p><p>Del mismo modo que al dejar caer una piedra en un estanque formamos ondas que se propagan en la superficie, o que cuando acercamos un imán a un pliego de limaduras de hierro, estas se ordenan y se alinean en una determinada dirección, las estrellas del disco galáctico se ordenan respondiendo a la atracción gravitatoria de una galaxia satélite que pasa cerca de ellas. Transcurrido el tiempo, las estrellas conservan en su movimiento orbital efectos de la perturbación que las sacudió, y que ahora se observa como una espiral en las gráficas.</p><p> </p><p>Según Amina Helmi, investigadora de la Universidad de Groninga, «sabemos que nuestra galaxia es “caníbal”, y que ha ido creciendo al engullir pequeñas galaxias, como está haciendo actualmente con la galaxia de Sagitario». No obstante, precisa la experta, «la masa de Sagitario todavía es suficientemente grande como para provocar un impacto gravitatorio apreciable». Lo que ahora vemos no responde a un choque entre las dos galaxias, sino a un acercamiento de la galaxia de Sagitario al disco galáctico.</p><p> </p><p>Los datos que se analizan en este trabajo forman parte del segundo catálogo de la misión Gaia, que se publicó hace pocos meses, el 25 abril de 2018. «Científicos e ingenieros de la UB han jugado un papel fundamental e irremplazable para hacer realidad estos datos», comenta Xavier Luri, director del ICCUB y coordinador del equipo que ha sido responsable de la elaboración del archivo de Gaia a nivel europeo. El esfuerzo de más de cuatrocientos científicos e ingenieros ha permitido publicar posiciones y movimientos precisos para más de 1.300 millones de objetos. También en este segundo catálogo —que solo cubre los primeros veintidós meses de recogida de datos— se lograron publicar los primeros datos espectroscópicos para unos cuantos millones de estrellas del entorno solar, datos que permiten medir la velocidad de las estrellas en la línea de visión. Son estas velocidades las que han hecho posible el descubrimiento publicado en Nature.</p><p> </p><p>A día de hoy, el satélite Gaia acumula más de 48 meses de operaciones con éxito y la ESA ya ha aprobado prolongar la misión hasta finales de 2020. Actualmente está evaluando una segunda prórroga de dos años más. En palabras de Carme Jordi, investigadora de la UB y miembro del Gaia Science Team, el órgano científico asesor de la ESA para esta misión, «todo apunta a que este es solo uno de los primeros descubrimientos de un extenso conjunto de nuevos hallazgos —y sorpresas— que esconden los datos de Gaia que se publicaron el pasado 25 de abril de 2018: la punta de un iceberg en el estudio del origen y la evolución de la galaxia en la que estamos inmersos». (Fuente: U. Barcelona)</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/29962/gaia-detecta-una-sacudida-de-la-via-lactea" target="_blank">NCYT</a></p>2018-09-20T11:40:04+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/279Ciencia: Sueños alterados y neurociencia2018-09-11T16:52:16+00:00Gestión Ingenio y Sociedad<p>Investigadores argentinos indujeron a un pájaro cantor a que sueñe algo en particular. El estudio, publicado en la prestigiosa revista Proceedings of the National Academy of Sciences, revela la existencia de unidades mínimas de sueño que se encienden o se apagan como si fueran manejadas por una llave de luz.</p><p>Que el psicoanálisis permite interpretar lo que soñamos es algo bastante sabido. De hecho, ya hace más de un siglo que Freud inició el camino para desentrañar los secretos de Morfeo.</p><p>Pero, si tomamos el concepto de “interpretación de los sueños” en toda su literalidad, podría decirse que los sueños de algunas aves son interpretaciones… musicales. Porque los pájaros cantores sueñan que cantan.</p><p>En efecto, hace pocos meses, Nexciencia daba a conocer un trabajo científico efectuado en el Laboratorio de Sistemas Dinámicos (LSD) de la Facultad de Ciencias Exactas y Naturales de la UBA que revelaba con qué sueñan los pájaros. Allí se explicaba que el diamante mandarín -un pajarito de solo doce gramos de peso- canta mientras duerme.</p><p>Aquella investigación marcó un hito para el campo de los estudios del sueño: “Esta es la primera vez que se puede hacer un estudio cuantitativo con el sueño”, subrayaba en esa oportunidad el físico Gabriel Mindlin, director del LSD.</p><p>Ahora, un paper publicado en la prestigiosa revista científica Proceedings of the National Academy of Sciences (PNAS) da cuenta de otro avance significativo para esta área del conocimiento.</p><p>El nuevo estudio, cuyo primer autor es Alan Bush, becario postdoctoral del CONICET en el LSD, da cuenta de una serie de experimentos mediante los cuales se indujo al diamante mandarín a que sueñe un determinado sueño.</p><div><p>Además, los ensayos con el ave produjeron otro resultado sorprendente: el sueño estaría compuesto por una secuencia de unidades mínimas que podrían activarse o apagarse de manera independiente ante distintos estímulos.</p><p>El cerebro de las aves posee áreas especializadas en el aprendizaje y la producción del canto. La activación de esas neuronas -por ejemplo, cuando el pájaro escucha su propio canto- puede visualizarse mediante técnicas de neuroimagen. Pero todavía no existen metodologías que permitan revelar “qué dicen” esas neuronas que se activan. Por lo tanto, para “traducir” las instrucciones del cerebro, los investigadores usan métodos indirectos.</p><p>Como la actividad cerebral que dirige el canto de las aves se ejecuta en los músculos de la siringe -el órgano fonador de las aves-, un equivalente a nuestras cuerdas vocales, el equipo que dirige Mindlin mide esa actividad muscular.</p><p>Mediante electrodos conectados entre los músculos de la siringe y una computadora, y a través de un programa de computación, los científicos pueden transformar las contracciones musculares en sonido. De esta manera, logran escuchar en un parlante las melodías silenciosas que ejecuta el pájaro mientras está dormido.</p><p>En el trabajo anterior, los científicos del LSD habían demostrado que, mientras duerme, el pajarito practica cantos raros, alocados, muy diferentes al sonido estereotipado que ejecutan durante el día.</p></div><div class="google-auto-placed ap_container">“Para esta nueva investigación, tratamos de ver si podíamos inducir sueños en estos animalitos haciéndoles escuchar grabaciones de su propio canto mientras estaban dormidos”, explica Mindlin. “Comprobamos que el pájaro repite ese patrón sonoro en su sueño, lo que demuestra que podemos inducirle sueños y leerlos a partir de la actividad de sus músculos”, afirma.</div><div class="google-auto-placed ap_container"><div class="new_text "><p>Pero este no fue el único hallazgo relevante. Los investigadores comenzaron a hacerle oír al diamante mandarín dormido distintas versiones de su canto grabado y, también, formas artificiales del canto que habían sido sintetizadas previamente en la computadora. Durante ese procedimiento, empezaron a quitarle fragmentos a las grabaciones, o a deformarlas gradualmente. Después, analizaron los sueños inducidos por cada uno de esos estímulos.</p><p>“Comprobamos que, a medida que vamos degradando los sonidos originales, el animal responde quitando pequeños fragmentos de su sueño, hasta que llega un momento, cuando el sonido ya está muy degradado, en que el pájaro no responde a lo que le hacemos escuchar durante el sueño”, describe Mindlin. “Es decir que, en ese proceso, el animal va perdiendo pedazos de su sueño, pero los fragmentos que sobreviven están intactos”, aclara.</p><p>Según el investigador del CONICET, esto demostraría que “el sueño estaría conformado por una secuencia de unidades mínimas, que serían indivisibles, algo así como ‘átomos del sueño’, que aparecen o desaparecen pero que, en cualquier caso, no se degradan”.</p><p>Para Mindlin, esto supone que en el animal existe “un programa en donde el sistema auditivo despierta, en forma de llave ‘sí’ o ‘no’, respuestas motoras preestablecidas que se activan a todo o nada”. Esta hipótesis se opone a un modelo muy extendido en el campo de estudio del canto de los pájaros, que sostiene que el cerebro dispara órdenes regulares y sucesivas estableciendo un control continuo sobre la musculatura de la siringe.</p><p>“Nuestras observaciones sugieren que el cerebro no actúa de manera continua sino que codifica instancias ralas, es decir, dispara una orden al músculo y éste se contrae y se relaja sin el control cerebral”, asegura.</p><p>El estudio publicado en PNAS, que también firman Juan Doppler, del LSD, y Franz Goller, de la Universidad de Utah, fue financiado con fondos del CONICET, de la Agencia Nacional de Promoción Científica y Tecnológica, de la Universidad de Buenos Aires y de los Institutos Nacionales de Salud de los Estados Unidos. (Fuente: Argentina Investiga)</p></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div></div>2018-09-11T16:52:16+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/278Ciencia: Confirman la presencia de hielo de agua en la superficie de la Luna2018-09-06T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un equipo de científicos ha observado directamente evidencias definitivas de la presencia de hielo de agua en la superficie de las zonas más frías y oscuras de las regiones polares de la Luna. Estos depósitos de hielo están distribuidos de forma desigual y podrían ser bastante antiguos.</p><p>El hallazgo lo ha hecho el equipo de Shuai Li, de la Universidad de Hawái, y Richard Elphic, del Centro Ames de Investigación de la NASA, ambas instituciones en Estados Unidos.</p><p>Para los análisis fue esencial el uso de datos obtenidos por el instrumento M3 (Moon Mineralogy Mapper) de la NASA, instalado a bordo de la sonda espacial hindú Chandrayaan 1, que fue lanzada a la Luna en 2008. Gracias a estos datos, se ha conseguido identificar las tres "firmas" específicas que demuestran definitivamente que hay hielo de agua en la superficie lunar.</p><p>M3 resultó idóneo para confirmar la presencia de hielo sólido sobre la Luna. Recolectó datos que recogían las propiedades reflectantes que esperaríamos del hielo, y también pudo medir directamente la forma distintiva en que sus moléculas absorben la luz infrarroja.</p><p>La mayor parte del hielo de agua recién descubierto reside en las zonas de sombra de los cráteres próximos a los polos, donde las temperaturas más cálidas jamás superan un límite situado en torno a los 150 grados centígrados bajo cero. Debido a la pequeña inclinación del eje de rotación de la Luna, la luz solar nunca alcanza esas regiones. La ausencia de una atmósfera capaz de esparcir luz también contribuye a la conservación de esos puntos ultrafríos.</p><p> <img src="/public/site/images/mikhail/Hielo_en_la_luna1.JPG" alt="" /></p><p><strong>La imagen muestra la distribución de hielo en superficie en el polo sur de la Luna (izquierda) y en el polo norte (derecha). El azul representa las ubicaciones del hielo, dibujadas sobre una imagen de la superficie lunar, donde la escala de tonos grises corresponde a las temperaturas de la superficie (más oscuro representa áreas más frías y más claro denota zonas más calientes). El hielo está concentrado en las ubicaciones más oscuras y frías, en las zonas de sombra de cráteres. (Imagen: NASA)</strong></p><p>Observaciones anteriores encontraron indirectamente posibles señales de hielo en la superficie del polo sur lunar, pero estas podrían haber sido explicadas por otros fenómenos, como un suelo lunar inusualmente reflectante.</p><p>Con suficiente hielo de agua sobre la superficie, o más exactamente dentro de los primeros milímetros de profundidad, el agua podría ser quizá accesible como recurso para futuros astronautas que realicen expediciones de exploración en esas zonas lunares o que incluso pueblen por turnos bases lunares permanentemente habitadas. Esta agua podría de hecho llegar a ser más accesible que el agua detectada bajo la superficie lunar.</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/29805/confirman-la-presencia-de-hielo-de-agua-en-la-superficie-de-la-luna" target="_blank">NCYT</a></p>2018-09-06T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/277Ciencia: Tejidos inteligentes gracias a materiales con memoria de forma2018-09-05T18:49:03+00:00Gestión Ingenio y Sociedad<p>La investigadora de la UPV/EHU (España) Míriam Sáenz Pérez ha sintetizado varias fibras y tejidos a partir de poliuretanos con memoria de forma que promueven la evaporación del sudor y el control de la humedad, y además presentan una recuperación mayor del 99 %.</p><p> </p><p>La memoria de forma es una propiedad muy interesante que permite desarrollar materiales que pueden cambiar de forma cuando están sometidos a un estímulo externo (térmico, eléctrico, magnético, etc.). En los últimos años, los polímeros con memoria de forma han sido foco de atención debido a su destacada funcionalidad y a las posibilidades que ofrecen como materiales inteligentes. Entre ellos, “los poliuretanos con memoria de forma son una clase de polímeros que se pueden sintetizar con diferentes tipos de arquitecturas moleculares, mediante la variación de su composición y la elección adecuada de la estructura química de sus componentes. Esto da lugar a diversas aplicaciones en automoción, biomedicina, adhesivos, la industria textil o del calzado”, comenta Míriam Sáenz Pérez, investigadora del Departamento de Química Física de la UPV/EHU que actualmente trabaja en el Centro Tecnológico del Calzado de La Rioja.</p><p> </p><p>Este trabajo se ha centrado en estudiar los poliuretanos con memoria de forma para aplicaciones en tejidos inteligentes. “El objetivo ha sido crear ciertas fibras o tejidos con memoria de forma; es decir, materiales que por sí solos son capaces de cambiar de forma y adaptarse a la situación en función de la temperatura a la cual se encuentran”, explica Míriam Sáenz. “Lo que realmente buscábamos era que su temperatura de transición vítrea —es un punto intermedio de temperatura entre el estado fundido y el estado rígido del polímero— fuera aproximadamente alrededor de 37-38 °C, es decir, similar a la temperatura corporal, y que el polímero pudiera modificar su forma en función de esa temperatura”,</p><p>En primer lugar, se han sintetizado una serie de poliuretanos con segmentos rígidos y flexibles. A continuación, se ha analizado el comportamiento térmico, las propiedades mecánicas, la permeabilidad y el efecto de memoria de forma. Además, “se han creado fibras y tejidos a partir de estos poliuretanos con el fin de aportar una comprensión más profunda sobre los poliuretanos en la industria textil”, señala Sáenz.</p><p> </p><p>“Los resultados obtenidos concluyen que los poliuretanos con memoria de forma sintetizados poseen aplicaciones prometedoras en la industria textil”, afirma la investigadora. Asimismo, “el efecto de memoria de forma demuestra que la mayoría de los poliuretanos con memoria de forma poseen valores de recuperación mayores del 99 %”. “Respecto a la permeabilidad —comenta Míriam Sáenz—, se ha observado que los films de poliuretano con memoria de forma poseen la capacidad de promover la evaporación del sudor y el control de la humedad”. También, “los poliuretanos con memoria de forma en forma de tejido presentan una recuperación mayor del 99 %, por lo que se puede concluir que las fibras y los tejidos se podrían usar en futuras aplicaciones en el campo textil”, concluye Miriam Sáenz.</p><p> </p><p>Esta investigación se ha llevado a cabo en el marco de la tesis doctoral de Míriam Sáenz Pérez (Logroño, 1986), titulada Shape memory polyurethanes. Applications in smart fabrics y dirigida por Luis Manuel León Isidro, catedrático de la UPV/EHU, y Jorge García Barrasa, especialista en innovación en Ecoembes. La tesis se ha realizado principalmente en el laboratorio de Química Macromolecular del Departamento de Química Física de la UPV/EHU y el Centro Tecnológico del Calzado de La Rioja donde se ha realizado la parte experimental. Además, se realizó una estancia predoctoral en la Universidad de Borås, Suecia. (Fuente: UPV/EHU)</p><p>añade</p><p> </p>2018-09-05T18:49:03+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/276Unicafam: La Escuela de Pedagogía de Unicafam participó en la III Bienal Latinoamericana y Caribeña de Infancias y Juventudes2018-08-26T00:00:00+00:00Gestión Ingenio y Sociedad<div><p style="text-align: left;"><img style="margin-right: 15px; margin-bottom: 19px; float: left;" src="http://www.unicafam.edu.co/images/Noticias/2018/escuela_pedagogia_evento_cientifico/Portada.jpg" alt="Portada" width="367" height="290" /><span style="font-size: 14pt;"><strong><span style="color: #23527c;"><strong><strong><strong><strong><strong><strong>La Escuela de Pedagogía de Unicafam participó en la III Bienal Latinoamericana y Caribeña de Infancias y Juventudes, que se llevó a cabo en la ciudad de Manizales del 30 de julio al 3 de agosto de 2018.</strong> </strong></strong></strong></strong></strong><br /></span></strong></span></p><p style="text-align: justify;">La tercera versión del encuentro que llevó por lema “Desigualdades, desafíos a las democracias, memorias y re-existencias”, tuvo como tema central, la participación de la niñez y la juventud, enfocada desde diferentes frentes como la educación, la salud y las desigualdades.</p><p style="text-align: justify;"><img style="margin-bottom: 10px; margin-left: 15px; float: right;" src="http://www.unicafam.edu.co/images/Noticias/2018/escuela_pedagogia_evento_cientifico/Bienal_3_opt.jpg" alt="Bienal 3 opt" width="294" height="220" />Por su parte, los docentes Jairo R. Velásquez Moreno y Juanna Alexandra Díaz en representación de la Escuela de Pedagogía de Unicafam, participaron en la coordinación de una de las mesas de trabajo que se desarrolló durante el evento, denominada: <strong>"<em>Construyendo redes de saberes en torno a proyectos y experiencias que aportan a la discusión y formulación de políticas públicas para el mejoramiento de desigualdades generacionales</em>" </strong>y en la presentación de dos ponencias que socializan avances de los proyectos de investigación que lidera la escuela en el marco de la cultura para el emprendimiento y la responsabilidad social universitaria.</p><p style="text-align: justify;"><img style="margin-right: 15px; margin-bottom: 10px; float: left;" src="http://www.unicafam.edu.co/images/Noticias/2018/escuela_pedagogia_evento_cientifico/Bienal_4-opt.jpg" alt="Bienal 4 opt" width="294" height="220" />En dicha mesa participaron 9 expositores nacionales e internacionales, hicieron presencia investigadores de la Universidad de Antioquia, la Universidad Minuto de Dios, la Universidad de Sao Paulo de Brasil y representantes de diferentes redes de maestros de Bogotá y de empresas privadas que apoyan el fortalecimiento de políticas públicas en favor de la niñez y la juventud del país.</p><p style="text-align: justify;">Este tipo de espacios académicos son muy enriquecedores para el trabajo que realiza el grupo de investigación de la Escuela de Pedagogía, ya que permiten hacer una socialización de conocimiento y participación activa en reflexiones sobre la realidad de las “<em>niñeces</em>”, como se denominó en la bienal y las juventudes latinoamericanas.</p><p style="text-align: justify;">Tomado de <a href="http://www.unicafam.edu.co/index.php/noticias/429-escuela-de-pedagogia-en-evento-cientifico-internacional" target="_blank">UNICAFAM</a></p></div>2018-08-26T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/275Unicafam: La Cátedra Unicafam 2018-II, fue más que un evento académico2018-08-26T04:33:34+00:00Gestión Ingenio y Sociedad<p style="text-align: left;"><img style="margin-right: 15px; margin-bottom: 19px; float: left;" src="http://www.unicafam.edu.co/images/Noticias/2018/catedra_unicafam_2018_II/Portada.jpg" alt="Portada" width="367" height="290" /><span style="font-size: 14pt;"><strong><span style="color: #23527c;"><strong><strong><strong><strong><strong><strong>El pasado 21 de agosto se llevó a cabo la Catedra Unicafam 2018-II en el Teatro Cafam de Bellas Artes, un espacio que estuvo marcado por la reflexión.</strong> </strong></strong></strong></strong></strong><br /></span></strong></span></p><p style="text-align: justify;"><img style="margin-bottom: 10px; margin-left: 15px; float: right;" src="http://www.unicafam.edu.co/images/Noticias/2018/catedra_unicafam_2018_II/IMG_0266.jpg" alt="IMG 0266" width="239" height="200" />La jornada inició con el saludo del Rector Francisco Cajiao, quien agradeció en primer lugar a toda la comunidad universitaria por su presencia y en especial al Dr. Germán Rey, conferencista invitado, por su tiempo y disposición para compartir sus conocimientos en este importante evento para nuestra institución.</p><p style="text-align: justify;"><img style="margin-right: 15px; margin-bottom: 10px; float: left;" src="http://www.unicafam.edu.co/images/Noticias/2018/catedra_unicafam_2018_II/IMG_0271.jpg" alt="IMG 0271" width="206" height="200" />Antes de dar inicio a la charla, el Dr. Cajiao cedió la palabra al Sr. Mauricio Mayorga, portavoz aliado de la Comisión Internacional de las Naciones Unidas para Ecuador, Colombia y Venezuela, quien invitó de manera oficial a nuestros estudiantes a recorrer las instalaciones de la universidad para conocer la exposición internacional de arte <strong>"Día Mundial de los Océanos"</strong>, un proyecto con el cual se busca crear conciencia acerca de las crecientes y tóxicas <em>islas de plástico </em>que afectan el ecosistema de nuestro planeta<em>,</em> con el objetivo de que compartan cuál es su compromiso de por vida con el medio ambiente, a través de diferentes actividades que se realizarán hasta el mes de octubre.</p><p style="text-align: justify;"><img style="margin-bottom: 10px; margin-left: 15px; float: right;" src="http://www.unicafam.edu.co/images/Noticias/2018/catedra_unicafam_2018_II/IMG_0306.jpg" alt="IMG 0306" width="375" height="250" />El Dr. Germán Rey subió al escenario y enseguida captó la atención del público con la especial introducción que hizo de su charla <strong>“Un mundo de preguntas”</strong>, justamente aquellas que hoy en día tienen gran impacto en el desarrollo de las industrias, desde diferentes ámbitos como la cultura, el arte, la tecnología, la política, la comunicación y desde la más reciente llamada “Economía Naranja”, entre otros temas que debemos tener en cuenta para cuestionar nuestro papel en la sociedad. Su intervención fue un espacio de reflexión importante para toda la comunidad educativa.</p><p style="text-align: justify;"><img style="margin-bottom: 10px; margin-right: 15px; float: left;" src="http://www.unicafam.edu.co/images/Noticias/2018/catedra_unicafam_2018_II/20180821_112702.jpg" alt="20180821 112702" width="267" height="200" />El cierre del evento estuvo a cargo de la Dra. Maritza Cristancho, Vicerrectora Académica, quien anunció de manera especial el acceso que todos nuestros estudiantes tendrán al evento de <strong>SmartFilms</strong>, gracias al patrocinio de la Caja de Compensación Familiar Cafam. La noticia de la participación de los estudiantes al Festival de cine hecho con celulares, que se tomará el complejo de la Floresta del 14 al 16 de septiembre, sin duda cerró con broche de oro esta versión de la Cátedra Unicafam<em></em>.</p><p> </p>2018-08-26T04:33:34+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/274Unicafam: Taller creación de cine con celular en Unicafam2018-08-24T00:00:00+00:00Gestión Ingenio y Sociedad<p>En el marco de la cuarta versión del festival de cine hecho con celular, que se realizará por primera vez en Colombia del 14 al 16 de septiembre en el Teatro Cafam de Bellas Artes, el equipo de SmartFilms y Cafam en alianza con la Fundación Universitaria Cafam, cumplieron la primera cita el pasado 23 de julio con el desarrollo de un taller teórico – práctico, en el que un grupo de veinte estudiantes de Unicafam, exploraron las fases más importantes de la realización audiovisual: preproducción, producción y posproducción.</p><p><img style="margin-bottom: 10px; margin-left: 15px; float: right;" src="http://www.unicafam.edu.co/images/Noticias/2018/smartfilms/IMG_9569.jpg" alt="IMG 9569" width="320" height="213" />Desde muy temprano el equipo de SmartFilms compartió con los jóvenes algunos ejemplos de los cortometrajes que han participado en las versiones anteriores del festival en todas las categorías. Antes de iniciar con la parte práctica, recibieron tips y herramientas que se deben tener en cuenta en la construcción de una historia hecha para cine; enseguida, se conformaron cuatro equipos, en los cuales debían definir y cumplir roles importantes, como el director, el guionista, el editor y los actores. Luego de tener clara su historia en el papel, los estudiantes salieron a grabar en diferentes espacios de la universidad.</p><p>La tercera parte del taller, estuvo dedicada a la edición y finalización de los productos, a través de una aplicación móvil que brinda todas las herramientas para obtener un cortometraje de nivel profesional. Finalmente, los cuatro grupos compartieron sus videos con los demás equipos; éste fue un espacio de creatividad, diversión y mucho talento.</p><p><img src="/public/site/images/mikhail/festival_de_cine_unicafam1.JPG" alt="" /></p><p>El desarrollo del taller se transmitió en vivo por streaming, a través del canal de AUALCPI, la Asociación de Universidades de América Latina y el Caribe para la Integración.</p>2018-08-24T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/273Otros artículos: El queso más antiguo del mundo aparece en una tumba egipcia2018-08-22T12:24:57+00:00Gestión Ingenio y Sociedad<p>Arqueólogos egipcios y químicos italianos han localizado restos del queso más antiguo datado hasta ahora, con una edad aproximada de 3.200 años. El estudio se acaba de publicar en la revista Analytical Chemistry.</p><p> </p><p>Las muestras se han recogido en la tumba de Ptahmes, alcalde de Menfis en Egipto durante los reinados de Seti I y su sucesor Ramsés II en el siglo XIII a. C. Este sepulcro lo localizaron inicialmente cazadores de tesoros en 1885, pero quedó olvidado bajo las arenas del desierto. En 2010 fue redescubierto por un equipo de arqueólogos de la Universidad del Cairo, y años más tarde encontraron frascos rotos en su interior.</p><p> </p><p>Uno de estos tarros contenía una sustancia blanquecina solidificada, además de una tela de lienzo que seguramente sirvió para taparla. Químicos de la Universidad de Catania (Italia), dirigido por el investigador Enrico Greco, decidieron entonces analizar la sustancia para determinar su identidad.</p><p> </p><p>Después de disolver la muestra, los científicos purificaron sus componentes proteicos y los examinaron con técnicas de cromatografía líquida y espectrometría de masas. Los péptidos detectados revelaron que se trataba de un producto lácteo elaborado con leche de vaca mezclada con otra de oveja o de cabra.</p><p>Las características del tejido del lienzo, apropiado para mantener sólidos y no líquidos, junto a la ausencia de otros marcadores específicos, llevaron a los investigadores a concluir que el producto lácteo analizado era un queso sólido.</p><div class="new_text "><p>Otros péptidos encontrados en la muestra indican que estaba contaminada con Brucella melitensis, la bacteria que causa la brucelosis. Esta enfermedad potencialmente mortal, caracterizada por fiebres altas y dolores, se propaga del ganado a las personas generalmente por comer productos lácteos sin pasteurizar.</p><p> </p><p>“La brucelosis era una enfermedad ya muy extendida en el antiguo Egipto y, hasta ahora, las únicas pruebas sobre su existencia procedían de sus efectos osteoarticulares detectados en algunas momias”, comenta Greco, quien destaca que este “es el primer caso de brucelosis registrado en la era faraónica a través de pruebas biomoleculares”.</p><p>El investigador concluye que este estudio permite establecer con mayor precisión el período en el que se desarrollaron los productos lácteos en el antiguo Egipto, así como los hábitos socioeconómicos y culturales asociados. (Fuente: <a href="https://www.agenciasinc.es/">SINC</a>)</p></div><div class="floatbreaker">Tomado de <a href="https://noticiasdelaciencia.com/art/29672/el-queso-mas-antiguo-del-mundo-aparece-en-una-tumba-egipcia" target="_blank">NCYT</a></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div>2018-08-22T12:24:57+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/272Tecnología: ¿Qué es el ojo de halcón en la seguridad?2018-08-17T14:18:37+00:00Gestión Ingenio y Sociedad<p>Aunque el verano no sea la época en la que más robos se producen en los domicilios, es cierto que los delicuentes aprovechan la ausencia por vacaciones de los inquilinos para asaltar su hogar. Se trata de un periodo peligroso para la seguridad, por lo que se recomienda seguir ciertas medidas como contratar una alarma que nos permita estar más tranquilos cuando estemos fuera de casa. Ésta es una solución efectiva, pero ¿qué pasa a la vuelta? Estando la casa ocupada posiblemente haya menos probabilidad de que entren intrusos, pero no es imposible. También ha de tenerse en cuenta el hecho de que muchas personas viven solas, pero en ciertas ocasiones sienten miedo y les gustaría estar acompañadas. Para ello existe una solución actual y moderna que es el ojo de halcón.</p><p>Se trata de un <strong>sistema de seguridad inteligente</strong>, a través del cual un vigilante permanece de manera permanente (las 24 horas del día, los 7 días de la semana) en su puesto, aunque de forma virtual, es decir, a través de una pantalla. De esta manera se puede verificar lo que sucede en el inmueble donde esté colocada la misma en todo momento. Dicho sistema cuenta con un tótem que permite la comunicación bidireccional con el vigilante. Además, incluye conexión a la Central Receptora de Alarmas de la empresa contratada con aviso instantáneo a Policía o emergencias, así como servicio de intervención inmediata. Se trata de la solución perfecta para disuadir tanto el vandalismo y las agresiones como el posible mal uso de las instalaciones.</p><p> </p><p>Son varios los <strong>componentes</strong> que garantizan la tranquilidad de los vecinos:</p><p> </p><p>- Una <strong>sirena</strong> que alerta a los inquilinos en caso de que se produzca una situación sospechosa. Es actividada de manera inmediata por el vigilante en caso de ser necesario. <br /> - <strong>Cámaras</strong>, con alta resolución y visión nocturna incluida, para prestar óptima vigilancia.<br /> - Un<strong> sistema de alimentación ininterrumpido</strong> que permite que el sistema siga funcionando a pesar de que se produzca un corte de luz.<br /> - <strong>Monitor</strong> a través del cual se puede interactuar con el vigilante.<br /> - <strong>Micrófono y altavoces</strong> que aseguran la interacción a tiempo real.<br /> </p><p>Estas son algunas de las <strong>ventajas</strong> básicas que un sistema como el explicado:<br /><br /> - El <strong>vigilante está totalmente protegido</strong> en todo momento, por lo qe es invulnerable, es decir, no está expuesto a posibles ataques físicos. Esto permite que esté atento en todo momento a lo que esté sucediendo, pudiendo actuar en consecuencia.<br /> - Todos <strong>los eventos quedan grabado</strong>s y registrados.<br /> - La<strong> respuesta</strong> inmediata <strong>de la Policía</strong> en caso de ser necesaria por cualquier anomalía está garantizada.<br /> - El <strong>ahorro de costes</strong> es muy significativo, teniendo en cuenta la alta calidad de las prestaciones que se reciben.</p><p> </p><p>Gracias a las nuevas tecnologías, los usuarios interesados en este sistema pueden consultar modelos y precios a través de las páginas web de las distintas empresas que ofrezcan este servicio. No tendrán ni que salir de su casa, ya que podrán recibir toda la información necesaria a través de su teléfono, tablet u ordenador. Asimismo, pueden conactar con los teléfonos de atención al cliente, si así lo desean.</p>2018-08-17T14:18:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/271Sociedad: Estudian el impacto económico y social de los mercados de productos locales2018-08-16T11:37:23+00:00Gestión Ingenio y Sociedad<p>Un estudio realizado en diez mercados de productores locales de Gipuzkoa concluye que el impacto económico anual que reportan es de 76,5 millones de euros, más o menos un 0,35 % del Producto Interior Bruto de Gipuzkoa (España). El estudio ha sido elaborado por un grupo de investigación de la Facultad de Economía y Empresa de la UPV/EHU y la revista internacional Journal of Rural Studies acaba de publicar los resultados de esa investigación.</p><p> </p><p>“Los mercados locales no son meros lugares de conexión del medio rural y la ciudad, son también centros de dinamización de cada municipio y comarca”, señala Mirene Begiristain, miembro del grupo de investigación de la UPV/EHU. Por lo tanto, “si en el futuro queremos mantener vivos estos mercados, tenemos que valorar la importancia que tienen y deberían tener en el sistema alimenticio de los municipios y ciudades, ya que la proliferación de otros modos de comercialización, entre otros, han llevado al declive de los mercados”, añade.</p><p> </p><p>En el estudio, se ha realizado el diagnóstico de diez mercados semanales y diarios de diez municipios de Gipuzkoa que reflejan la diversa realidad que viven hoy en día esos mercados. Estos son los mercados estudiados: el mercado de la Bretxa y el mercado itinerante de San Sebastián, el mercado de Tolosa, el mercado de Ordizia, el mercado de Arrasate, el mercado de Azpeitia, el mercado de Eibar, el mercado de Bergara, el mercado de Zumarraga y el mercado de Zarautz.</p><p> </p><p>Se pasó un cuestionario a personas que asisten diaria o semanalmente a dichos mercados a la venta o compra de productos. Según los datos obtenidos de ese cuestionario, “los 26.000 ciudadanos y ciudadanas que semanalmente se acercan a esos mercados de Gipuzkoa, realizan un gasto medio de 19,5 euros al día”, da a conocer Eduardo Malagón, investigador de la UPV/EHU. “Además, el impacto económico de los mercados —comenta Malagón— no solo se limita a las ventas. En muchos municipios, los mercados son un espacio para la dinamización comercial y social, y los días de mercado las tiendas y los bares de los alrededores también obtienen unos beneficios económicos significativos”. Teniendo en cuenta ambos datos, “hemos estimado las ventas anuales, y podemos decir que el impacto económico total es de 76,5 millones de euros (0,35 % del PIB)”, explica.</p><div class="new_text "><p>Por otra parte, se han identificado y clasificado las principales motivaciones de las personas encargadas de la venta de los productos y de quienes se acercan a comprarlos. Entre el personal productor se han observado motivaciones económicas (la venta de productos), sociales (el trato con el resto del personal) y culturales (la costumbre de ir al mercado). Entre quienes se acercan a la compra de los productos, por su parte, predominan las motivaciones individuales (buscan la calidad de los productos, la relación calidad/precio), colectivas (impulsar la agricultura local y los productos locales, obtener productos ecológicos), sociales (el ambiente y trato del mercado) y culturales (cuestión de costumbres).</p><p> </p><p>Dicho esto, Aintzira Oñederra señala que “no existe ningún modelo de gobernanza para la regulación de los mercados, y el conocimiento de la situación real y concreta de los mercados ayudaría a definir las prioridades y acciones a desarrollar de cara a su reactivación dentro de la estrategia de comercialización”. Asimismo, “seguimos pensando que es importante que los distintos agentes tengan en consideración el impacto económico y social que producen estos mercados, para que lleguen a ser un lugar de encuentro para la compra y venta de productos diarios, y no un espacio para la compra de productos ocasional”, añade Oñederra. (Fuente: UPV/EHU)</p></div><div class="floatbreaker"> Fuente <a href="https://noticiasdelaciencia.com/art/29669/estudian-el-impacto-economico-y-social-de-los-mercados-de-productos-locales" target="_blank">NCYT</a></div><div class="BANNER_FIX"><div class="blockhtml"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div>2018-08-16T11:37:23+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/270Ciencia: La sonda Parker ya viaja hacia el Sol2018-08-13T00:00:00+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/Sonda.JPG" alt="" />Tras un retraso de 24 horas por problemas técnicos, la empresa ULA pudo enviar al espacio la esperada misión Parker Solar Probe de la NASA, que se halla ya en ruta hacia el sistema solar interior. El despegue se efectuó a las 07:31 UTC del domingo 12 de agosto, y se utilizó para ello un potente cohete Delta-4 Heavy. Además, la sonda fue unida a una etapa adicional de combustible sólido para alcanzar la velocidad requerida.</p><p>El lanzamiento se realizó desde Cabo Cañaveral, y transcurrió sin dificultades, más allá de algunos problemas en la recepción de la telemetría en la fase final de la operación.</p><p>La Parker Solar Probe, llamada así en honor del físico Eugene Parker, quien contempló el despegue y en 1958 propuso la existencia del viento solar, tiene como objetivo estudiar el Sol desde muy cerca. Pesa 685 kg y ha sido desarrollada por el laboratorio APL para la NASA. Dispone de varios instrumentos y de un escudo térmico para mantenerlos a temperaturas adecuadas a pesar de la cercanía con el Sol.</p><p>La nave ya ha abierto los paneles solares y en los próximos días hará lo mismo con su antena de alta ganancia y la pértiga de su magnetómetro. En octubre efectuará un sobrevuelo junto a Venus, donde la asistencia gravitatoria modificará su velocidad para acercarse al Sol en noviembre, a unos 24 millones de kilómetros de distancia. Se han previsto otros seis sobrevuelos de Venus a lo largo de su misión de siete años, lo que permitirá 24 pasadas junto al Sol, cada vez más cerca, hasta una distancia mínima de unos 6 millones de kilómetros.</p><p>Durante toda su vida útil, la Parker intentará averiguar por qué la temperatura en la corona es mucho más elevada que en la superficie del Sol (300 veces más). Sus cuatro instrumentos analizarán los campos magnéticos solares, el plasma y las partículas cargadas, además de obtener imágenes del viento solar.</p><p>La sonda transporta 1,1 millones de nombres de personas de la Tierra.</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/29658/la-sonda-parker-ya-viaja-hacia-el-sol" target="_blank">NCYT</a></p>2018-08-13T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/269Medio Ambiente: Es posible ahorrar energía si se utilizan correctamente los artefactos de cocina2018-08-13T21:21:03+00:00Gestión Ingenio y Sociedad<div class="new_text "><p>Esta afirmación surge de un estudio realizado por el INTI y la Universidad Nacional San Martín (Argentina). Los especialistas recomiendan cómo reducir el consumo energético en la cocción de alimentos.</p><p> </p><p>Se estima que en las cocinas se consume más del diez por ciento de la energía de los hogares. Con el objetivo de reducir esta cifra, especialistas del INTI y de la Universidad Nacional San Martín realizaron una serie de ensayos para medir qué sucede cuando cocinamos alimentos.</p><p> </p><p>“Lo primero que analizamos fue el calentamiento de agua en hornallas, porque la mayoría de las veces que utilizamos las cocinas es con el fin de calentar una pava y preparar comidas hervidas”, detalla Pablo Romero del Centro de Energía del INTI. Para llevarlo adelante realizaron más de 50 ensayos en anafes —eléctricos con resistencia, a gas y eléctricos de inducción—, pavas eléctricas y microondas.</p><p> </p><p>Se pudo determinar que la clave para evitar pérdidas de calor es utilizar recipientes donde quede alto el nivel de agua, que cubran toda la hornalla y emplear la mínima cantidad de líquido posible (por ejemplo, evitar hervir cien gramos de fideos en 5 litros de agua). También es importante tapar siempre la olla porque se pierde energía en la evaporación de agua y apagar o reducir la llama cuando la cocción llegue al punto de hervor.</p><p> </p><p>“Los usos y las metodologías a la hora de la cocción tienen un mayor impacto que la eficiencia misma de las diferentes tecnologías. Por lo que los esfuerzos deberían estar más focalizados en utilizar los equipos adecuadamente que en buscar nuevos dispositivos de mayor eficiencia”, destaca Pablo Andrés Sensini como conclusión de la investigación, que formó parte de su trabajo final de la carrera de Ingeniería en Energía en la Universidad Nacional de San Martín.</p><p> </p><p>Para completar el estudio, se está ensayando el desempeño de hornos eléctricos y a gas en la cocción de diferentes alimentos, desde bizcochuelos hasta carnes y pollos. “Su eficiencia es más difícil de definir, porque la energía dentro se utiliza principalmente para mantener una temperatura. Entonces, estaría básicamente relacionada a su aislación porque en tal caso sería el calor útil (la diferencia entre la energía aportada por el gas y el calor que se pierde, dividido por el total de energía aportada por el gas). Pero eso no dice nada sobre cómo se cocina el alimento o cuánto tarda”. En relación a este artefacto, el Ente Nacional Regulador del Gas (ENARGAS) recomienda: usarlo con moderación —porque consume lo mismo que dos hornallas encendidas—, no emplearlo para calefaccionar el hogar —debido a que no es eficiente y puede resultar peligroso— y apagarlo cuando finaliza su uso.</p><p> </p><p>Para la medición de la eficiencia energética se utilizaron sensores de temperatura eléctricos (termocuplas), registradores, un caudalímetro para determinar el volumen de gas y una balanza. Los datos se analizaron a través del Software ADQ, desarrollado por INTI-Energía, que grafica en tiempo real cada ensayo y permite realizar estudios comparativos. “Con los resultados estamos armando una guía de buenas prácticas en la cocción de alimentos”, anticipa Romero. (Fuente: INTI)</p><p>Tomado de <a href="https://noticiasdelaciencia.com/art/29655/es-posible-ahorrar-energia-si-se-utilizan-correctamente-los-artefactos-de-cocina" target="_blank">NCYT</a></p></div>2018-08-13T21:21:03+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/268Medio Ambiente: Tejados verdes para mejorar la calidad de vida en las ciudades2018-08-06T15:49:50+00:00Gestión Ingenio y Sociedad<p>La alumna Paula Anza, estudiante de la doble titulación del Grado en Ciencias Ambientales y Grado en Ingeniería forestal de la Universidad Católica de Ávila (UCAV) (España), ha publicado sus estudios sobre tejados verdes en la prestigiosa revista 'Urban Forestry & Urban Greening', una de las más importantes del sector forestal a nivel internacional. El TFG plantea la utilización de la naturaleza para solucionar los problemas ambientales en entornos urbanos. La implantación de tejados verdes en las ciudades produciría multitud de beneficios ambientales, sociales y económicos.</p><p>Este trabajo ha sido tutorizado por los profesores Javier Velázquez, Javier Gutiérrez y Beatriz Sánchez, pertenecientes al grupo de investigación Técnicas para la Planificación Integral y la Gestión Sostenible del Territorio.</p><p>Este trabajo de investigación propone una metodología a través de la cual poder seleccionar, dentro de un entorno urbano, la mejor ubicación posible para la instalación de tejados verdes. El estudio se ha llevado a cabo sobre la ciudad de Madrid, pero este método puede extrapolarse a cualquier zona urbana del mundo.</p><p>Dado que los problemas ambientales que surgen en entornos urbanos van en aumento, se plantea la idea de emplear estas estructuras como una forma de reducir sus consecuencias negativas. Gracias a los tejados verdes se consigue mejorar la calidad de vida de los habitantes de estas zonas tan urbanizadas desde un punto de vista económico, sanitario y ambiental. Mejoran el aislamiento térmico y acústico de las viviendas, reduciendo así el consumo eléctrico, ayudan a filtrar la contaminación atmosférica, captan el agua de lluvia, favorecen el desarrollo de la biodiversidad y reducen el efecto “isla de calor”.</p><p>En la primera fase de la metodología propuesta se seleccionaron las zonas o barrios con peores condiciones ambientales, es decir, aquellos que presentaban una elevada contaminación, tráfico intenso, pocas áreas verdes y una mayor densidad de población, para beneficiar a un mayor número de personas.</p><p>En una segunda fase, se escogieron, mediante análisis de datos de láser aerotransportado, aquellas azoteas que presenten una cubierta plana (para facilitar la instalación) y a una altura similar a la del arbolado urbano. Por último se estudió, con análisis de grafos, la red de conectividad que conforman las azoteas propuestas con el arbolado urbano y las áreas verdes de la ciudad, para de esta forma tejer una red verde dentro de la ciudad que favorezca la dispersión de las especies vegetales y animales que habitan ese entorno. Se trata de un método sencillo pero efectivo que permitiría a las grandes ciudades determinar los mejores lugares donde implantar los tejados verdes y así fomentar el desarrollo urbano sostenible y de calidad. (Fuente: UCAV/DICYT)</p>2018-08-06T15:49:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/267Ciencia: Rol de los bosques tropicales en el cambio clímático2018-08-02T00:00:00+00:00Gestión Ingenio y Sociedad<p>Así, los bosques tropicales corren el riesgo de convertirse en una importante fuente de emisiones en las próximas décadas a medida que se acelera el cambio climático y continúa la deforestación, impulsada por la agricultura, el pastoreo y la minería en América del Sur, Asia y África.</p><p><img src="/public/site/images/mikhail/Bosques_tropicales1.JPG" alt="" width="731" height="406" /></p><p>Para los científicos, la pérdida de bosques, principalmente en las regiones tropicales, representa alrededor de la quinta parte de las emisiones de gases de efecto invernadero causadas por el hombre. Hoy en día, una cantidad equivalente de CO2 es absorbida por los bosques restantes. No obstante, si se detuviera la deforestación y la degradación y los bosques se recuperaran, uan vez más absorberían emisiones significativas de gases de efecto invernadero.</p><p>Pero es difícil predecir el destino de los bosques tropicales en las condiciones actuales. Predecir el resultado requeriría de más experimentos de campo y de más países que compartan sus datos, para aprovechar las observaciones de los satélites.</p><p> </p><p>"Predecir cómo los bosques tropicales se verán afectados por el cambio climático es un desafío complejo. Las investigaciones indican que los bosques pronto podrían dejar de contrarrestar el calentamiento y, en su lugar, convertirse en una fuente importante de gases de efecto invernadero", concluye. (Fuente: DICYT)</p><p>Tomadao de <a href="https://noticiasdelaciencia.com/art/29554/los-bosques-tropicales-pueden-obstaculizar-en-lugar-de-ayudar-los-esfuerzos-contra-el-cambio-climatico" target="_blank">NCYT</a></p>2018-08-02T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/266Ciencia: Nuevos datos de la misión espacial Planck refuerzan el actual modelo del Universo2018-07-31T00:00:00+00:00Gestión Ingenio y Sociedad<p>Los últimos datos obtenidos por la sonda Planck de la Agencia Espacial Europea (ESA) confirman, con un alto grado de certeza, el modelo cosmológico estándar que describe actualmente la formación y la evolución del Universo. Las conclusiones, que acaban de presentarse, ratifican, con mayor precisión que en anteriores publicaciones (en 2013 y 2015), la temperatura y la polarización de la conocida como radiación de fondo de microondas (o CMB, por sus siglas en inglés), una luz fósil que se generó en el inicio del Universo y cuyas características nos proporcionan una valiosa información sobre la edad, el ritmo de expansión, la historia y el contenido energético del Cosmos.</p><p>Según Jan Tauber, científico del proyecto Planck de la ESA, “hasta ahora el modelo estándar de la Cosmología ha superado todas las pruebas y Planck ha hecho las medidas que lo demuestran”. Por su parte, Reno Mandolesi, investigador principal del instrumento LFI (Low Frequency Instrument) de la Misión Planck en la Universidad de Ferrara (Italia), considera que el rigor obtenido en el procesamiento de los datos pone fin a la prudencia previa sobre su validez y afirma que "ahora estamos seguros de que podemos obtener un modelo cosmológico basado solamente en temperatura, solamente en la polarización o uno basado en la temperatura y la polarización; y todos encajan”.</p><p>Estos resultados finales, que han sido bautizados como ‘el legado de Planck’, confirman a los cosmólogos su actual descripción del Universo como un lugar que contiene materia ordinaria, materia oscura fría y energía oscura, y poblado por estructuras que se habrían originado en una breve fase inicial de expansión acelerada denominada inflación. Sin embargo, aunque la misión ha proporcionado a los investigadores una reafirmación de sus modelos, sigue habiendo algunos interrogantes por resolver.</p><p>Para José Alberto Rubiño, investigador del Instituto de Astrofísica de Canarias (IAC) y miembro del consorcio Planck, “el legado de Planck verifica, con una precisión sin precedentes, el modelo cosmológico estándar, aunque este modelo no está completo, puesto que no se ha conseguido una detección de ondas gravitacionales primordiales, tal como predicen los modelos de Inflación”. Y añade: “Los mapas de Planck son una guía excepcional en nuestra búsqueda de esa señal primordial asociada a la primera fracción de segundo de vida de nuestro Universo”.</p><p>Otra de las cuestiones que aún necesita una explicación está relacionado con la expansión del Universo, cuyo ritmo viene dado por la llamada Constante de Hubble. Para calcular este valor, que mide el ritmo con el que la velocidad de expansión del Universo varía con la distancia, se pueden utilizar dos técnicas: una tradicional, usando el Universo local y midiendo la luminosidad aparente de ciertos tipos de estrellas variables cercanas y de estrellas en explosión cuya luminosidad absoluta se puede estimar de forma independiente; y otra basada en el Universo temprano y distante, usando el modelo cosmológico que se ajusta a la imagen del fondo cósmico de microondas.</p><p><img src="/public/site/images/mikhail/universo2.JPG" alt="" /></p><p>Aunque estas dos formas radicalmente diferentes de determinar la constante de Hubble proporcionan resultados próximos, ambas partes están convencidas de que cualquier error producido por sus métodos de medida es demasiado pequeño como para causar la discrepancia. Por lo que muchos piensan que quizás haya una “nueva física” que encontrar.</p><p>Esta física estaría relacionada con la detección de partículas o fuerzas exóticas que podrían estar afectando a los resultados. No obstante, los resultados de Planck imponen rigurosas restricciones a esta línea de pensamiento debido a que se ajusta muy bien a la mayoría de las observaciones. “Por el momento, no debemos emocionarnos demasiado por encontrar una nueva Física: podría ser que la discrepancia relativamente pequeña pudiera explicarse como una combinación de pequeños errores y efectos locales. Pero necesitamos seguir mejorando nuestras medidas e ideando nuevas maneras de explicarlo,” sostiene Tauber.</p><p> </p><p>Planck se lanzó en 2009 y recogió datos hasta 2013. Su primera publicación, que apareció ese mismo año, se basó únicamente en la temperatura de la radiación de fondo de microondas y usó solo los dos primeros cartografiados del cielo de la misión. Su ‘imagen’ del Cosmos, aunque similar a la obtenida por las dos misiones de la NASA anteriores, COBE y WMAP, mostró por primera vez la huella del Universo temprano con una precisión y nitidez sin precedentes.</p><p>Los datos también proporcionaron evidencias de la inflación, mostrando la distribución relativa de pequeñas fluctuaciones primordiales que sembraron todas las estructuras cósmicas conocidas. Planck midió además su polarización, la manera en que la luz vibra en una dirección predilecta y que lleva implícita la huella de la última interacción entre la radiación y la materia en el Universo temprano y, por lo tanto, contiene información sobre los primeros instantes del Cosmos.</p><p>En 2015, una segunda publicación recopiló todos los datos recogidos por la misión utilizando ocho cartografiados del cielo. Planck proporcionó información sobre la temperatura y la polarización, pero con un inconveniente: la calidad de algunos datos de la polarización no era suficientemente buena y algunas conclusiones precisaban de confirmación. Esta prudencia ha dado paso finalmente a la evidencia con los nuevos datos procesados en 2018 que se acaban de dar a conocer.</p><p>La misión Planck ha contado desde sus inicios con la colaboración del personal investigador del IAC y de su Área de Instrumentación, donde un equipo bajo la dirección del Profesor Rafael Rebolo (co-Investigador de esta misión espacial) desarrolló entre los años 1993 y 2008 la electrónica de control del instrumento de baja frecuencia (LFI), el software de control de este instrumento y su software de compresión de datos. Además, desde el IAC J.A. Rubiño ha coordinado uno de los siete grupos de ciencia principales de la misión Planck (el de “Cúmulos de galaxias”). Y entre otros aspectos, el grupo de cosmología del IAC ha contribuido al procesado y validación de los mapas del instrumento LFI a través del denominado LFI Core Team. (Fuente: <a href="http://www.iac.es/divulgacion.php?op1=16&id=1422">IAC</a>)</p>2018-07-31T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/265Ciencia: Reconstruyen el cráneo de Concavenator2018-07-24T12:57:02+00:00Gestión Ingenio y Sociedad<p>El estudio mediante técnicas de reconstrucción virtual 3D del cráneo de Concavenator corcovatus, alias “Pepito”, el famoso dinosaurio jorobado de Cuenca, ha aportado nuevos conocimientos sobre los carcarodontosáuridos, el linaje de los grandes dinosaurios carnívoros del Cretácico. Los resultados los publican en la revista Cretaceous Research científicos de la Universidad Autónoma de Madrid (UAM) y la Universidad Nacional de Educación a Distancia (UNED) (España).</p><p>Las características más conocidas de Concavenator son la presencia de una estructura similar a una joroba en la espalda, y unas protuberancias en el brazo que indican la presencia de plumas ancestrales. “Pepito”, como se conoce entre allegados a este dinosaurio carnívoro de 6 metros, está representado por un esqueleto prácticamente completo y articulado; un fósil singular que incluso preserva las escamas del pie y la cola.</p><div><p>Un trabajo reciente, publicado en Cretaceous Research, presenta un completo estudio sobre su cráneo. Según este, el esqueleto de la cabeza está prácticamente completo, solo faltan algunos fragmentos del hocico y de la parte posterior; daños producidos principalmente por la intervención de maquinaria forestal y la formación natural de diaclasas (grietas) en las calizas del yacimiento Las Hoyas, donde fue descubierto el ejemplar.</p><p>A pesar de estar prácticamente completo, el estudio del cráneo tiene una gran dificultad por la compresión producida por los sedimentos. “Podríamos decir que está preservado casi en 2 dimensiones”, aseguran los autores. </p><p>Los autores del trabajo, científicos de la Universidad Autónoma de Madrid (UAM) y la Universidad Nacional de Educación a Distancia (UNED), han logrado solventar los problemas de preservación con novedosas y actuales técnicas de reconstrucción informática en 3 dimensiones.</p><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Estas técnicas permiten reconstruir las partes que se han perdido y eliminar la deformación producida por la compresión. En el caso del cráneo de Concavenator, los autores utilizaron una técnica conocida como fotogrametría, que permite la obtención de modelos 3D del fósil.</p><p>Sobre estos modelos se puede discriminar el hueso fósil (es decir, eliminar virtualmente los restos de roca que lo contiene); se puede recuperar el volumen perdido durante la fosilización, y se pueden recrear las partes que faltan o que no están completas.</p><p>Este modelado se realiza comparando la anatomía de Concavenator con otros dinosaurios cercanamente emparentados. “Así obtuvimos el cráneo digitalizado en 3D de Concavenator, que permite su manipulación, e incluso puede llegar a imprimirse, lo que constituye una gran ventaja de investigación y museística”, destacan los científicos.</p><p>La tecnología 3D –en combinación con el estudio clásico de anatomía comparada de restos fósiles de otros dinosaurios emparentados– permitió realizar un análisis osteológico completo, del que se han obtenido resultados relevantes para conocer la historia evolutiva de los carcarodontosáuridos.</p><p>Los carcarodontosáuridos son un grupo de grandes terópodos que habitaron durante el Cretácico en gran parte de las regiones del mundo. Su papel ecológico puede compararse al de los famosos tiranosáuridos; ambos superpredadores.</p><p> “Este nuevo estudio del cráneo de Concavenator aporta información relevante en nuestro conocimiento de la estructura craneal de los grandes dinosaurios carnívoros. En el linaje de los carcarodontosáuridos, el caso de Concavenator demuestra que estos depredadores desarrollaron un cráneo especializado en el consumo de presas, desde hace al menos 125 millones de años”, concluyen los autores. (Fuente: UAM)</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/29477/reconstruyen-el-craneo-de-concavenator/" target="_blank">NCYT</a></p></div><div class="BANNERS BANNERS-TOP"><div class="BANNER BANNER-first"><div class="ENTRADA html"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div></div></div>2018-07-24T12:57:02+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/264Ciencia: Una nueva falla en el mar de Alborán2018-07-24T12:29:15+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de científicos liderado por el Consejo Superior de Investigaciones Científicas (CSIC) (España) ha identificado una nueva falla en el mar de Alborán. La fractura produce escasa deformación en el fondo marino, aunque sí “terremotos de magnitudes relativamente altas”, como el de magnitud 6,3 en la escala Richter que afectó a la ciudad de Melilla y varias zonas de Andalucía el 25 de enero de 2016. Los resultados de esta investigación, que aparecen publicados en la revista Tectonics, permiten establecer potenciales riesgos geológicos en el mar de Alborán.</p><p> </p><p>El trabajo, que se enmarca en la campaña INCRISIS de geología y geofísica marina llevada a cabo a bordo del buque Hespérides en mayo de 2016, sitúa la nueva falla en los límites entre las placas tectónicas euroasiática y africana en el mar de Alborán, la parte más occidental del Mediterráneo. Hasta ahora, la principal falla conocida en esta zona era la de Al-Idrisi.</p><p> </p><p>“Tras el terremoto de enero de 2016, que causó daños notables en Melilla y otras ciudades marroquíes, nos propusimos cartografiar el fondo marino y estudiar la sismicidad de la zona, ya que esta no se correspondía con la posición de la falla de AlIdrisi, que afecta a la zona central y sur del mar de Alborán. Nuestra investigación confirma que la sismicidad inicial está asociada a una falla en un estado inicial de formación, que tiene una dirección Noreste-Suroeste y que produce escasa deformación en el fondo marino”, indica Jesús Galindo-Zaldívar, investigador en el Instituto Andaluz de Ciencias de la Tierra (centro mixto del CSIC y la Universidad de Granada) y principal autor del trabajo.</p><p>Entre las conclusiones del estudio, destaca también que continúa la formación del arco de Gibraltar entre Iberia y África con la migración de la deformación tectónica hacia el Oeste. En cuanto a la sismicidad, esta se extiende también hacia el Norte, afectando a la región del Campo de Dalias, en Almería.</p><p>La nueva zona de falla localizada, que se extiende hacia Marruecos, fue asimismo la causante de otros dos terremotos registrados en 1994 y en 2004. Este último, de magnitud entre 6,1 y 6,3 grados en la escala de Richter, afectó principalmente a la región de Alhucemas, en el norte de Marruecos, y causó más de 600 muertes.</p><p>“En el seísmo de 2004, los eventos de mayor magnitud no se relacionaban directamente con ninguna falla conocida en superficie. Por eso era importante para nosotros conocer la tectónica en tierra y mar. Además, estudiamos tanto la zona afectada por la sismicidad como la propia falla de Al-Idrisi”, destaca Gemma Ercilla, investigadora del CSIC en el Instituto de Ciencias del Mar. Y agrega: “La existencia de deslizamientos submarinos y fallas recientes menores en la zona del epicentro confirman la actividad tectónica de esta zona de falla incipiente con elevado riesgo sísmico”.</p><p>Durante la campaña INCRISIS, los científicos delimitaron la zona afectada por el terremoto principal y la sismicidad posterior hasta la falla de Al-Idrisi. Para conocer la morfología del fondo marino y la estructura del subfondo, emplearon instrumentos geofísicos, como la sonda multihaz, la sonda paramétrica, el gravímetro y el magnetómetro. También emplearon los datos de sismicidad del Instituto Geográfico Nacional para conocer la localización de los terremotos y los mecanismos focales. Además, se tuvieron en cuenta las investigaciones en tierra de las fallas que produjeron los terremotos del 1994 y 2004.</p><p> </p><p>“Nuestro trabajo sienta las bases para focalizar los futuros estudios geológicos, sísmicos, geodésicos en esta zona principal de deformación, desde Alhucemas hasta el Campo de Dalias, que cruza por el mar de Alborán”, destaca Galindo-Zaldívar.</p><p> </p><p>Esta investigación es fruto de la coordinación y colaboración del CSIC, la Universidad de Granada, la Universidad de Jaén, el Real Instituto y Observatorio de la Armada-San Fernando, el Instituto Geológico y Minero de España, el Instituto Español de Oceanografía, el Instituto Hidrográfico de la Marina, Université Sorbonne de París, Université Mohammed Premier Oujda, Université Mohammed V-Agdal-Rabat y Université Abdelmalek Essaadi- Tetouan. (Fuente: CSIC/DICYT)</p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/29482/una-nueva-falla-en-el-mar-de-alboran/" target="_blank">NCYT</a></p>2018-07-24T12:29:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/263Tecnología: Un robot guepardo capaz de caminar a ciegas por terrenos complejos2018-07-11T14:33:29+00:00Gestión Ingenio y Sociedad<p>El robot Cheetah 3 es capaz de correr y saltar sobre terreno accidentado, así como de recuperar rápidamente su equilibrio cuando es empujado de manera súbita, todo ello siendo esencialmente ciego.</p><p>La bestia mecánica pesa unos 40 kilogramos, es del tamaño de un perro labrador adulto, y ha sido diseñada intencionadamente para que haga todo esto sin depender de cámaras o de cualquier otro sensor parecido del entorno. En su lugar, "nota" al momento las características del terreno por el que avanza basándose en la percepción táctil instantánea de cada trozo de terreno con el que entra en contacto físico al pisarlo, y en el rápido procesamiento de la información obtenida de este modo.</p><p><img src="/public/site/images/mikhail/Robot1.JPG" alt="" /></p><p>Los robots con este diseño mejorado podrían ser usados para explorar zonas de desastre y otros entornos peligrosos o inaccesibles.</p><p>El principal diseñador de Cheetah 3, el robotista Sangbae Kim del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, pronostica que en el plazo de unos pocos años, este modelo de robot estará listo para pasar del laboratorio a las misiones reales, que en su mayor parte serán demasiado peligrosas para enviar personas a realizarlas, o en sitios de acceso muy difícil para humanos.</p><p>El trabajo de investigación y desarrollo ha sido financiado en parte por la Oficina de Investigación Científica de la Fuerza Aérea estadounidense.</p><p> Tmado de <a href="http://noticiasdelaciencia.com/not/29288/un-robot-guepardo-capaz-de-caminar-a-ciegas-por-terrenos-complejos/">NCYT</a></p>2018-07-11T14:33:29+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/262Tecnología: Hacia un anticongelante que permita una mejor conservación a baja temperatura de tejidos vivos sin daños2018-07-11T14:25:15+00:00Gestión Ingenio y Sociedad<p>Los mecanismos de supervivencia de los peces polares han sido la fuente de inspiración para unos científicos que han desarrollado un método revolucionario con el que "congelar" microorganismos. Este podría ser el primer paso hacia una serie de mejoras radicales en el almacenamiento y transporte de órganos humanos, comida y medicamentos.</p><p>El equipo de Matthew I. Gibson, de la Universidad de Warwick en el Reino Unido, ha ideado una forma de crioconservar (o "congelar") una amplia gama de bacterias usando reproducciones sintéticas de proteínas anticongelantes naturales encontradas en ciertos peces polares.</p><p>Gibson y sus colegas hallaron que añadir los sucedáneos de esas proteínas ralentiza el crecimiento de cristales de hielo y evita que estos destruyan las células bacterianas.</p><p>Se emplean bacterias en una amplia gama de procesos, incluyendo bastantes de tipo alimentario (un caso muy conocido es el de los yogures), otros de fabricación farmacéutica (por ejemplo, elaboración de insulina), y algunos de producción de enzimas (por ejemplo, detergentes en polvo), y se utilizan rutinariamente en laboratorios de investigación para estudiar las infecciones y los fundamentos de numerosos procesos biológicos.</p><p>El método tradicional para conservar las bacterias usadas en casi todos los laboratorios microbiológicos del mundo es añadirles glicerol para reducir los daños inducidos por la congelación. Sin embargo, no todas las bacterias se recuperan tras la descongelación y el glicerol debe ser eliminado de ellas para permitir su crecimiento y otras funciones normales.</p><p>El nuevo método de crioconservación desarrollado por Gibson y sus colegas está inspirado por el proceso a través del cual los organismos conocidos como extremófilos sobreviven en algunas de las regiones más frías de la Tierra.</p><p>El grupo tiene un interés particular en las especies de peces polares que producen proteínas anticongelantes. Tomándolas como modelo de referencia, estos investigadores han comprobado que los polímeros sintéticos que emulan a las proteínas de estos peces son efectivos a la hora de hacer el mismo trabajo.</p><p>Combinando dos polímeros para ralentizar el crecimiento del hielo durante la crioconservación, los investigadores consiguieron recuperar más bacterias tras congelarlas que empleando métodos convencionales.</p><p>También usaron menos aditivos en total. En algunos casos, utilizaron una cantidad de apenas el 1 por ciento del peso, un porcentaje mucho más bajo que el del 20 por ciento que es típico en los métodos tradicionales.</p><div>Tomado de <a href="http://noticiasdelaciencia.com/not/29325/hacia-un-anticongelante-que-permita-una-mejor-conservacion-a-baja-temperatura-de-tejidos-vivos-sin-danos/" target="_blank">NCYT</a></div>2018-07-11T14:25:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/261Ciencia: Permiten reconstruir las rutas del antiguo imperio romano2018-06-13T14:29:06+00:00Gestión Ingenio y Sociedad<p>El trabajo conjunto de historiadores, matemáticos, informáticos y físicos expertos en redes complejas, sumado al uso de simulaciones informáticas, ha permitido reconstruir cómo era el comercio del antiguo imperio romano. La investigación se ha llevado a cabo en el marco del proyecto europeo «Production and distribution of food during the Roman Empire: economic and political dynamic» (EPNet), que lidera el catedrático de la UB (Catalunya, España) José Remesal y que recibió una de las prestigiosas Advanced Grants del Consejo Europeo de Investigación (ERC). En contraposición a las teorías que priorizaban la importancia del valle del Ródano como vía comercial, el estudio ha mostrado que el comercio a escala continental entre las distintas provincias romanas creaba flujos importantes, y que el Atlántico era la ruta principal para transportar el aceite, las conservas de pescado y el vino producidos en la península ibérica (provincias Bética y Tarraconense) hasta el norte de Europa. Estas y otras conclusiones se publican ahora en la revista Journal of Archaeological Science.</p><div><img src="/public/site/images/mikhail/Imperio_Romano1.JPG" alt="" /></div><div>Para llevar a cabo la investigación se ha usado la base de datos del Centro para el Estudio de la Interdependencia Provincial en la Antigüedad Clásica (CEIPAC) de la UB. En esta base de datos se reúnen 43.000 registros arqueológicos, concretamente de restos de ánforas. Estos recipientes se pueden considerar el mejor indicador para estudiar el comercio de alimentos en la antigua Roma. Estaban presentes en todo el imperio y llevaban grabados unos sellos con información precisa sobre el lugar de procedencia y otras características de los productos: serían la versión en la Antigüedad de las etiquetas que encontramos actualmente en la comida que compramos. La investigación que ahora se publica analiza esta inmensa base de datos de epigrafía anfórica con métodos propios de la física y la informática para contrastar las diferentes teorías sobre el comercio en la Antigüedad. Así, además del CEIPAC, los demás socios del proyecto EPNet son el grupo de investigación de la UB PhysComp, coordinado por Albert Díaz Guilera, que se dedica al estudio de redes complejas desde la perspectiva de la física estadística; el Barcelona Supercomputing Centre (Xavier Rubio e Iza Romanowska), y la consultora SIRIS Academic, especializada en modelos semánticos y gestión del conocimiento (Bernardo Rondelli).</div><p>En el artículo publicado se concluye, por ejemplo, que la distribución por provincias tenía un papel relevante en el comercio de los alimentos, o que las provincias cercanas geográficamente muestran coincidencias (ánforas con los mismos sellos de procedencia), seguramente porque compartían las mismas rutas comerciales. Igualmente, se observa que las provincias con importantes destacamentos militares también presentan similitudes entre ellas, lo que indica que unidades del ejército separadas por miles de kilómetros se abastecían con el mismo sistema de proveedores.</p><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>En los resultados se observan similitudes, con respecto a la epigrafía anfórica, entre las provincias del valle del Rin (Recia, Germania Superior y Germania Inferior) y las zonas de Britania y Bélgica. En cambio, no existe esta similitud con las provincias de la Galia. Esta diferencia hace pensar que los productos procedentes de la península ibérica no llegaban al norte de Europa a través del Ródano, atravesando la Galia, como algunas hipótesis defendían, sino que las ánforas se transportaban a través del Atlántico.</p><p>«Lo más relevante de nuestro proyecto es que hemos vinculado diferentes disciplinas de modo que las hipótesis sean falsables», explica José Remesal. El artículo publicado en Journal of Archaeological Science señala que el método aplicado ha permitido superar la complejidad y las distorsiones propias de una información fragmentada como son los restos arqueológicos. Si bien este tipo de análisis cuantitativo y las simulaciones informáticas se han usado más para estudiar otras etapas anteriores (básicamente, para analizar las sociedades prehistóricas), el artículo apunta las posibilidades que se abren para conocer mejor la Roma clásica, creadora de la primera red comercial europea compleja. Por ejemplo, se menciona la posibilidad de aplicar el nuevo método a otros productos y a recipientes distintos de las ánforas.</p><p>Los investigadores de EPNet han hecho un nuevo avance en este sentido con la creación de Roman Open Data, un conjunto de bases de datos de modelo ontológico, propio de los últimos adelantos en informática, que facilita la comunicación entre distintos sistemas de información mediante un exhaustivo esquema conceptual. Concretamente, Roman Open Data puede llegar a acoger hasta una cuarentena de bases de datos sobre historia antigua. Actualmente, se encuentran en ella la base de datos del CEIPAC, la de la Universidad de Heidelberg sobre personajes históricos y la de la Universidad de Southampton sobre formas de ánforas.</p><p>Por el momento, Roman Open Data contiene 43.000 documentos con un total de un millón de datos. Se ha pedido una nueva ayuda europea para continuar desarrollando esta base de datos con el objetivo de que historiadores y arqueólogos dispongan de un rico patrimonio de información existente en toda Europa, con un conjunto de recursos informáticos que faciliten y potencien nuevas investigaciones. (Fuente: U. Barcelona)</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/28975/la-colaboracion-entre-historiadores-matematicos-informaticos-y-fisicos-permite-reconstruir-las-rutas-del-antiguo-imperio-romano/" target="_blank">NCYT</a></p></div><div class="BANNERS BANNERS-TOP"><div class="BANNER BANNER-first"><div class="ENTRADA html"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div></div>2018-06-13T14:29:06+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/260Medio Ambiente: Los residuos orgánicos humanos facilitan la restauración de suelos degradados por la minería2018-06-13T14:19:58+00:00Gestión Ingenio y Sociedad<p>Un equipo de la Estación Experimental de Zonas Áridas (EEZA), centro del Consejo Superior de Investigaciones Científicas (CSIC), en Almería (España), ha comprobado a través de un estudio de campo de varios años en una cantera de roca calcárea, que los suelos degradados por la actividad minera pueden mejorar la infiltración y reducir su erosión hídrica con la aplicación de enmiendas conformadas por residuos orgánicos provenientes de la actividad humana. El trabajo se ha publicado recientemente en el último número de la revista Land Degradation and Development.</p><p>El proyecto de investigación experimental, liderado por el investigador de la EEZA, Albert Solé Benet, se inició en el año 2008. Se basó en una restauración experimental en las canteras de roca calcárea de la fábrica de cemento de Gádor, en Almería. Esta zona se sitúa en el límite climático entre el árido y el semiárido. Como técnicas de restauración se emplearon dos tipos de enmiendas orgánicas; por una parte, los lodos procedentes de la Estación Depuradora de Aguas Residuales Urbanas; y por otra parte, un compost procedente de la fracción orgánica de residuos sólidos urbanos. También se aplicaron dos tipos de acolchados o capas superficiales protectoras: grava y astillado forestal.</p><p>En el estudio se ha analizado la porosidad 2D con técnicas micromorfométricas y se han utilizado simuladores de lluvia, diseñados para sustituir la lluvia natural y determinar una serie de parámetros hidrológicos esenciales como la infiltración, la escorrentía y la erosión. Explica Lourdes Luna Ramos, investigadora de la EEZA y autora del artículo, que “en Almería, en donde la lluvia ocurre con muy poca frecuencia y a veces de manera torrencial, un simulador de lluvia es muy útil. Nos permite controlar tanto la cantidad como la intensidad de la lluvia y conocer qué relación tiene con los parámetros mencionados de infiltración y erosión, entre otros”.</p><p>En cuanto al uso de los lodos de depuradora y el compost, el estudio concluye que las enmiendas orgánicas mejoran la infiltración y reducen la erosión hídrica. “La utilización de técnicas de bajo coste como los residuos orgánicos procedentes de la actividad humana, contribuyen de manera directa a disminuir la presión ambiental procedente de la actividad antrópica”, señala Luna Ramos.</p><p><span>Las diferentes combinaciones de enmiendas orgánicas y acolchados generaron sistemas de poros diferentes que tuvieron respuestas hidrológicas diversas. Tradicionalmente se ha creído que los acolchados ayudan a conservar la humedad del suelo en zonas áridas con fuerte déficit hídrico; sin embargo, este estudio ha demostrado que la grava y el astillado forestal que se han utilizado como acolchados, no favorecieron la conservación de agua en el suelo. (Fuente: EEZA-CSIC/DICYT)</span></p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/28976/los-residuos-organicos-humanos-facilitan-la-restauracion-de-suelos-degradados-por-la-mineria/" target="_blank">NCYT</a></p>2018-06-13T14:19:58+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/259Salud: El consumo de carne procesada se asocia con empeoramiento de la función física2018-05-31T11:25:07+00:00Gestión Ingenio y Sociedad<p>En un reciente trabajo, expertos del departamento de Medicina Preventiva y Salud Pública de la Universidad Autónoma de Madrid (UAM) (España), encontraron que personas con una ingesta elevada de carnes procesadas tienen un 30% más probabilidades de empeorar su función física, en comparación con otras personas que apenas consumen este tipo de alimentos. Sin embargo, el consumo elevado de carnes rojas o carnes blancas no se asoció a empeoramiento de la función física.</p><p>La carne es un alimento con un contenido elevado de proteínas de alta calidad, que mejoran la función muscular, pero también contiene una cantidad considerable de grasas saturadas y trans, especialmente si es carne procesada.</p>“Los resultados sugieren que el efecto beneficioso de las proteínas de calidad de la carne desaparece si esta carne es procesada, lo que incremente su contenido en grasas no saludables, sodio y nitritos”, asegura Ellen Struijk, investigadora Juan de la Cierva y primera autora de este trabajo.<p>Esta hipótesis, explica Struijk, se ve reforzada por resultados adicionales, “en los que al calcular el efecto de reemplazar las carnes procesadas por otros alimentos que también aportan proteínas, como pescado, legumbres, lácteos o frutos secos, se observa que la probabilidad de deterioro de la función física disminuye”.</p><p>El trabajo, publicado en BMC Medicine, se fundamenta en bases de datos procedentes del Estudio Seniors-ENRICA, que inició en 2008 recogiendo información de 3.289 personas mayores de 60 años.</p><p>En concreto, se les preguntó por sus características sociodemográficas, estilos de vida y problemas de salud. Además, se fue a sus hogares para que personal de enfermería les realizases diferentes tests de función física: velocidad de la marcha, capacidad de levantase de una silla y capacidad de equilibrio. Además, se les preguntó si eran capaces de transportar el cesto de la compra, subir un piso de escaleras o andar varias manzanas. Después de 5 años se volvió a sus hogares para volver a medir todas estas variables.</p><p>“La carne es una buena fuente de proteínas de alta calidad. Sin embargo, su efecto beneficioso se pierde en las carnes procesadas”, señala Esther Lopez-Garcia, profesora del departamento de Medicina Preventiva de la UAM y autora senior del estudio.</p><p>“Para disminuir el riesgo de deterioro de la función física es importante tener una dieta saludable, en la que las fuentes principales de proteínas sean el pescado, las legumbres, los frutos secos y las carnes no procesadas”, concluye la experta. (Fuente: UAM)</p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/28814/el-consumo-de-carne-procesada-se-asocia-con-empeoramiento-de-la-funcion-fisica/" target="_blank">NCYT</a></p>2018-05-31T11:25:07+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/258Salud: Menor riesgo de cáncer de mama con mayor nivel de vitamina D2018-05-18T15:26:17+00:00Gestión Ingenio y Sociedad<div id="articulo_texto"><p>Se trata del primer estudio desarrollado en España que proporciona información sobre la relación entre los niveles de este nutriente en sangre y los diferentes tumores de mama.</p><p>Elevados niveles en sangre de vitamina D podrían tener un efecto preventivo en el cáncer de mama, según ha explicado Marina Pollán, jefa del Servicio de Epidemiología del Cáncer dentro del Instituto de Salud Carlos III (<a href="http://www.isciii.es/" target="_blank">ISCIII</a>) en el V Simposio Internacional de Cáncer de Mama, inaugurado hoy en el Hospital Clínico de Madrid.</p><p>Estos datos fueron obtenidos de un <a href="https://www.sciencedirect.com/science/article/pii/S0960076018301328" target="_blank">estudio epidemiológico</a> llevado a cabo por científicos del Centro de Investigación Biomédica en Red de Epidemiología y Salud Pública (<a href="http://www.ciberesp.es/" target="_blank">CIBERESP</a>) y del ISCIII, publicado en el <em>Journal of Steroid Biochemistry and Molecular Biology</em>.</p><div class="lado frt"><p>El riesgo de padecer este tumor disminuye conforme aumentaban los niveles de vitamina D en sangre</p></div><p>Según el reciente trabajo, el efecto era especialmente significativo en los tumores triple negativos, que representan alrededor del 10 al 20% de los casos de cáncer de mama (más de uno cada 10).</p><p>Este tipo de tumor es el más frecuente en mujeres de todo el mundo, con 1,67 millones de casos nuevos anuales (25.200 en España). Es más, esta cifra sigue en aumento, por lo que constituye un problema importante para la salud pública.</p><p><strong>Aumentar este nutriente en mujeres</strong></p><p>El objetivo de esta investigación, que ha contado con la participación de investigadores de 12 comunidades autónomas españolas (<a href="http://www.mccspain.org/" target="_blank">MCC-Spain</a>), fue examinar la asociación entre las concentraciones de 25(OH)D en suero y el riesgo de cáncer de mama por subtipo molecular y estadio al diagnóstico en una muestra de 546 mujeres con cáncer de mama y 558 mujeres sanas.</p><p>Los autores observaron que el riesgo de padecer este tumor disminuía conforme aumentaban los niveles de vitamina D en sangre. Dicho efecto fue similar en mujeres pre y postmenopáusicas y en todos los estadios al diagnóstico.</p><p>Esta investigación constituye el primer estudio desarrollado en España que proporciona información de la asociación entre los niveles de 25(OH)D en sangre y los diferentes tipos histológicos de cáncer de mama.</p><div class="lado flt"><blockquote><p>El efecto era especialmente significativo en los tumores triple negativos</p></blockquote></div><p>Los autores subrayan que, dada la elevada proporción de mujeres con concentraciones insuficientes de vitamina D en España, sería necesario el desarrollo de estrategias preventivas encaminadas a mejorar los niveles de dicho nutriente.</p><p><strong>El sol no evita el déficit</strong></p><p>La <a href="http://www.agenciasinc.es/Noticias/Cuanto-sol-es-bueno-para-la-salud" target="_blank">exposición solar</a> constituye la principal fuente de exposición a la vitamina D. Hasta el momento, no existe un consenso sobre los niveles óptimos de este nutriente en el organismo. Diversos organismos internacionales han establecido un punto de corte entre los 50 y 75 nmol/L.</p><p>En España, pese a su buena climatología, un amplio porcentaje de población presenta hipovitaminosis D (más del 50% de las mujeres sanas del estudio mostraron concentraciones por debajo de 50 nmol/L de 25(OH)D, considerado el principal biomarcador del estatus de vitamina D).</p><p>Aunque ya existe una evidencia consistente del efecto preventivo de la vitamina D frente al cáncer colorectal, la evidencia frente al cáncer de mama era menos concluyente.</p><hr /><div class="destacado"><p><strong>Referencia bibliográfica:</strong></p><p>Marina Pollán et al.: ‘Serum 25-hydroxyvitamin D and breast cancer risk by pathological subtype (MCC-Spain)’. <em>The Journal of Steroid Biochemistry and Molecular Biology</em>. 19 April 2018. <a href="https://doi.org/10.1016/j.jsbmb.2018.04.005" target="_blank">https://doi.org/10.1016/j.jsbmb.2018.04.005</a></p><div> Tomado de: <a href="http://www.intramed.net/contenidover.asp?contenidoID=92513&uid=957046&fuente=inews" target="_blank">IntraMed</a></div></div></div>2018-05-18T15:26:17+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/257Ciencia: Identifican 40 genes humanos relacionados con la inteligencia2018-04-17T09:28:35+00:00Gestión Ingenio y SociedadDesde que la publicación del Proyecto Genoma Humano desvelara en 2001 la secuencia completa de nuestro ADN, muchos han sido los estudios que han tratado de averiguar qué genes forman parte de dicha secuencia. Conocer su significado y por tanto su función resulta clave para identificar todos los genes del ser humano y con ello entender su biología o las enfermedades que le afectan.<br /><br />Se trata de una tarea difícil, pues un trabajo de este tipo requiere de la colaboración de muchos equipos de investigación que analicen un gran volumen de datos que permitan construir un modelo general aplicable a toda nuestra especie.<br /><br />La revista Nature Genomics publica este lunes los resultados de un gran equipo de investigadores de varias instituciones holandesas e inglesas que, tras analizar el ADN de 78.308 personas, aporta la descripción de nuevos genes humanos, 40 de ellos relacionados con la inteligencia. El estudio podría ayudar a entender la función cerebral, la cognición, y definir el componente genético del coeficiente intelectual.<br /><br />"Hemos llevado a cabo un estudio de todo el genoma relacionado con la Inteligencia para la muestra más grande analizada hasta la fecha (más de 78.000 personas) y por primera vez hemos sido capaces de detectar una cantidad sustancial de efectos genéticos en el coeficiente intelectual", ha afirmado a EL MUNDO Danielle Posthuma, investigadora de la Universidad de Amsterdam que dirige la investigación.<br /><br />Los científicos encontraron 52 genes, 12 de ellos ya conocidos y 40 de nueva descripción. La mayoría de estos genes tienen una función en el cerebro y están implicados en la regulación del desarrollo de la célula, proporcionando "una visión de los fundamentos biológicos de la inteligencia", según explica Posthuma. "También mostramos una relación genética entre la inteligencia y otros rasgos, como la enfermedad de Alzheimer, la esquizofrenia y la neurosis, que tienen una correlación genética negativa con la inteligencia. Nuestros hallazgos ayudan, por tanto, a la comprensión de los fundamentos genéticos de estos trastornos", ha añadido.<br /><br />Por otro lado, los investigadores han llevado a cabo un análisis estadístico relacionando la presencia de estos nuevos genes con ciertos rasgos de la población como el volumen intracraneal, la medida de la circunferencia de la cabeza durante la infancia, o el éxito educacional, todos ellos relacionados hasta la fecha indirectamente con valores de inteligencia.<br /><br />"El éxito educacional y la inteligencia están correlacionados en la población general en un 40%. En términos genéticos esta correlación es aún mayor, alcanzando hasta un 70%. Esto significa que la variación de los genes que están asociados con un incremento de la inteligencia, también lo está con un mayor éxito educacional", ha apuntado Danielle Posthuma.<br /><br />En las casi 80.000 personas estudiadas, Posthuma y su equipo han incluido tres grupos de interés especial, como son los individuos de edad avanzada, el análisis de los estudiantes que presentan un alto coeficiente intelectual (CI), o el estudio de gemelos idénticos.<br /><br />"Hemos querido comprobar si los efectos genéticos sobre la inteligencia eran diferentes con la edad: no lo eran. También probamos si nuestros actuales hallazgos genéticos podían pronosticar de alguna manera si una persona tenía un CI extremadamente alto o no. Podríamos hacerlo, aunque nuestra predicción está aún lejos de ser perfecta", ha aseverado Posthuma.<br /><br />En cuanto a los resultados con gemelos idénticos, que suelen usarse para ver en estas personas cómo interactúan los mecanismos de la herencia genética y el medio ambiente, Posthuma ha concluido que aún se necesitan descubrir más genes que ayuden a comprender cómo se produce el legado de la inteligencia de una generación a otra.2018-04-17T09:28:35+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/256Tecnología: Una App realiza un pronóstico meteorológico inmediato en una ubicación exacta2018-02-12T15:13:19+00:00Gestión Ingenio y Sociedad<p>Una aplicación desarrollada en Brasil, llamada de SOS Chuva [chuva es lluvia en portugués], podrá informarle a la población en nivel local la posibilidad de que se produzcan lluvias o tormentas en la ubicación exacta en donde una persona se encuentra.</p><p>Éste es el llamado pronóstico inmediato, que a diferencia del pronóstico del tiempo convencional, logra informar acerca de la incidencia de lluvias, granizo o tormentas con una precisión de un kilómetro y una antelación de entre 30 minutos a 6 horas. Desde octubre pasado, la aplicación SOS Chuva puede bajarse gratuitamente en smartphones, y ya cuenta con más de 60 mil usuarios.</p><p>El desarrollo de esta herramienta estuvo a cargo de científicos del Instituto Nacional de Investigaciones Espaciales (Inpe, por sus siglas en portugués) de Brasil en colaboración con la Universidad de Campinas (Unicamp), la Escuela Superior de Agricultura Luiz de Queiroz (Esalq) y el Instituto de Astronomía, Geofísica y Ciencias Atmosféricas, estos dos últimos pertenecientes a la Universidad de São Paulo (USP).</p><p>“El pronóstico del tiempo que escuchamos en el noticiero es un pronóstico que de alguna manera está bien afianzado. Su teoría se desarrolló en la década de 1950. En tanto, el pronóstico inmediato constituye un desafío nuevo, con funciones, aparatos y modelados matemáticos completamente distintos. Incluso porque es diferente decir que mañana va a llover y decir que dentro de dos horas va a llover en el punto exacto donde alguien está”, dijo Luiz Augusto Toledo Machado, investigador del Centro de Pronóstico del Tiempo y Estudios Climáticos del Instituto Nacional de Investigaciones Espaciales (CPTEC/ Inpe) y coordinador del proyecto.</p><p>Con el apoyo de la Fundación de Apoyo a la Investigación Científica del Estado de São Paulo – FAPESP, en el marco del Proyecto Temático SOS Chuva, que tuvo inicio en 2016, se desarrollarán otras dos aplicaciones, una orientada a la agricultura y la otra destinada a Defensa Civil. Los investigadores pretenden también expandir la comprensión de la dinámica de las nubes y mejorar los modelos matemáticos que se emplean en el pronóstico climático.</p><p>“Es un proyecto que tiene el costado científico tendiente a mejorar los modelos de pronóstico inmediato y también otro aspecto asociado a la extensión, que es el desarrollo de la aplicación y de sistemas de alerta más sofisticados para la Defensa Civil y la agricultura”, dijo Toledo Machado.</p><p>En noviembre pasado, el equipo del proyecto realizó una capacitación destinada a técnicos de Defensa Civil de la zona de Campinas (en el estado de São Paulo) y a profesionales del CPTEC que trabajan en la región paulista de Vale do Paraíba y en el litoral norte del estado de São Paulo. El objetivo es que los centros regionales de meteorología puedan realizar el pronóstico inmediato. Es una iniciativa inédita en Brasil.</p><p>“Estamos desarrollando también una aplicación orientada a los técnicos, para que puedan realizar el pronóstico inmediato y divulgar alertas con base en nuestros modelos matemáticos. Sucede que, debido a su gran minuciosidad, el pronóstico inmediato debe realizarse regionalmente. Por eso estamos desarrollando la herramienta y los modelos matemáticos, para que en el futuro el pronóstico inmediato se efectúe en los centros regionales de meteorología”, dijo.</p><p>El grupo conformado por investigadores del CPTEC/ Inpe y de la Esalq también está desarrollando una tercera aplicación destinada a los productores rurales.</p><p>“Esa aplicación de cuño agrícola, además de mostrar dónde está lloviendo exactamente, también almacenará información pluviométrica durante un determinado período de tiempo, para que el agricultor pueda seguir y detectar posibles variaciones de productividad”, dijo Felipe Pilau, del Departamento de Ingeniería de Biosistemas de la Esalq, responsable de la parte agrícola del proyecto.</p><p>Pilau afirma que con esta herramienta será posible estipular estrategias para la llamada agrometeorología de precisión. Este término aúna agricultura de precisión –la que analiza la variabilidad de la producción con base en factores tales como la fertilidad del suelo y los recursos hídricos– y la parte meteorológica.</p><p>“Al incluir la parte meteorológica en la agricultura de precisión, es posible visualizar dónde llueve más y si esa variabilidad afectará a la productividad agrícola. Hasta ahora, la parte meteorológica era ignorada en la agricultura de precisión”, dijo Pilau.</p><p>Para efectuar el pronóstico inmediato, ya sea destinado al usuario común, al agricultor o a la Defensa Civil, el proyecto cuenta con un radar meteorológico de doble polarización adquirido con el apoyo de la FAPESP e instalado en el Centro de Investigaciones Meteorológicas y Climáticas Aplicadas a la Agricultura de la Universidad de Campinas (Cepagri-Unicamp).</p><p>El pronóstico del tiempo convencional requiere de datos recabados con base en imágenes obtenidas vía satélite, de la existencia de estaciones meteorológicas y también de la interpolación de esos datos. En tanto, para obtener los datos con una precisión de un kilómetro de distancia, el radar de doble polarización trabaja mediante la emisión y la reflexión de longitudes de onda.</p><p>Al emitir un haz de energía, obtiene la reflectividad, una medida de la reflexión del haz emitido por el radar al chocarse con un obstáculo, tal como una gota de nube, por ejemplo. La señal retorna entonces a radar y, de este modo, es posible mapear el lugar exacto donde va a llover.</p><p>Para efectuar el pronóstico inmediato de todo el estado de São Paulo, el proyecto SOS Chuva cuenta también con la información de otros cuatro radares instalados en los municipios de Bauru, Presidente Prudente, São Paulo y también en el estado de Río de Janeiro.</p><p>Con la ayuda del radar de doble polarización, los investigadores logran acceder a una visión tridimensional de las nubes y seguir la velocidad con la cual las mismas se propagan. De este modo, es posible analizar otros parámetros, tales como la acumulación de cristales de hielo dentro de las nubes o los llamados intrarrayos, rayos existentes dentro de las nubes que indican de la existencia de granizo.</p><p>“Con el radar de doble polarización logramos saber cuáles son los cristales de hielo que existen dentro de las nubes, y con base en ello podemos realizar cálculos y pronósticos”, dijo Toledo Machado.</p><p>El investigador explica que al seguir a las nubes es posible saber de qué manera esos distintos cristales aumentan y disminuyen, lo cual indica el pronóstico de severidad o de formación de tornados. “Recabamos también información con base en el viento: si está formando una circulación cerrada, si hay descargas eléctricas. Todo esto sumado nos ayuda a efectuar pronósticos”, dijo.</p><p>La experiencia de los científicos del SOS Chuva en el desarrollo de modelos y cálculos matemáticos para el pronóstico inmediato se utilizará en un nuevo proyecto de colaboración con colegas argentinos, chilenos y estadounidenses.</p><p>“Seguiremos recabando datos en Campinas y perfeccionando nuestros modelos hasta agosto de 2018. Posteriormente, llevaremos nuestra instrumentación a la localidad de São Borja, en el estado de Rio Grande do Sul, para poner en marcha una nueva campaña de mediciones mediante colaboración internacional”, dijo Toledo Machado.</p><p>El investigador explica que en la región que se estudiará se registran las más fuertes tormentas del planeta. Estos fenómenos ocurren en el sur de Brasil, y se los conoce con el nombre de Complejos Convectivos de Mesoescala. Se producen como respuesta a una relación entre la región amazónica y la cordillera de los Andes.</p><p>“La humedad de la Amazonia se propaga, se encuentra con los Andes y se canaliza, con lo cual se dirige hacia el sur. Este canal de humedad empieza a formar esos sistemas intensos de nubes en Argentina. La baja presión acelera ese flujo proveniente de la Amazonia y forma tormentas muy grandes.”</p><p>El proyecto denominado RELÁMPAGO cuenta con financiación de la National Science Foundation (NSF) y con la cooperación de la agencia espacial Nasa y de la National Oceanic and Atmospheric Administration (NOAA), ambas de Estados Unidos, del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) de Argentina, de la Comisión Nacional de Investigación Científica y Tecnológica (Conicyt) de Chile, de la FAPESP y del Inpe.</p><p>“Será un experimento muy grande, y el SOS Chuva tomará parte en ese esfuerzo con miras a entender las tormentas severas que entran a Brasil, incluso con la posibilidad de formar tornados”, dijo Machado.</p><p>La aplicación SOS Chuva puede bajarse en App Store (iOS) y en Google Play Store (Android). (Fuente: AGÊNCIA FAPESP/DICYT)</p>2018-02-12T15:13:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/255Ciencia: Los incendios colosales que arrasaron América del Norte hace unos 12.800 años2018-02-12T15:01:13+00:00Gestión Ingenio y Sociedad<p>Hace alrededor de 12.800 años, el hemisferio Norte sufrió una pequeña era glacial, que duró alrededor de 1.300 años. Ese inusual período climático frío se conoce como Younger Dryas (o Dryas reciente) y se cree que su causa fue un impacto cósmico. Esta época coincidió con la gran extinción de la megafauna norteamericana, incluyendo a mamuts, así como a perezosos gigantes (que vivían en el suelo en vez de en los árboles), y la desaparición de la antigua y muy extendida Cultura Clovis.</p><p>Sin embargo, como cabe esperar de un impacto cósmico, antes de la llegada del frío la temperatura se volvió tórrida súbitamente y se desencadenaron muchos incendios, de proporciones dantescas. Una investigación, realizada por el equipo internacional de Brian Thomas, de la Universidad de Kansas en Estados Unidos, ha profundizado en esa etapa inicial de la catástrofe.</p><p>En efecto, el cielo se iluminó con el resplandor cegador de múltiples "bolas de fuego" que aparecieron de repente. Ello fue seguido por ondas expansivas. Se iniciaron incendios por doquier, propagándose con suma rapidez. Un conjunto de firmas químicas (dióxido de carbono, nitrato, amoniaco y otras) parecen indicar que un asombroso 10 por ciento de la superficie terrestre del planeta resultó consumido por incendios.</p><p>Los cálculos sugieren que el impacto debió eliminar la capa de ozono, sin cuya acción de escudo contra radiaciones llegadas del espacio, los casos de cáncer de piel y otros efectos negativos para la salud debieron incrementarse de manera notable.</p><p>El polvo tapó el cielo, impidiendo el paso de mucha de la luz solar. Como consecuencia de ello, tras apagarse los incendios el clima se enfrió rápidamente, las plantas murieron, las fuentes de alimento se agotaron y los glaciares avanzaron de nuevo. Las corrientes oceánicas también cambiaron, contribuyendo a establecer durante unos 1.300 años un clima más frío, más propio de una era glacial que del periodo interglacial que ya estaba en marcha.</p><p> </p>2018-02-12T15:01:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/254Sociedad: Un paso adelante y dos atrás2018-02-06T14:35:37+00:00Gestión Ingenio y Sociedad<p>Así parece llegar a su fase final el camino de este gobierno hacia ser el país más educado de América Latina. <br /><br />En enero entró en vigencia la norma del plan de desarrollo que <strong>restringe los créditos de Icetex a las universidades con acreditación de alta calidad. </strong>Por causa de esta decisión, de la cual son cómplices el Gobierno y el Congreso, no podrán acceder a la educación superior alrededor de 35.000 jóvenes colombianos de todas las regiones del país.</p><p id="p179188-m174-173-175" class="contenido ">Así parece llegar a su fase final el camino de este gobierno hacia ser el país más educado de América Latina. <br /><br />En enero entró en vigencia la norma del plan de desarrollo que <strong>restringe los créditos de Icetex a las universidades con acreditación de alta calidad. </strong>Por causa de esta decisión, de la cual son cómplices el Gobierno y el Congreso, no podrán acceder a la educación superior alrededor de 35.000 jóvenes colombianos de todas las regiones del país.</p><div class="module-ads"> </div><p id="p179188-m194-2-195" class="contenido ">Cuatro años y cerca de un billón de pesos en becas se han gastado para ofrecer estudios universitarios a poco menos de 40.000 bachilleres en el programa Ser Pilo Paga, y en solo un semestre, por obra y gracia de un par de frases en una ley, cortan la financiación a un número equivalente, que <strong>de seguir la absurda norma vigente serán cerca de 100.000 sin oportunidades en la mitad del tiempo. </strong>Con una diferencia adicional: mientras los de Ser Pilo están becados a precios máximos de las universidades, los que ahora no pueden estudiar estaban dispuestos a pagar su educación, de costos muy inferiores, por acudir a universidades más accesibles para las familias de menores ingresos del país.<br /><br />La inconcebible falta de trayectoria y conocimiento del sector de quienes han sido convocados por el señor Presidente para diseñar sus planes y liderar su ejecución ha desembocado en programas y decisiones que no solamente han sido muy costosos económicamente, sino que han demostrado hasta la saciedad su poca relación con las realidades del país.</p><div id="p179188-m199-3-200" class="articulo-quote "><div class="quote-bk"><p id="m203-202-204" class="mensaje ">Mientras los de Ser Pilo están becados a precios máximos de las universidades, los que ahora no pueden estudiar estaban dispuestos a pagar su educación.</p></div></div><p id="p179188-m219-4-220" class="contenido ">Aparte de la autodesconfianza –concepto complicado pero literal– del Ministerio con respecto a sus propios mecanismos de aprobación y renovación de registros calificados, debe tenerse en cuenta la ineficiencia reconocida de los procesos de acreditación.<strong> Es un hecho que el Ministerio no cree que el registro calificado garantice calidad, no obstante lo engorroso de su trámite, pues de otra forma no convertirían la acreditación en una obligación.</strong><br /><br />Eso significa también que el 85 % de la educación superior no es confiable para el propio Estado, y tal situación es vergonzosa. De otra parte, aun si el 85 % de programas quisiera acreditarse hoy, habría que esperar años, pues, según comunicación del viceministerio, quienes radicaron solicitudes antes del 19 de enero deberán esperar alrededor de once meses para recibir la resolución.<br /><br />Todo esto, por supuesto, no es serio. <strong>Miles de jóvenes con malos resultados en la educación básica a cargo del Estado están condenados a terminar su recorrido educativo al final de su bachillerato</strong>, a no ser que sus padres ahorren para financiar los costos, muy grandes por cierto, de acreditar las universidades privadas en las cuales pueden ser admitidos, porque las de alta calidad no los van a recibir y ellos no tienen con qué pagarlas. <br /><br />Ya en este semestre, según comentarios de muchos rectores, la matrícula se ha reducido notoriamente, pues los ingresos familiares han sido golpeados por el estancamiento económico de los últimos dos años. Lamentablemente, los datos agregados oficiales no se sabrán antes de uno o dos años, cuando ya no sirven. Pero no sería rara una reducción global de cobertura y eventualmente un incremento de los índices de desempleo, pues quien no puede estudiar sale a buscar trabajo.<br /><br />Cerca del 63 % de la población está en los estratos 2 y 3, y, de acuerdo con la encuesta de hogares de 2015, “la clase media en Colombia es frágil e inestable en su economía; según la opinión del 60 % de los jefes de hogar o sus cónyuges, el ingreso escasamente alcanza para cubrir los gastos mínimos”. Asumiendo que estos estratos sean de clase media, que es mucho decir, ¿de dónde van a sacar para educación superior? Les dejo esa pregunta a los candidatos, porque lo que queda de este gobierno no es esperanzador.<br /><br />FRANCISCO CAJIAO<br />fcajiao11@gmail.com</p>2018-02-06T14:35:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/253Ciencia: Un comportamiento sorprendente de los vientos estelares2018-02-06T14:09:26+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/Vientos_estelares1.JPG" alt="" /></p><p>El telescopio XMM-Newton de la ESA ha detectado cambios sorprendentes en los potentes chorros de gas que escapan de dos estrellas masivas, lo que sugiere que los vientos estelares no se comportan según lo esperado.</p><p>Las estrellas masivas —varias veces más grandes que nuestro Sol— tienen una vida breve y turbulenta, durante la cual consumen con rapidez su combustible nuclear y expulsan grandes cantidades de material al exterior.</p><p>Estos intensos vientos estelares pueden transportar en un mes el equivalente a la masa terrestre y desplazarse millones de kilómetros por hora, por lo que cuando dos de ellos colisionan, liberan enormes cantidades de energía.</p><p>Debido al choque cósmico, el gas asciende a millones de grados, haciendo que brille en las observaciones en rayos X.</p><p>Los vientos en colisión normalmente cambian poco, porque no lo hacen ni las estrellas ni sus órbitas. Sin embargo, ciertas estrellas masivas muestran un comportamiento realmente extraordinario.</p><p>Este es el caso de HD 5980, un par de gigantescas estrellas, cada una con una masa sesenta veces mayor que la del Sol y separadas por tan solo 100 millones de kilómetros: más cerca de lo que nosotros estamos de nuestra estrella.</p><p>Una experimentó una importante explosión en 1994, similar a la erupción que convirtió a Eta Carinae en la segunda estrella más brillante del firmamento durante unos dieciocho años en el siglo XIX.</p><p> </p><p>Aunque es demasiado tarde para estudiar la erupción histórica de Eta Caterinae, los astrónomos han estado observando HD 5980 con telescopios de rayos X para estudiar el gas caliente.</p><p> </p><p>En 2007, Yaël Nazé, de la Universidad de Lieja (Bélgica), y sus colegas descubrieron la colisión de vientos de estas estrellas gracias a las observaciones realizadas entre 2000 y 2005 por los telescopios de rayos X XMM-Newton, de la ESA, y Chandra, de la NASA.</p><p>En 2016 volvieron a observarlos con XMM-Newton.</p><p>“Esperábamos que HD 5980 se fuera apagando con los años a medida que la estrella volvía a la normalidad pero, para nuestra sorpresa, ha hecho justo lo contrario”, señala Yaël.</p><p>El equipo descubrió que el par era 2,5 veces más brillante que una década antes y su emisión de rayos X era aún más energética.</p><p>“Nunca habíamos visto nada parecido en una colisión entre vientos”.</p><p>Con menos material eyectado pero una mayor emisión de luz, era difícil explicar qué estaba sucediendo.</p><p>No obstante, acabaron dando con un estudio teórico que ofrece un escenario viable.</p><p>“Cuando los vientos estelares colisionan, el material afectado libera gran cantidad de rayos X. No obstante, si la materia caliente irradia demasiada luz, se enfría rápidamente, el choque resulta inestable y la emisión de rayos X se atenúa.</p><p>“Creemos que este proceso, que en cierto modo contradice la lógica, es lo que se estaba produciendo cuando realizamos nuestras primeras observaciones, hace más de diez años. Pero en 2016, el impacto se había relajado y las inestabilidades habían disminuido, por lo que la emisión de rayos X terminó imponiéndose”.</p><p>Se trata de las primeras observaciones que apoyan este escenario, que hasta el momento no era más que una hipótesis. Los colegas de Yaël ahora están probando el nuevo resultado de forma más detallada mediante simulaciones por ordenador.</p><p>“Descubrimientos únicos como este demuestran cómo XMM-Newton continúa ofreciendo a los astrónomos nuevos materiales para mejorar nuestra comprensión de los procesos más energéticos del Universo”, destaca Norbert Schartel, científico del proyecto XMM-Newton de la ESA. (Fuente: ESA)</p>2018-02-06T14:09:26+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/252Tecnología: Una firma de Murcia desarrolla el primer dron profesional de uso submarino2018-02-06T14:00:37+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/Dron_submarino.JPG" alt="" />En el mercado se pueden encontrar diferentes modelos de vehículos submarinos dirigidos de manera remota, más conocidos como ROVs o drones. Mientras que los equipos profesionales existentes suponen un coste millonario, solo al alcance de unos pocos, otros están más cerca de ser un juguete que una herramienta de trabajo.</p><p>Nido Robotics, con sede en Murcia, reconoció la necesidad de crear una tecnología profesional de fácil manejo y menor coste, que permitiera realizar labores subacuáticas.</p><p>Así nació Sibiu Nano, el primer dron profesional de bajo coste. Su precio varia desde los 699 euros del modelo básico hasta los 5.999 euros de la flota de cinco aparatos. Con un peso inferior a los 5 kilos y un tamaño reducido (25x26,5x38cm), está pensado para desarrollar trabajos en profundidades inferiores a los 100 metros.</p><p>“Se trata de una tecnología especialmente útil para aquellos que trabajan cerca de la costa: empresas acuícolas, universidades y centros de investigación, clubes de buceo… e incluso para aquellos que dispongan de una embarcación y deseen explorar los fondos marinos, sin necesidad de sumergirse pero también para los amantes de los fondos marinos y para los aficionados a la tecnología'”, explica el consejero delegado de la firma, Roy Torgersen.</p><p>El Sibiu Nano básico cuenta con sensores de temperatura y profundidad, 50 metros de cable umbilical (a través del que se dirige) y una cámara de vídeo HD que, además de grabar, emite en tiempo real; pero es posible incorporarle todo tipo de extras, según las necesidades de cada cliente.</p><p>La campaña de preventa en la plataforma IndieGoGo se inició ayer y estará abierta durante 30 días, Nido Robotics ofrecerá diferentes opciones a quienes deseen adquirir un Sibiu Nano. Desde grandes descuentos para los diez primeros, hasta la posibilidad de convertirse en beta tester y recibir su robot en muy breve plazo de tiempo, también habrá un kit para montar el ROV o una versión educativa formada por una flota de cinco unidades y un programa didáctico; entre otras opciones.</p><p>La empresa está convencida del éxito de la campaña y esperar superar los 10.000 euros de venta en las primeras 24 horas, lo que supondría un hito para una acción de estas características en España. El éxito de la misma servirá a Nido Robotics para ampliar su plantilla y su línea de producción con el fin de convertirse en un referente en el sector. (Fuente: <a href="http://www.agenciasinc.es/">SINC</a>)</p>2018-02-06T14:00:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/251Otros artículos: Un nuevo protocolo de comunicación para una investigación e innovación más responsables2018-01-31T14:09:28+00:00Gestión Ingenio y Sociedad<p>La fotografía realizada a la situación del diálogo entre ciencia y sociedad en España muestra cómo los centros de investigación españoles mantienen una intensa actividad de comunicación y divulgación de la ciencia. Sin embargo, el modelo de iInvestigación e innovación Responsables (RRI por sus siglas en inglés) plantea la necesidad de avanzar además hacia una mayor participación e interacción y un diálogo más directo.</p><p>“Algunos grupos y centros de investigación están avanzando ya en esta línea incorporando la RRI o aspectos como la ciencia ciudadana o el aprendizaje servicio. Sin embargo, todavía es algo minoritario. Se trata de un fenómeno muy reciente y es previsible y necesario que aumente en los próximos años de cara a avanzar hacia una ciencia más sostenible y adaptada a los intereses y valores de la sociedad”, explica Francisco Fernández Beltrán, director del Servicio de Comunicación y Publicaciones de la Universidad Jaume I (UJI) (España) y coordinador del proyecto.</p><p>De cara a favorecer un mayor diálogo entre ciencia y sociedad, que promueva una investigación e innovación realizadas para la sociedad, pero también con la sociedad, el estudio dirigido por el catedrático de Ética Domingo García Marzá plantea un protocolo de comunicación y una serie de buenas prácticas. “Se trata de favorecer, a través de la comunicación y el diálogo, que las personas afectadas por una investigación o una innovación sean escuchadas y sus intereses legítimos tenidos en cuenta. Es necesario responder, en el sentido de dar respuesta a la sociedad, pero también en el sentido de responder públicamente de lo que hacemos desde las universidades y los centros de investigación en materia de ciencia y tecnología”, destaca García Marzá.</p><p>El estudio, realizado con financiación de la Fundación Española para la Ciencia y la Tecnología (FECYT), ha incluido un análisis de las acciones de comunicación y diálogo realizadas por los 70 centros que cuentan con Unidad de Cultura Científica y de la Innovación en España (Red UCC+i), un estudio de nueve prácticas inspiradoras de implantación de la RRI a través de la comunicación, grupos de discusión con diferentes colectivos y entrevistas a expertos.</p><p>Los resultados se recogen en una publicación gratuita y en abierto que incluye algunas pautas prácticas y una propuesta de protocolo de comunicación. El protocolo incluye algunas acciones dirigidas a informar de la oferta y las acciones de investigación e innovación, pero también busca escuchar a las personas afectadas y dar respuesta a sus demandas e intereses, incorporarlos y rendir cuenta de lo realizado.</p><p>Para alcanzar estos objetivos se plantean acciones de información proactiva como notas de prensa, comunicación en redes, blogs, webs, transmedia, correos informativos, conferencias, talleres, visitas guiadas, eventos de ciencia, etc. También acciones que favorezcan el diálogo y la participación crítica como debates abiertos, grupos de discusión, grupos de trabajo, acciones de ciencia ciudadana, canales de participación on line bidireccionales, ejercicios de aprendizaje mutuo, etc.</p><p>Aunque la experiencia en el desarrollo de la RRI es todavía incipiente en España, de la información aportada se desprende que la incorporación a los proyectos de acciones de participación y diálogo con los grupos de interés permite alinear los procesos y los resultados de las investigaciones con las expectativas e intereses de la sociedad, incrementa la cultura científica de los participantes y posibilita alcanzar resultados con mayor relevancia social y aceptabilidad ética. (Fuente: UCC+i Universitat Jaume I).</p>2018-01-31T14:09:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/250Tecnología: Fabricar células de combustible a una centésima parte de su costo habitual2018-01-31T13:54:05+00:00Gestión Ingenio y Sociedad<p>El catalizador desarrollado por Kisailus y sus colegas está hecho por nanofibras de carbono porosas que tienen incorporado un compuesto hecho de un metal relativamente abundante, como el cobalto, que es más de 100 veces más barato que el platino.</p><p>Las células de combustible, que ya son empleadas por algunos fabricantes de automóviles, ofrecen ventajas claras sobre las tecnologías convencionales de combustión, incluyendo una mayor eficiencia, un funcionamiento más silencioso y menores emisiones contaminantes. Las células de combustible de hidrógeno solo emiten agua.</p><p>Como las baterías, las células de combustible son dispositivos electroquímicos que incluyen un electrodo positivo y uno negativo con un electrolito en medio. Cuando el combustible de hidrógeno es inyectado en el ánodo, un catalizador descompone las moléculas de hidrógeno en las partículas cargadas positivamente (los protones) y en las partículas cargadas negativamente (los electrones). Los electrones son dirigidos, a través de un circuito externo, hacia el punto deseado, en el cual efectúan un trabajo útil, como por ejemplo energizar un motor eléctrico, antes de volver a reunirse con los iones de hidrógenos cargados positivamente y con oxígeno para formar agua.</p>2018-01-31T13:54:05+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/249Ciencia: Un nuevo dinosaurio egipcio revela el antiguo vínculo entre África y Europa2018-01-31T13:49:49+00:00Gestión Ingenio y Sociedad<p>El curso de la evolución de los dinosaurios del Cretácico superior en África es una incógnita. Un equipo de científicos ha descubierto en el desierto del Sahara en Egipto, una nueva especie de dinosaurio que ayuda a llenar esas lagunas: Mansourasaurus shahinae, un herbívoro de cuello largo, con placas óseas incrustadas en su piel.</p><p><img src="/public/site/images/mikhail/Dinosaurio_titanosaurio.JPG" alt="" /></p><p>Los restos fosilizados de este mansourasaurio fueron desenterrados por una expedición de la iniciativa de Paleontología de Vertebrados de la Universidad de Mansoura (MUVP, por sus siglas en inglés), dirigidos por Hesham Sallam del departamento de Geología de dicha universidad. Su trabajo se publica en la revista Nature Ecology and Evolution.</p><p>“El descubrimiento y la extracción de Mansourasaurus fue una experiencia increíble para el equipo de MUVP. Fue emocionante para mis alumnos descubrir un hueso tras otro, ya que cada nuevo elemento que recuperamos ayudó a revelar quién era este dinosaurio gigante", declara Sallam.</p><p>Para Eric Gorscak, investigador científico postdoctoral deñ The Field Museum (EE UU) y coautor del estudio: “M. shahinae es una nueva especie de dinosaurio clave y un descubrimiento crítico para la paleontología egipcia y africana". “África sigue siendo –añade– un interrogante en términos de animales terrestres al final de la era de los dinosaurios. Mansourasaurus nos ayuda a abordar cuestiones sobre el registro fósil y la paleobiología en África: ¿qué animales vivían allí y con qué otras especies se relacionaban más estrechamente estos animales?”.</p><p>Los fósiles de dinosaurios del Cretácico superior en África son difíciles de encontrar: gran parte de la tierra donde se encuentran sus fósiles está cubierta de una exuberante vegetación, en lugar de en roca expuesta como la de las Montañas Rocosas, el desierto de Gobi, o Patagonia. La falta de este registro es frustrante para los paleontólogos ya que, en ese momento, los continentes estaban experimentando cambios geológicos y geográficos masivos.</p><p>Durante los primeros años de los dinosaurios, en gran parte de los períodos Triásico y Jurásico, todos los continentes se unieron en el supercontinente Pangea. Durante el Cretácico, sin embargo, comenzaron a separarse y a cambiar hacia la configuración actual. Históricamente, no ha quedado claro cómo estaba conectaba África con otras masas terrestres del hemisferio Sur y Europa durante este tiempo. No se conoce hasta qué punto los animales africanos pudieron quedar aislados de sus vecinos y evolucionar siguiendo su propio camino.<br /> Reconstrucción esquelética del nuevo dinosaurio. Los huesos que se muestran en color son aquellos que se conservan en el fósil original / Andrew McAfee, Carnegie Museum of Natural History</p><p>Mansourasaurus, es uno de los pocos dinosaurios africanos conocidos de este período que ayuda a responder esa pregunta. Al analizar las características de sus huesos, Sallam y su equipo determinaron que está más relacionado con los dinosaurios de Europa y Asia que con los que se encuentran más al sur en África o en América del Sur. Esto, a su vez, muestra que al menos algunos dinosaurios podrían moverse entre África y Europa cerca del final de su reinado en la Tierra.</p><p>"Los últimos dinosaurios de África no estaban completamente aislados, al contrario de lo que algunos han propuesto en el pasado. Todavía había conexiones con Europa”, enfatiza Gorscak.</p><p>Mansourasaurus pertenece al grupo de los titanosaurios, dinosaurios saurópodos comunes en gran parte del mundo durante el Cretácico. Estas especies son famosas por incluir los animales terrestres más grandes conocidos por la ciencia, como Argentinosaurus, Dreadnoughtus y Patagotitan. El mansourasaurio, sin embargo, era de tamaño moderado comparado con los demás, y pesaba aproximadamente lo mismo que un elefante africano.</p><p>Su esqueleto es importante al ser el más completo descubierto hasta el final del Cretáceo en África. Conserva partes del cráneo, la mandíbula inferior, el cuello, la espalda, las costillas, la mayor parte del hombro y la extremidad anterior, parte del pie trasero y pedazos de placas cutáneas –áreas de la piel endurecidas para su protección–.</p><p>El paleontólogo Matt Lamanna, coautor del trabajo en el Carnegie Museum of Natural History (EE UU) apunta: "Cuando vi las imágenes de los fósiles por primera vez, me quedé boquiabierto. Era el Santo Grial, un dinosaurio bien conservado del final de la Era de los dinosaurios en África, lo que los paleontólogos habíamos estado buscando durante largo tiempo”. (Fuente: <a href="http://www.agenciasinc.es">SINC</a>)</p>2018-01-31T13:49:49+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/248Salud: Examen de un estudio identifica mutaciones en gen BRCA2 que llevan a cáncer de mama y ovario2018-01-31T13:40:35+00:00Gestión Ingenio y Sociedad<p>Un nuevo examen desarrollado por los investigadores de Mayo Clinic (EEUU) revela cuáles mutaciones en el gen BRCA2 vuelven a una mujer susceptible al desarrollo de cáncer de mama o de cáncer de ovario. El estudio detrás del examen fue publicado hoy en American Journal of Human Genetics (Revista Americana de Genética Humana).</p><p>"Ciertas mutaciones hereditarias en el gen BRCA2 se vinculan con cáncer de mama y ovario. Este examen ofrece un medio excelente de predecir si la persona heredó las mutaciones que llevan al cáncer", comenta el Dr. Fergus Couch (doctor en investigación), autor principal del estudio.</p><p>En el estudio, el Dr. Couch y otros autores del trabajo describen un examen de laboratorio capaz de establecer cuáles mutaciones hereditarias en el gen BRCA2, llamadas variaciones de significado incierto, están implicadas en el cáncer.</p><p>"Hasta el momento, solo se había podido establecer que las 13 mutaciones hereditarias en el gen BRCA2 era patogénicas y conocidas por derivar en cáncer. En este estudio, identificamos 54 que aumentan el riesgo de cáncer", señala el Dr. Couch. De igual manera, ahora se puede ampliar de 21 a 73 las mutaciones neutrales conocidas que no aumentan el riesgo de cáncer. Estos resultados pueden ayudar a las pacientes y a los proveedores de atención médica a tomar mejores decisiones acerca de cómo manejar la información obtenida a través de los exámenes genéticos.</p><p>El Dr. Couch dice que, de aquí en adelante, este estudio permitirá evaluar la posible participación en el cáncer de muchas más mutaciones hereditarias en el gen BRCA2.</p><p>El estudio fue financiado por el Instituto Nacional del Cáncer, mediante un subsidio a Mayo Clinic para el estudio del cáncer de mama (P50 CA116201) del programa especializado de excelencia en investigación (SPORE, por sus siglas en inglés); por los Institutos Nacionales de Salud, a través de los subsidios CA116167 y CA192393, así como por la Fundación para la Investigación del Cáncer de Mama. (Fuente: Mayo Clinic)</p>2018-01-31T13:40:35+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/247Tecnología: Proponen un protocolo para evaluar la contaminación de espacios acuáticos2018-01-22T21:59:52+00:00Gestión Ingenio y Sociedad<p><span>Un equipo de investigadores del Laboratorio de Genética, Ambiente y Reproducción (GenAR) de la Facultad de Ciencias Veterinarias y Ambientales de la Universidad Maza (Argentina) sugiere la aplicación de un protocolo para evaluar la contaminación en ambientes acuáticos. Existe la necesidad de conservar estos espacios en un estado adecuado, pero para ello se precisa el conocimiento del estado ecosanitario y determinar el riesgo ecológico por contaminación. Sucede que se trata de un proceso de evaluación integral, que provea de buenos argumentos al proceso de toma de decisiones ambientales.</span></p><p><span><span>El proceso comprende, en primer lugar, una caracterización general y geográfica del sitio en estudio que describa la geomorfología, hidrología y la identificación de procesos contaminantes. También se caracteriza el escenario humano y el escenario ecológico.</span></span></p><p>Luego se establecen criterios para la selección de especies para el biomonitoreo, se buscan antecedentes de efectos en especies seleccionadas y se observan los disturbios antropogénicos, es decir, causados por las actividades humanas.</p><p>Posteriormente, se procede a la estimación del riesgo a partir de la caracterización de las rutas de exposición y un análisis de la contaminación ambiental con muestras y programas analíticos.</p><p>Para finalizar, se analizan los resultados y se efectúan las conclusiones y recomendaciones correspondientes.</p><p>Este protocolo fue aplicado por primera vez a finales del 2012 en el Embalse El Nihuil, en San Rafael, luego de que se reportaron sucesivos eventos de mortandad masiva de peces. En esa oportunidad se identificaron diversas fuentes de contaminación como zonas de cultivo, industrias, asentamientos urbanos aledaños. Se seleccionó como especie para biomonitoreo a la Perca Criolla (Percichthys trucha), pez nativo abundante en toda la región sur de Argentina. Se determinaron biomarcadores histopatológicos y genotóxicos de base para la especie y se testeó presencia de plaguicidas en sus tejidos con resultados negativos.</p><p>Se trata de una reserva natural situada en el Departamento del sur provincial. El humedal tiene 65.000 hectáreas y se ubica a 1.300 metros sobre el nivel del mar. Fue declarado sitio Ramsar por su alto valor ecológico. Ramsar es la abreviación de la Convención Relativa a los Humedales de Importancia Internacional, especialmente como Hábitat de Aves Acuáticas que protege dichos lugares.</p><p>Es un oasis que alberga la mayor cantidad de avifauna de Sudamérica (cerca de 150.000 individuos pertenecientes a 74 especies de aves acuáticas) destacándose, entre ellas, el flamenco común. También conviven una gran biodiversidad de especies mamíferas y comunidades vegetales.</p><p>Luego de la aplicación del protocolo ya referido, se identificaron como posibles fuentes de contaminación e impactos antropogénicos: la existencia de zonas de cultivo y los asentamientos urbanos con drenaje residual de contaminantes hacia la laguna; la explotación minera (pila de desechos de uranio) y la explotación petrolera en la reserva; la producción de bovinos y caprinos en la reserva; la introducción y expansión de especies exóticas como el tamarindo (Tamarix gallica), la liebre europea (Lepus europaeus) y el jabalí (Sus scroffa) y la disminución de la superficie de agua de la laguna por derivación de afluentes. Se identifica como la problemática más relevante la disminución y pérdida de hábitat para especies aviares de importancia, debiendo proteger la cantidad de agua que debería llegar a la laguna como primera instancia.</p><p>Se continúa trabajando en la caracterización de este ambiente utilizando geotecnologías para identificar la constitución y dinámica ecosistémica y poner en valor los recursos que ofrece esta reserva con la finalidad de mejorar las estrategias de conservación.</p><p>La investigación, dirigida por María Evangelina Palma Leotta, y un equipo de veterinarios, geólogos, biólogos y gestores ambientales, trabajan en forma conjunta para lograr un análisis holístico integrado de los ambientes en estudio. (Fuente: Argentina Investiga)</p><p><span><br /></span></p>2018-01-22T21:59:52+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/246Tecnología: Una tormenta de cometas2018-01-22T21:47:32+00:00Gestión Ingenio y Sociedad<p>Quizá algún lector viva en un lugar del mundo donde las tormentas de nieve o de polvo tienen lugar a diario. Pero para la mayoría, los fenómenos meteorológicos siempre dan que hablar, como los temporales, que en muy poco tiempo pueden paralizar el transporte o dejarnos desorientados al ocultar nuestras referencias habituales.</p><p>Rosetta experimentó algo similar durante más de dos años, entre 2014 y 2016, mientras viajaba junto a 67P/Churyumov-Gerasimenko. La misión de la ESA sufrió innumerables impactos debido a los granos de polvo que arrastraban los gases evaporados del hielo superficial por el calor del Sol.</p><p>Esta imagen fue capturada hace dos años, el 21 de enero de 2016, cuando Rosetta volaba a 79 km del cometa. En ese momento, una vez pasado el perihelio del mes de agosto anterior (cuando el cometa se encontraba más cerca del Sol y más activo), la nave se iba acercando al cometa después de haber mantenido una mayor distancia por motivos de seguridad.</p><p>Como puede verse en la imagen, aunque habían pasado cinco meses, el entorno del cometa seguía siendo muy caótico y polvoriento. Los trazos revelan cómo los granos de polvo pasaban por delante de la cámara de Rosetta y eran capturados durante la exposición de 146 segundos.</p><p>La gran presencia de polvo en el campo de visión de Rosetta constituía un constante riesgo para la navegación, ya que los sensores de la nave empleaban una función de reconocimiento de patrones de estrellas para poder orientarse respecto al Sol y a la Tierra. En ciertas ocasiones, al volar muy cerca del cometa y, por tanto, atravesar regiones más densas de gas y polvo, los sensores captaban granos de polvo en lugar de estrellas y generaban errores de orientación, llegando incluso a obligar a la nave a entrar temporalmente en modo seguro.</p><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>A pesar de los riesgos, este polvo tenía un gran interés científico: tres de los instrumentos de Rosetta estudiaron miles de granos, analizando colectivamente su composición, masa, movimiento y velocidad, y creando un perfil de su estructura en 3D. El estudio de los granos más pequeños y limpios está ayudando a los científicos a conocer la composición de los cometas.</p><p><img src="/public/site/images/mikhail/Tormenta_de_comentas1.PNG" alt="" /></p><p>Dos años antes de que se tomara la fotografía, el 20 de enero de 2014, Rosetta aún estaba despertándose de los 31 meses de hibernación en el espacio profundo. Llegó a su destino en agosto de 2014, tras diez años en el espacio, y tres meses después liberó su módulo de aterrizaje Philae. Rosetta llevó a cabo observaciones científicas únicas del cometa hasta llegar a su gran final el 30 de septiembre de 2016, cuando descendió sobre la superficie del cometa. Al finalizar la misión, la cámara de alta resolución OSIRIS y la cámara de navegación habían capturado más de cien mil imágenes. (Foto: ESA).</p></div><div class="BANNERS BANNERS-TOP"><div class="BANNER BANNER-first"><div class="ENTRADA html"><div><ins class="adsbygoogle" data-ad-client="ca-pub-5663005764905852" data-ad-slot="7572893424" data-adsbygoogle-status="done"><ins id="aswift_2_expand"></ins></ins></div></div></div></div>2018-01-22T21:47:32+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/245Tecnología: Vía libre para el uso de ondas milimétricas con la tecnología 5G2018-01-15T14:27:31+00:00Gestión Ingenio y Sociedad<p>Por impresionantes que sean, las redes 4G de los smartphones apenas pueden soportar la normalización de tecnologías como el vídeo UHD o VR. Hacer frente a esa demanda y al elevado crecimiento del tráfico que conlleva requeriría velocidades de transferencia de datos diez veces superiores a las que ofrece 4G, así como incrementos de los anchos de banda desde cien megahercios hasta varios gigahercios. ¿Es posible que la tecnología de acceso por radio (RAT) móvil para banda de onda milimétrica sea esencial para lograr este objetivo?</p><p> </p><p>A pesar de su potencial, hasta hace dos años, seguía habiendo muchas dudas e incertidumbres en torno a las bandas de onda milimétrica. No había respuesta para interrogantes relacionados con la frecuencia, las características de los canales, la interfaz aérea, la integración con redes 5G o las limitaciones de hardware en bandas superiores.</p><p>En el proyecto mmMAGIC, los principales proveedores de infraestructuras y equipamientos, centros de investigación y universidades —junto con algunas pymes— de Europa se asociaron para resolver esas dudas. Convencidos de que las redes móviles que operan en bandas de onda milimétrica deberían ser capaces de operar como redes independientes (single-RAT) y como implementaciones multi-RAT (funcionamiento RAT de onda milimétrica no autónomo), desarrollaron una interfaz de radio de onda milimétrica para abordar los retos específicos de la comunicación de onda milimétrica y conseguir la capacidad, el rendimiento, la latencia y la eficiencia energética necesarios para prestar servicios 5G.</p><p> </p><p>"Hemos estudiado minuciosamente cada componente de la interfaz de radio de onda milimétrica —forma de onda, código de canal, retransmisión, modulación, numerología, estructura de marco, acceso múltiple, duplexación, acceso inicial y uso compartido del espectro— al tiempo que considerábamos una serie de dificultades concretas y las integrábamos en un diseño de interfaz de radio general de mmMAGIC", explica Yue Wang, coordinadora del proyecto e investigadora principal en el campo del 5G en Samsung Electronics.</p><p> </p><p>En el marco de este proyecto se ha evaluado la interfaz de radio tanto a nivel de enlace como a nivel de sistema, y ha validado y demostrado la interfaz aérea por medio de dos demostraciones de tipo 'hardware-in-the-loop' (técnica usada para el desarrollo y comprobación de sistemas embebidos en tiempo real complejos). El consorcio de 19 miembros ha demostrado la viabilidad y la utilidad de sus soluciones técnicas, y ha contribuido a generar confianza en la investigación y el desarrollo continuos de los sistemas de onda milimétrica 5G.</p><p> </p><p>"En resumen, el consorcio ha aportado herramientas para la optimización del diseño de las soluciones de onda milimétrica para 5G, diseños y prototipos de factores arquitectónicos que hacen posibles los sistemas 5G, así como elementos que contribuyen de manera decisiva a la regulación y a los llamados estándares de 3GPP e ITU-R. Se tramitaron nada menos que once patentes durante los dos últimos años", afirma Wang.</p><p> </p><p>"Lo que hace que me sienta verdaderamente orgullosa es que hemos conseguido conectar con una amplia comunidad del 5G en los organismos de investigación, regulación y normalización, y hemos ayudado de verdad a cerrar la brecha de conocimiento en este campo crucial que es el 5G. Hemos impulsado la disponibilidad de la tecnología e influido en el aprovechamiento de las bandas de alta frecuencia para los sistemas multimedia móviles de nueva generación. Observamos, por ejemplo, que ya han comenzado varios ensayos en la banda de 26-28 GHz en Europa a principios de 2017. En particular, Samsung y Arqiva pusieron en marcha el primer ensayo de campo de la tecnología Fixed Wireless Access (FWA) 5G en el Reino Unido y Europa en bandas de onda milimétrica de 28 GHz", prosigue.</p><p>El proyecto mmMAGIC, ya finalizado, ha impulsado considerablemente la disponibilidad tecnológica de los socios industriales para proporcionar nuevos productos y servicios de onda milimétrica, como queda de manifiesto por la multiplicación de proyectos pertinentes. Dos socios del proyecto –IMDEA Networks Institute y Telefonica I+D– fundaron el laboratorio de innovación 5G 5TONIC, una iniciativa en la que se usarán las conclusiones de mmMAGIC para realizar pruebas y experimentos de 5G inalámbrico y onda milimétrica.</p><p> </p><p>En paralelo, las universidades asociadas ya han obtenido financiación en el marco de nuevos proyectos: la Universidad de Aalto (Finlandia) implantará celdas pequeñas de onda milimétrica para un proyecto de ciudad inteligente, la Universidad de Bristol (Reino Unido) se centrará en el uso de la tecnología de onda milimétrica desde la vía hasta el tren y en las comunicaciones entre vehículos, la Universidad Técnica de Dresde (Alemania) está desarrollando una demostración de radio cognitiva en frecuencias de onda milimétrica, y la Universidad Tecnológica Chalmers (Suecia) ha puesto en marcha un centro de investigación de cinco años de duración sobre tecnologías de onda milimétrica denominado ChaseOn. (Fuente: IMDEA Networks Institute).</p>2018-01-15T14:27:31+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/244Otros artículos: Una profesora de la UCV diseña una aplicación que mejora el aprendizaje del inglés de niños con síndrome de down2018-01-10T19:55:58+00:00Gestión Ingenio y Sociedad<p>Cristina Cunha, profesora de la Universidad Católica de Valencia (UCV) (España), ha diseñado una aplicación informática que mejora el aprendizaje del inglés de niños con síndrome de down. El programa online, basado en sistemas de tutorización inteligentes, se puede usar en la tablet o en el ordenador y ha duplicado el rendimiento de los alumnos de Primaria con quienes se ha realizado el estudio</p><p>Así, esta herramienta, desarrollada específicamente en su tesis doctoral, supone un enfoque novedoso con respecto a los métodos tradicionalmente empleados. Cunha la ha comprobado en distintas asociaciones de niños de Valencia, Madrid y Málaga y pretende ampliar la edad, los contenidos y los países donde seguir desarrollando su investigación.</p><p>El trabajo, defendido en la UCV, parte del hecho de que “en la sociedad actual cada vez existe un número mayor de individuos con síndrome de down en edad adulta en disposición de incorporarse al mercado laboral, situación que les exige disponer de un determinado nivel de escolarización”, ha afirmado Cunha.</p><p>Es por ello que estas personas “deberían formarse siguiendo el mismo currículo formativo que el resto de los alumnos, aunque de forma adaptada a sus características cognitivas especiales. En este sentido, una de las asignaturas obligatorias es la correspondiente al estudio del idioma inglés como lengua extranjera”, ha subrayado.</p>2018-01-10T19:55:58+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/243Tecnología: Estudian un nuevo sistema de ventilación para reducir las infecciones hospitalarias2017-11-24T16:44:07+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>El riesgo de infección para las personas hospitalizadas es algo real en la actualidad y un problema que preocupa a la comunidad científica. Se calcula que anualmente el 6% de los pacientes que son ingresados en un hospital contraen una infección, lo que se traduce en siete billones de euros de gastos en toda Europa. Estas infecciones pueden ser provocadas por el contacto directo con personas infectadas, por sangre, por el agua y por vía aérea. Esta última vía ha sido objeto de estudio de un grupo de investigadores de la Universidad de Córdoba (España) y ha permitido evaluar el riesgo de infecciones entre personas por vía aérea en función del sistema de ventilación.</p><p> </p><p>Distintos agentes patógenos pueden trasmitirse por vía aérea mediante partículas de agua emitidas por las personas al ambiente a través de la saliva al toser, hablar o al respirar. Las partículas pequeñas quedan suspendidas en el aire y en el caso de portar estos patógenos, pueden provocar infecciones al ser inhaladas por otra persona. Son las llamadas ‘droplet nuclei’ de menos de cinco micras de diámetro (equivalentes a 0.005 milímetros) y que han sido objeto de estudio por un equipo de investigación de la UCO, liderado por el profesor Manuel Ruiz de Adana, y que ha contado con la colaboración de la Escuela de Ingenieros Industriales de la Universidad de Valladolid y la Universidad de Aalborg de Dinamarca. Esta investigación, publicada recientemente en la revista Energy and Buildings, señala cómo es posible reducir las infecciones hospitalarias seleccionando adecuadamente el sistema de ventilación, así como las renovaciones del aire del local cuando se diseñan las instalaciones hospitalarias.</p><p> </p><p>El estudio, según explica Manuel Ruiz, apuesta por un método que reduce el riesgo de infección cruzada entre dos personas “sobre todo en habitaciones de pacientes aislados de los hospitales, que son las de mayor riesgo”. Entre los sistemas estudiados en el marco del proyecto de investigación TRACER se encuentran los sistemas de ventilación por desplazamiento que introducen el aire a muy poca velocidad y “ese aire actúa como si se tratara de un pistón, es decir, como si empujáramos el aire desde la parte inferior del local hasta sacarlo por la parte superior de manera continua”. Este sistema ha sido analizado en detalle recientemente por este equipo de la UCO, responsable del proyecto de investigación TRACER.</p><p> </p><p>Sin embargo, este sistema recomendado no es el que habitualmente se aplica en los hospitales, donde generalmente se usa el de ventilación por mezcla, que consiste en introducir el aire en la habitación con el objetivo de diluir el contaminante.</p><p> </p><p>Según los datos aportados por el profesor Ruiz la normativa actual que rige el diseño de hospitales contempla renovar el aire 12 veces a la hora en este tipo de habitaciones. Con el sistema de ventilación por desplazamiento que propone el equipo de investigación que lidera, el número más óptimo se reduciría a 9, ya que presenta menor riesgo de infección cruzada entre personas.</p><p> </p><p>Para llevar a cabo este estudio los integrantes de la investigación han reproducido en el laboratorio de investigación de climatización del campus de Rabanales una habitación que simula la de un hospital con maniquís térmicos donde han realizado un elevado número de ensayos experimentales con distintos patrones de flujo de aire correspondientes a distintos sistemas de ventilación. En este recinto han estudiado el riesgo de infección cruzada entre dos personas por vía aérea en ambientes de hospital en función del sistema de ventilación, las condiciones de la sala y el número de renovaciones de aire a la hora.</p><p> </p><p>El análisis publicado en la revista Energy and Buildings se enmarca en una investigación más amplia sobre patrones de flujo de aire desarrollada desde 2014 y que persigue, entre otros objetivos, la elaboración de una guía de diseño para profesionales de la ingeniería que trabajan en los sistemas de ventilación de las instalaciones hospitalarias. (Fuente: UCO)</p></div>2017-11-24T16:44:07+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/242Tecnología: ADN sintético como material de construcción "inteligente"2017-11-23T20:18:41+00:00Gestión Ingenio y Sociedad<p>Unos expertos en biología sintética y nanobiología están reutilizando el ADN, el material hereditario presente en casi todas las células del cuerpo, como material autoensamblable, "inteligente" y estable que pueda percibir su entorno y reaccionar a él de formas diversas, detectando por ejemplo la inflamación en el cuerpo o toxinas en el medio ambiente. Estas aplicaciones en la escala nanométrica implican a menudo la síntesis de secuencias grandes que abarcan miles de los bloques de construcción de los que está hecho el ADN, conocidos como bases de nucleótidos A, T, C y G, que se pueden plegar y estructurar ulteriormente debido a las capacidades específicas de emparejamiento entre A y T, y entre C y G, respectivamente.</p><p> <img src="/public/site/images/mikhail/adn_sintético.JPG" alt="" /></p><p>Sin embargo, los investigadores en este campo han venido careciendo de herramientas que permitan secuencias de estructura individual (una hebra) más grandes para cultivarlas autónomamente y después unirlas entre sí siguiendo un plan de diseño molecular, una capacidad que podría generar estructuras y dispositivos con diversas capacidades.</p><p> </p><p>El equipo de Peng Yin, del Instituto Wyss para la Ingeniería Biológicamente Inspirada, dependiente de la Universidad Harvard en Estados Unidos, ha presentado una solución a este problema, la cual se podría aplicar a muchos casos prácticos. Yin y sus colaboradores han desarrollado un método que permite que secuencias de ADN prediseñadas crezcan autónomamente y se concatenen a lo largo de rutas de ensamblaje específicas, proporcionando por tanto la base para una nueva generación de dispositivos moleculares programables. Ensayando su nuevo concepto, consiguieron producir un primer conjunto de dispositivos con funciones diversas, como por ejemplo un origami de ADN que se autoconstruya y nanoestructuras de ADN que perciban, amplifiquen, registren y evalúen de forma lógica señales medioambientales.</p><p>Los métodos anteriores producían copias idénticas de una secuencia fija más pequeña, siendo incapaces de agregar entre sí secuencias sintetizadas diferentes en patrones definidos para generar estructuras más grandes de forma autónoma y sin una intervención exterior humana. Las características de autonomía y programación que ofrece la nueva técnica podrían conducir a la creación de una generación completamente nueva de aplicaciones y dispositivos moleculares programables, tal como destaca Yin.</p>2017-11-23T20:18:41+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/241Tecnología: Cómo crear una red cuántica híbrida entre laboratorios distintos2017-11-23T20:12:02+00:00Gestión Ingenio y Sociedad<p>En un estudio publicado esta semana en la revista Nature, científicos del Instituto de Ciencias Fotónicas (ICFO, en Barcelona, Catalunya, España) dirigidos por el profesor ICREA Hugues de Riedmatten presentan la primera demostración de un enlace elemental en una red de información cuántica híbrida, utilizando una nube de átomos fríos y un cristal alterado como nodos cuánticos, así como fotones individuales como portadores de información.</p><p>El estudio demuestra la comunicación y transmisión de información cuántica entre dos tipos de nodos cuánticos completamente diferentes ubicados en diferentes laboratorios. Este logro muestra que es posible construir una red híbrida cuántica con elementos heterogéneos, que es totalmente compatible con la infraestructura actual de telecomunicaciones de fibra óptica.</p><p>Hoy en día, las redes de información cuántica están comenzando a materializarse, con la posibilidad de llegar a ser una tecnología disruptiva que proporcionará capacidades radicalmente nuevas para el procesamiento de la información y la comunicación. Las investigaciones más recientes en el campo señalan que esta revolución de las redes cuántica podría estar a la vuelta de la esquina.</p><p>Una red de información cuántica está formada tanto por nodos cuánticos, que almacenan y procesan información, constituidos por sistemas de materia como gases atómicos fríos o sólidos alterados, entre otros, así como por partículas encargadas de transferir la información, generalmente fotones. Si bien los fotones parecen ser portadores perfectos de información, aún existe cierta incertidumbre sobre qué sistema de materia se podría usar como nodo de red, ya que cada sistema proporciona diferentes funcionalidades.</p><p>Estudios anteriores han logrado conseguir transferencias seguras de información cuántica entre nodos idénticos, pero esta es la primera vez que esto se logra con una red de nodos híbridos. Los investigadores del ICFO han encontrado una solución para hacer funcionar una red cuántica híbrida y resolver el desafío de una transferencia segura y confiable de los estados cuánticos entre diferentes nodos cuánticos a través de fotones individuales. capacidades de diferentes sistemas de materiales.</p><p>Además de hacerlo dentro un entorno libre de ruido, un fotón individual necesita interactuar fuertemente con los nodos heterogéneos o sistemas de materia, que generalmente funcionan a diferentes longitudes de onda y anchos de banda. Como comenta Nicolas Maring, "es como tener nodos hablando en dos idiomas diferentes. Para que se comuniquen correctamente, es necesario convertir las propiedades del fotón individual para que pueda transferir eficientemente toda la información de un nodo al otro ".</p><p>En su estudio, los investigadores utilizaron dos nodos cuánticos muy diferentes en naturaleza. Por un lado, el nodo emisor está constituido por una nube de átomos de rubidio enfriada por láser y, por otro lado, el nodo receptor es un cristal alterado con iones de praseodimio. Del gas frío, generaron un solo fotón con un ancho de banda específico muy estrecho y una longitud de onda de 780 nm. Luego convirtieron el fotón a la longitud de onda de la telecomunicación de 1552 nm para demostrar que esta red podría ser completamente compatible con el rango actual de la banda C de telecomunicaciones.</p><p>Posteriormente, lo enviaron a través de la fibra óptica en forma de lo que se llama un time-bin qubit fotónico (codificar un qubit de información en un fotón) de un laboratorio a otro. Una vez en el segundo laboratorio, la longitud de onda del fotón se convirtió a 606 nm para interactuar correctamente y transferir el estado cuántico al nodo de cristal alterado receptor. Tras la interacción con el cristal, el estado cuántico del fotón se almacenó en el cristal durante aproximadamente 2,5 microsegundos y luego se recuperó con una fidelidad muy alta.</p><p><img src="/public/site/images/mikhail/redes_cuantícas.JPG" alt="" /></p><p>Así los resultados del estudio demuestran que dos sistemas cuánticos muy diferentes pueden estar conectados y comunicarse entre sí por medio de un solo fotón. Como comenta el profesor Hugues de Riedmatten, "poder conectar nodos cuánticos con funcionalidades y capacidades muy diferentes y transmitir bits cuánticos entre ellos por medio de fotones individuales representa un hito importante en el desarrollo de redes cuánticas híbridas". Ser capaces de realizar la conversión de los qubits fotónicos a la longitud de onda de la banda C de telecomunicaciones muestra que estos sistemas serían completamente compatibles con las redes de telecomunicaciones actuales.</p><p>La red de información clásica, conocida como world wide web, fue desarrollada en los años 80. La información que fluye a través de la red se realiza mediante bits, se procesa y modula por medio de circuitos y chips electrónicos y se transmite a través de la red por medio de pulsos de luz dentro de fibras ópticas, donde hay una mínima pérdida de señal.</p><p>En lugar de utilizar los bits clásicos, las redes de información cuántica procesan y almacenan información cuántica a través de bits cuánticos o qubits. Mientras que los bits pueden ser 0s o 1s, los qubits pueden tomar tanto estos dos valores como también estar en cualquier superposición entre estos dos estados. En una red cuántica, los qubits son generados y procesados por sistemas de materia cuántica, p. gases atómicos fríos, sólidos alterados u otros sistemas. A diferencia de las redes clásicas, la información cuántica se transfiere entre los nodos utilizando fotones individuales en lugar de pulsos de luz fuertes.</p><p>Según los autores, las redes de información cuántica (constituidas por nodos cuánticos de materia y canales de comunicación cuántica) abrirán una nueva vía de tecnologías disruptivas, permitiendo así aplicaciones como la transmisión de datos perfectamente segura, el procesamiento mejorado de datos a través de computación cuántica distribuida y aplicaciones avanzadas de sincronización de relojes, entre otros. (Fuente: ICFO</p>2017-11-23T20:12:02+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/240Medio Ambiente: La tortuga caimán reaparece tras 30 años sin dar señales en estado salvaje2017-11-20T15:44:15+00:00Gestión Ingenio y Sociedad<p>En octubre de 2014, cuando el herpetólogo Chris Phillips se puso el traje de neopreno y se zambulló hasta el fondo de un riachuelo de un condado de Illinois (EE UU) nunca imaginó lo que se encontraría. El científico estaba siguiendo la pista de un joven macho de tortuga caimán (Macrochelys temminckii) liberado recientemente para reforzar las poblaciones de estos reptiles, en peligro de extinción. Sin embargo, a pesar de las señales del transmisor del animal, Phillips se topó con algo muy distinto.</p><p>“Estaba casi sin aliento cuando sentí el caparazón. Pensé que había encontrado a la tortuga macho que sabía que estaba allí por la señal de radio. Pero al cogerlo, su caparazón no terminaba donde debía haberlo hecho”, cuenta Philliips, del Illinois Natural History Survey.</p><p><img src="/public/site/images/mikhail/Tortuga_caiman.JPG" alt="" /></p><p>Lo que en realidad el científico sacó del agua fue una tortuga caimán hembra de casi 10 kg y 40 cm de longitud, el doble del tamaño del macho que estaba buscando. El reptil, de unos 18 años, no llevaba dispositivo de rastreo, por lo que no podía pertenecer a las tortugas criadas en cautividad y que habían sido liberadas en esa zona. Lo análisis de ADN lo confirmaron también.</p><p>El hallazgo, publicado en la revista Southeastern Naturalist, demuestra así que se trata de la primera tortuga caimán descubierta de las últimas tres décadas en estado salvaje en Illinois. Según los investigadores, el descubrimiento sugiere dos hipótesis: que hay esperanzas para esta especie amenazada o que en realidad es el último ejemplar que ha sobrevivido en este Estado sin la intervención humana.</p><p>Debido a la construcción de presas, al drenaje de pantanos y el dragado de ríos en esta zona, las poblaciones de este reptil se han reducido drásticamente. Sin embargo, el hallazgo de este ejemplar puede ayudar a los científicos a dar los siguientes pasos y reintroducir más tortugas en el área.</p><p>Durante años, los investigadores han liberado tortugas caimán criadas en cautividad con edades comprendidas entre los dos y los seis años, y han soltado unos 90 ejemplares adultos. Cada uno de estos animales llevaba un transmisor para ser localizados. De hecho, la tortuga silvestre fue encontrada cuando los expertos estaban realizando tareas de captura y suelta.</p><p>“Encontrar a este individuo no significa que exista una población estable y funcional de tortugas salvajes en el sur de Illinois”, explica Ethan Kessler, de la Universidad de Illinois y coautor del trabajo. “Cuando una población muere, una sola tortuga puede deambular como un zombi esperando el fin de sus días”, recalca el experto. Estas tortugas son además muy longevas y pueden vivir hasta los 100 años.</p><p>“Reforzar una población oculta de una especie en peligro es mejor que comenzar una nueva población en el área”, observa Kessler. “Pero, dado que no se han encontrado tortugas caimán salvajes en Illinois desde 1984, los esfuerzos de reintroducción tienen sentido”, subraya.</p><p>Los científicos marcaron a la tortuga descubierta para introducirla en el proyecto y hacer un seguimiento de su vida. La batería de su transmisor dejó de funcionar al poco de liberarla, pero al menos “la reconoceremos si por casualidad volvemos a dar con ella”, concluyen. (Fuente: <a href="http://www.agenciasinc.es">SINC</a>)</p>2017-11-20T15:44:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/239Ciencia: Un planeta muy “heavy”, increíblemente metálico y denso2017-11-20T12:09:18+00:00Gestión Ingenio y Sociedad<p>Frente a la idea extendida de que los planetas en torno a otras estrellas no son tan diferentes a los del Sistema Solar, resulta cada vez más evidente que existen otros mundos extraordinarios que sorprenden incluso a la comunidad astronómica profesional. Un equipo internacional del que forman parte investigadores del Instituto de Astrofísica de Canarias (IAC) (España), ha descubierto un nuevo exoplaneta masivo y metálico, K2-106b, de los denominados “de periodo ultracorto”. La órbita alrededor de su estrella dura menos de un día –en este caso, solo 14 horas-, algo de por sí bastante inusual, aunque lo que es realmente extraño de este planeta es su composición. Los resultados de la investigación se publican hoy en un artículo en Astronomy & Astrophysics.</p><p>Usando datos de tránsitos de la misión K2 del satélite Kepler, el equipo de investigadores KESPRINT ha descubierto un par de planetas particularmente interesantes. La intensa radiación proveniente de su estrella evita la formación de una atmósfera alrededor de los planetas de periodo ultracorto, dejando su núcleo al descubierto. Esto permite conocer su densidad, derivada de su radio y masa, informándonos directamente de su composición. Hasta ahora, las medidas de densidad de planetas de periodo ultracorto han arrojado resultados consistentes ya que todos tienen densidades compatibles con una composición similar a la Tierra, exceptuando el caso de 55 Cnc e, ligeramente más baja. Era lógico pensar que la estructura interna de los exoplanetas sería bastante simple: tienen un núcleo con una composición como la terrestre y algunos con una atmósfera más o menos extensa. Sin embargo, K2-106b es diferente.</p><p>“Gracias a una intensiva campaña de observación y utilizando varios telescopios, entre ellos el Telescopio Óptico Nórdico (NOT) y el Telescopio Nazionale Galileo (TNG), ubicados en el Observatorio del Roque de los Muchachos (Garafía, La Palma), se ha determinado la masa del planeta”, apunta Jorge Prieto Arranz, astrofísico del IAC y uno de los autores del trabajo. Con 1,5 radios terrestres, el planeta es relativamente pequeño, pero su masa ha resultado ser 8 veces la de la Tierra. Su densidad es increíblemente alta (13 g/cm3), incluso más que la del plomo, y más del doble de la Tierra, lo que indica una composición de materiales pesados. Los modelos muestran que tal densidad solo puede darse si el planeta está formado por un 80% de hierro y otros metales. Dada su composición y su cercanía a su estrella, podría decirse que K2-106b es una bola gigante de cañón incandescente.</p><p><img src="/public/site/images/mikhail/planeta_metálico1.JPG" alt="" /></p><p>“Los descubrimientos de planetas nunca se hacen en solitario, se necesita un gran equipo”, explica el primer autor del trabajo, Eike Guenther, investigador del Instituto de Thüringer Landessternwarte (Alemania), que recientemente ha estado en el IAC como investigador visitante del Programa Severo Ochoa. “Me encargué de las observaciones por la noche y otros miembros analizaron los datos durante el día. Como su órbita es tan corta, podíamos estudiarla casi entera en una sola noche. Por eso, la segunda noche de observación ya sabíamos que era un objeto súper interesante porque ya sospechábamos que era relativamente masivo. Ocurrió todo muy rápido”.</p><p>¿Cómo puede explicarse su existencia? Dado que los planetas y las estrellas se forman juntas, se asume que su composición también está relacionada. En este sentido, K2-106b es asimismo extraordinario, ya que su estrella no es particularmente rica en metales y por ello se barajan dos posibilidades. La primera, que el planeta podría haber tenido originalmente una composición normal, pero entonces perdió su capa más externa debido a un gigantesco impacto; y la segunda, que se pudo haber formado en la parte interna del disco protoplanetario, no muy lejos de su posición actual. Algunas teorías sugieren que la radiación de la estrella puede crear un gradiente en la composición del disco. Como resultado de esta diferenciación, los metales más pesados, como los que componen K2-106b, permanecerán cercanos a su estrella mientras que otros elementos más ligeros se moverán hacia fuera.</p><p>K2-106b pone de relieve que los exoplanetas pueden ser muy extremos y totalmente diferentes de los planetas rocosos del Sistema Solar. En el futuro, con los datos que recopile el satélite GAIA de la Agencia Espacial Europea (ESA), se podrá precisar el radio de su estrella y de él mismo y llegar a comprender mejor cómo se ha formado este sistema exoplanetario.</p><p>En esta investigación, por parte del IAC y además de Jorge Prieto-Arranz, también han participado David Nespral, Hans Deeg, Enric Pallé y Gregor Nowak. (Fuente: <a href="http://www.iac.es/divulgacion.php?op1=16&id=1308">IAC</a>)</p>2017-11-20T12:09:18+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/238Ciencia: Mejores plásticos para un futuro sostenible2017-11-20T12:00:48+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Tres nuevos artículos de Perspective y un Editorial destacan los problemas y avances en el desarrollo de plásticos más sostenibles y fáciles de reciclar. En primer lugar, Marc A. Hillmyer analiza los avances en la fabricación de plásticos y otros polímeros a partir de plantas, que son a la vez una fuente abundante y "renovable". Los científicos han desarrollado procesos comercialmente viables para fabricar algunos de los materiales de partida clave o "monómeros" a partir de materia vegetal; para otros monómeros de este tipo, la investigación se encuentra en progreso. Otro enfoque es crear plásticos completamente nuevos basados en plantas. El control preciso de la modificación de los compuestos biológicos puede ser un desafío, pero Hillmayer señala que los científicos están trabajando para abordar estas deficiencias con nuevos aditivos, comonómeros y control de arquitecturas macromoleculares. Otro desafío importante, afirma, no es solo convertir estos abundantes recursos en compuestos útiles, sino hacerlo además de manera eficiente. Se necesita una investigación fundamental para identificar catalizadores altamente activos y selectivos, así como vías metabólicas de alto rendimiento y eficiencia atómica, añade.</p><p>Un artículo de Perspective de Jeannette M. Garcia y Megan L. Robertson analiza por qué solo se recicla un pequeño porcentaje de los residuos plásticos. Cada año se descarta aproximadamente la mitad de la producción mundial anual de plásticos sólidos, unos 150 millones de toneladas en todo el mundo. Solo en los Estados Unidos, los residuos plásticos suponen un coste aproximado de 8300 millones de dólares. Los autores bordan una serie de desafíos relativos al reciclaje, incluidos los relacionados con la clasificación de diferentes tipos de plástico, la energía requerida para reciclar plásticos y la expansión de tecnologías de reciclaje para poder reutilizar polímeros tradicionalmente no reciclables. Los modos clave de abordar estos problemas incluyen el desarrollo de mejores catalizadores, nuevos polímeros más fáciles de reciclar y formas de reciclar plásticos mixtos, que pueden estar asistidas por el modelado computacional avanzado y el análisis de datos, señalan García y Robertson.</p><p>En un artículo de Perspective diferente, Ann-Christine Albertsson y Minna Hakkarainen destacan los desafíos para el desarrollo de plásticos degradables. En muchas aplicaciones, el plástico debe ser duradero, pero precisamente esa característica implica la persistencia del plástico en ambientes naturales. Los científicos han intentado diseñar plásticos que se degraden más fácilmente; sin embargo, los ambientes naturales pueden variar mucho en cuanto a los factores que contribuyen a la degradación, como la humedad, los microorganismos, el oxígeno, la luz solar y la temperatura, señalan los autores. Hasta ahora, añaden, los materiales poliméricos "medioambientalmente degradables" más ampliamente aceptados se basan en poliésteres alifáticos o almidón con enlaces químicos biodegradables, que, según dicen, son prometedores, aunque todavía no se degradan rápidamente o por completo en todos los entornos n o completamente en todos los entornos naturales. Por último, los autores destacan que los científicos deberían aprender de los sistemas biológicos, que con frecuencia combinan enlaces débiles o conmutables con estructuras jerárquicas, como es el caso de la madera.</p><p>En un Editorial de acompañamiento, Ellen MacArthur subraya la urgente necesidad de que legisladores y líderes empresariales adopten prácticas plásticas más sostenibles. Señala que los enfoques de políticas que hagan a los productores de plástico responsables de todo el ciclo de vida del producto pueden ser particularmente efectivos; estos enfoques se han introducido recientemente en la legislación de la UE. Distanciarse de los tipos de plástico todavía no reciclables requerirá un gran grado de rediseño e innovación, destaca MacArthur. (Fuente: AAAS)</p></div>2017-11-20T12:00:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/237Otros artículos: II Seminario Internacional de Emprendimiento e Innovación2017-11-03T22:09:55+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/Seminario_de_emprendimiento1.JPG" alt="" /></p><p>La Facultad de Ciencias Admninistrativas de la Fundación Universitaria CAFAM está desarrollando el II Seminario Internacional de Empredimiento e Innovación. Este año con la presencia como invitado al conferencia magistral del profesor Omar Aktouf PhD de HEC de Montreal.</p><p><img src="/public/site/images/mikhail/II_seminario.JPG" alt="" /></p><p>En el seminario además se abordaran conferencias, presentaciones de emprendimientos de los estudiantes y otras actividades relacionadas con la administración y el emprendimiento.</p>2017-11-03T22:09:55+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/236Ciencia: Erráticas auroras de rayos X en Júpiter2017-11-02T17:32:11+00:00Gestión Ingenio y SociedadLos telescopios espaciales de la NASA y la ESA se ha descubierto que, a diferencia de lo que sucede en la Tierra, las intensas auroras que se ven en los polos de Júpiter presentan un comportamiento independiente entre sí.<p>Se han detectado brillos polares en muchos lugares del universo, desde planetas y lunas hasta estrellas, enanas marrones y muchos otros objetos cósmicos. Estos bellos espectáculos se deben al choque de corrientes de partículas atómicas cargadas eléctricamente —electrones e iones— con las capas de la atmósfera que rodean un planeta, una luna o una estrella. Las auroras de la Tierra tienden a reflejarse entre sí: cuando brillan en el polo norte, normalmente también lo hacen en el polo sur.</p><p><img src="/public/site/images/mikhail/Jupiter1.JPG" alt="" /></p><p>Se esperaba que sucediese lo mismo en otro lugares, pero un nuevo estudio recién publicado en Nature Astronomy revela que las auroras de Júpiter no se encuentran tan coordinadas.</p><p>El estudio empleó los observatorios espaciales de rayos X XMM-Newton de la ESA y Chandra de la NASA para examinar los rayos X de alta energía producidos por las auroras en los polos del gigante gaseoso. Aunque se vio que las auroras al sur del planeta pulsaban de forma coherente cada 11 minutos, las del polo norte se comportaban de forma caótica.</p><p>“Estas auroras no parecen actuar al unísono, como estamos acostumbrados a que hagan aquí en la Tierra”, explica el autor principal del artículo William Dunn, del Laboratorio de Ciencia Espacial Mullard del University College London (Reino Unido) y del Centro de Astrofísica Harvard-Smithsonian (EE. UU.)</p><p>“Creíamos que la actividad estaría coordinada por medio del campo magnético de Júpiter, pero el comportamiento detectado es realmente desconcertante”.</p><p>“Resulta aún más extraño si tenemos en cuenta que Saturno —otro gigante gaseoso— no produce auroras de rayos X que podamos detectar, por lo que surgen algunas preguntas cuya respuesta aún no tenemos clara”.</p><p>“En primer lugar, ¿cómo es posible que Júpiter produzca auroras de rayos X brillantes y energéticas si su vecino no lo hace? Y, en segundo, ¿cómo se producen en cada polo de forma independiente?”</p><p>Con los datos disponibles, William y sus colegas identificaron y cartografiaron los puntos calientes de rayos X en los polos de Júpiter. Cada uno de estos puntos abarca un área equivalente a la mitad de la superficie terrestre.</p><p>Además de las dudas sobre cómo se producen las auroras en el cosmos, el hecho de que las de Júpiter pulsen de forma independiente sugiere que aún queda mucho que aprender sobre cómo el propio planeta produce algunas de sus emisiones más energéticas.</p><p>La influencia magnética de Júpiter es enorme; la región del espacio dominada por el campo magnético joviano —la magnetosfera— es unas 40 veces mayor que la de la Tierra y se encuentra inmersa en plasma altamente energético. En los límites exteriores de dicha región, las partículas atómicas cargadas, procedentes en última instancia de erupciones volcánicas en la luna joviana Io, interactúan con la frontera magnética entre la magnetosfera y el espacio interplanetario. Estas interacciones generan fenómenos intensos, incluidas las auroras.</p><p>“Las partículas cargadas tienen que chocar con la atmósfera de Júpiter a velocidades excepcionalmente altas como para generar los pulsos de rayos X que hemos visto. Aún no entendemos qué procesos son los que lo causan, pero estas observaciones indican que actúan de forma independiente en los hemisferios norte y sur”, añade Licia Ray, de la Universidad de Lancaster (Reino Unido) y coautora del estudio.</p><p>La asimetría en los brillos del norte y el sur de Júpiter también sugiere que muchos objetos cósmicos con auroras conocidas —exoplanetas, estrellas de neutrones, enanas marrones y otros cuerpos en rápida rotación— podrían producir una aurora muy distinta en cada polo.</p><p>Futuros estudios de las auroras de Júpiter ayudarán a comprender mejor los fenómenos que acontecen en el planeta. En los próximos dos años hay previstas campañas de observación con monitorización de rayos X por parte de XMM-Newton y Chandra, así como observaciones simultáneas de la sonda Juno de la NASA, que comenzó a orbitar Júpiter a mediados de 2016.</p><p>La misión Juice la ESA llegará al planeta en 2029 para investigar su atmósfera y su magnetosfera. También observará las auroras y, en particular, el efecto que tienen en ellas los satélites galileanos.</p><p>“Se trata de un hallazgo revolucionario, que no habría sido posible sin el observatorio XMM-Newton de la ESA”, añade Norbert Schartel, científico de la ESA para el proyecto XMM-Newton.</p><p>“El observatorio espacial ha sido clave para este estudio, al proporcionar datos exhaustivos a una alta resolución espectral para que el equipo pudiera explorar los vívidos colores de las auroras y obtener detalles sobre las partículas implicadas: si se mueven rápido, si se trata de iones de oxígeno o azufre, etc.”.</p><p>“Las observaciones coordinadas como esta, en las que colaboran telescopios como XMM-Newton, Chandra y Juno, son clave para explorar y entender aún mejor los entornos y fenómenos del Universo, así como los procesos que desencadenan”. (Fuente: ESA)</p>2017-11-02T17:32:11+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/235Sociedad: Aceite de oliva y Alzheimer2017-11-02T17:27:52+00:00Gestión Ingenio y SociedadLa dieta mediterránea se asocia con una buena cantidad de beneficios para la salud, incluso una incidencia menor de la demencia. Ahora, unos investigadores de la Universidad de Temple han identificado el ingrediente clave en la protección del deterioro cognitivo, el aceite de oliva extra virgen. El estudio, de publicación reciente, indica que el consumo del aceite protege la memoria y las habilidades para aprender, al tiempo que reduce la formación de las placas beta amiloides y los enredos neurofibrilares de la proteína tau en el cerebro, marca de fábrica del Alzheimer.2017-11-02T17:27:52+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/234Ciencia: Revelando secretos galácticos2017-10-25T17:12:19+00:00Gestión Ingenio y Sociedad<p>Esta imagen profunda, captada usando las excepcionales capacidades del VST (VLT Survey Telescope, telescopio de rastreo del VLT) en el Observatorio Paranal de ESO, en Chile, revela los secretos de los luminosos miembros del cúmulo de Fornax, uno de los cúmulos de galaxias más ricos y cercanos a la Vía Láctea.</p><p>Quizás, el miembro más fascinante del cúmulo sea NGC 1316, una galaxia que ha experimentado una historia muy movida tras nacer por la fusión de varias galaxias más pequeñas. Las distorsiones gravitatorias del pasado aventurero de la galaxia han dejado su huella en la estructura lenticular. En la década de 1970 se observaron por primera vez las grandes ondas, bucles y arcos embebidos en la envoltura exterior cargada de estrellas, y hoy sigue siendo un campo activo de estudio para los astrónomos, que utilizan la última tecnología de los telescopios para observar los detalles más finos de la inusual estructura de NGC 1316 mediante una combinación de imagen y modelos.</p><p>Las fusiones que formaron NGC 1316 generaron un flujo de gas que alimenta a un exótico objeto astrofísico en su centro: un agujero negro supermasivo con una masa de aproximadamente 150 millones de veces la del Sol. A medida que acreta la masa de su entorno, este monstruo cósmico genera chorros de partículas de alta energía inmensamente potentes, que a su vez dan origen a los característicos lóbulos de emisión que se ven en longitudes de onda de radio, haciendo que NGC 1316 sea la cuarta fuente de radio más brillante del cielo.</p><p>NGC 1316 también ha albergado a cuatro supernovas de tipo Ia registradas, que son eventos astrofísicos de vital importancia para los astrónomos. Dado que las supernovas de tipo Ia tienen un brillo muy definido, pueden utilizarse para medir la distancia a la galaxia anfitriona, en este caso, 60 millones de años luz. Estas "candelas estándar" son muy buscadas por los astrónomos, ya que son una excelente herramienta para medir de manera fiable la distancia a objetos remotos. De hecho, desempeñaron un papel clave en el revolucionario descubrimiento de la expansión acelerada de nuestro universo.</p><p> <img src="/public/site/images/mikhail/Galaxia_lejos.JPG" alt="" /></p><p>Esta imagen fue tomada por el VST, en el Observatorio Paranal de ESO, como parte del Sondeo Profundo de Fornax, un proyecto que quiere proporcionar un estudio profundo y multi-imagen del cúmulo de Fornax. El equipo, liderado por Enrichetta Iodice (INAF-Observatorio de Capodimonte, Nápoles, Italia), ha observado previamente esta zona con el VST, revelando un débil puente de luz entre NGC 1399 y la galaxia de menor tamaño NGC 1387 (eso1612). El VST fue diseñado específicamente para realizar sondeos del cielo a gran escala. Con OmegaCAM, una cámara especialmente diseñada que cuenta con 256 megapíxeles y un gran campo de visión corregido, VST puede obtener, con gran rapidez, imágenes profundas de grandes áreas del cielo, dejando a los telescopios de mayor tamaño —como el VLT (Very Large Telescope) de ESO— la tarea de explorar los detalles de objetos individuales. (Fuente: ESO)</p>2017-10-25T17:12:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/233Ciencia: Así es el mapa de la contaminación por sustancias perfluoradas en España2017-10-25T16:53:46+00:00Gestión Ingenio y Sociedad<p>Por su gran estabilidad y su resistencia a la degradación química, física y microbiológica, las sustancias alquilperfluoradas (PFAS, por sus siglas en inglés) –un grupo de compuestos químicos artificiales– son empleados en multitud de productos y procesos industriales desde el comienzo de su fabricación a finales de los años 40.</p><p>Sus características químicas los convierten en los componentes ideales para la producción de productos repelentes al agua y al aceite, o resistentes a las manchas, como los utensilios de cocina antiadherentes, la ropa o incluso las bolsas de palomitas. Pero su presencia llega hasta la cadena trófica.</p><p>“Los alimentos, el agua y el polvo doméstico son las principales fuentes de exposición. Aunque en menor medida, también hay que considerar la exposición debida al contacto con productos de consumo que las contienen como las prendas de vestir y otros textiles”, advierte a Sinc Argelia Castaño, directora del Centro Nacional de Sanidad Ambiental (CNSA) del Instituto de Salud Carlos III.</p><p>Aunque aún no se tienen evidencias de los efectos en la salud de las personas para todos estos compuestos, dos de ellos –el sulfonato de perfluorooctano (PFOS) y el ácido perfluorooctanoico (PFOA)– son sospechosos de representar un riesgo para la salud humana e incluso tienen riesgo de ser cancerígenos, a partir de un cierto nivel de concentración. Por ello fueron incluidos en 2009 en el anexo B de la lista de químicos restrictivos del Convenio de Estocolmo, un tratado internacional que regula el tratamiento de sustancias tóxicas.</p><p>Según la Comisión Alemana de Biovigilancia Humana (German HBM Commission), las concentraciones de PFOS que representan un riesgo para la salud y que por tanto requieren intervención (HBM-II) no se han fijado, “aunque con valores que están por encima de 5 μg/L (HBM-I) no se puede excluir con suficiente certeza la posibilidad de que aparezcan efectos adversos sobre la salud”, observa Castaño. En el caso de PFOA, el límite (HBM-I) se establece en 2 μg/L.</p><p><img src="/public/site/images/mikhail/Mapa_de_contaminación.JPG" alt="" /></p><p>"Desde el año 2000 importantes estudios de biovigilancia humana han evaluado la exposición a las PFAS, demostrando que las poblaciones de todo el mundo están expuestas a ellas”, destaca la investigadora. Pero no todos los contaminantes están regulados y muchos persisten aún en el medioambiente.</p><p>Para conocer el alcance en la población española, Castaño y su equipo han realizado el primer mapa de la exposición a estos compuestos basándose en los datos obtenidos en bioambient.es del Ministerio de Agricultura, Alimentación y Medio Ambiente, un proyecto lanzado en 2008 para entender la distribución de los contaminantes ambientales como metales, pesticidas, retardadores de llama, sustancias alquilperfluoradas y bifenilos policlorados en la población española adulta trabajadora, y establecer valores de referencia. Los resultados se han publicado en la revista Science of the Total Environment.</p><p>Tras analizar las concentraciones y la distribución geográfica de seis PFAS –PFOS, PFOA, sulfonato de perfluorohexano (PFHxS), ácido perfluorononanoico (PFNA), ácido perfluorodecanoico (PFDA), N-metil perfluorooctano sulfonamida (N-MeFOSA)– en el suero de 755 adultos españoles de 18 a 65 años de edad, los investigadores confirman que la población española está expuesta a estas sustancias, en niveles semejantes a otras poblaciones europeas.</p><p>“Se detectaron PFOS, PFOA y PFNA en casi todas las 775 muestras y PFHxS y PFDA en más del 85% de ellas”, certifica a Sinc Mónica Bartolomé, primera autora del trabajo y científica en el CNSA.</p><p>“Los residentes del noreste (Cataluña) y noroeste de España (Galicia) tuvieron los valores séricos más altos de PFAS, mientras que los residentes de las Islas Canarias mostraron los valores más bajos para casi todos los PFAS”, destaca Bartolomé. En el caso concreto de los PFOS, los niveles detectados en toda la población española superan los límites HBM-I establecidos por la Comisión Alemana de Biovigilancia Humana, lo que indica la importancia de seguir vigilando los niveles de exposición en la población, dicen los investigadores.</p><p>Por otra parte, la edad es un factor importante a considerar en la exposición, al ser las PFAS persistentes y bioacumulables. Según el estudio, “a más edad, mayores niveles”. En cuanto al género, los hombres presentaron niveles más altos que las mujeres.</p><p>Sin embargo, cuando se eliminaron de la comparación las mujeres que habían amamantado a uno o más hijos, las mujeres posmenopáusicas y los hombres de mayor edad presentaron concentraciones de PFAS similares. “Esto sugiere que otras vías de excreción como la lactancia y la menstruación contribuyen a la reducción de la carga corporal de las PFAS en las mujeres”, subrayan las autoras.</p><p>Para los científicos, los hábitos de vida también influyen en los niveles de PFAS. La exposición al tabaco y la dieta lo hacen de manera considerable. El estudio indica que el consumo de pescado está asociado a varias sustancias como las PFHxS, PFOA y PFOS. Pero también el consumo de cerveza y vino aumenta las concentraciones: los bebedores regulares de cerveza (de una a seis por semana) y los de vino mostraron una asociación con PFOA y PFOS. En el caso del vino además se detectaron PFNA y PFDA.</p><p>“Es necesario continuar con estudios de vigilancia humana, incluyendo otros sectores de población y ampliando el diseño de cuestionarios, para identificar fuentes de exposición adicionales; y sobre esta base, perfeccionar las actuaciones en la gestión de riesgo”, concluye Castaño.</p><p>En septiembre de 2016, el Comité de Examen de Contaminantes Orgánicos Persistentes del Convenio de Estocolmo llegó a un acuerdo de consenso que confirmaba que el ácido perfluorooctanoico (PFOA) podría causar efectos adversos significativos para la salud humana y el medio ambiente.</p><p>PFOS y PFOA se han clasificado como sospechosos de ser cancerígenos, según la Organización Mundial de la Salud, presuntos reprotóxicos (tóxicos para la reproducción) y nocivos para la población vulnerable como los niños lactantes. “Aunque no hay evidencia de que otros PFAS no regulados tengan una toxicidad similar a los PFOS y PFOA, el Strategic International Chemicals Management Actions considera a estos compuestos como contaminantes emergentes”, dice la investigadora del Instituto de Salud Carlos III Argelia Castaño.</p><p>En estos últimos años, diferentes actuaciones regulatorias y no regulatorias han modificado los niveles de exposición a las PFAS. “Por ejemplo, las restricciones voluntarias sobre PFOA y PFOS dieron como resultado niveles decrecientes de estos compuestos en muestras biológicas humanas, mientras que la presencia de otras PFAS no reguladas, utilizados para reemplazar a los dos anteriores, se ha incrementado”, alerta. (Fuente: <a href="http://www.agenciasinc.es/">SINC</a>/Adeline Marcos)</p>2017-10-25T16:53:46+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/232Ciencia: Así escapa el cáncer del sistema inmune2017-09-19T13:44:19+00:00Gestión Ingenio y Sociedad<p>El cáncer es un auténtico experto en escapismo. Consigue burlar a las distintas defensas del organismo para sobrevivir, crecer y propagarse sin que, hasta ahora, se conozcan en profundidad cuáles son los trucos que utiliza.</p><p>Una investigación firmada por el investigador español Juan Carlos Izpisúa y publicada en el último número de <em>Nature Cell Biology</em> ha conseguido desvelar una de estas estratagemas que ayudan a los tumores a eludir la acción del sistema inmunitario. Concretamente, el investigador del Instituto Salk (EEUU) y catedrático de la Universidad Católica de Murcia ha descubierto dos moléculas que contribuyen directamente a limitar la respuesta inmune antitumoral, por lo que su acción da alas al cáncer.</p><p><img src="/public/site/images/mikhail/cáncer_y_sistema_inmune1.JPG" alt="" /></p><p>Los investigadores han centrado su estudio en tumores que crecen en condiciones de ausencia de oxígeno (hipoxia). Esto se produce en algunas ocasiones, cuando el cáncer crece tan rápido que el riego sanguíneo es incapaz de cubrir toda la demanda. <strong>En lugar de morir, algunos tumores consiguen aprovecharse de esa falta de oxígeno</strong> y se valen de esa circunstancia para lograr una especie de escudo frente a la respuesta inmunológica humana.</p><p>En el laboratorio, los científicos liderados por Izpisúa han podido determinar en detalle <strong>cómo consigue el tumor protegerse en ese microambiente carente de oxígeno</strong>. Según sus datos, el tumor activa cascadas de señalización celular en las que es clave el papel de microRNAs; es decir, moléculas de ARN que participan en la regulación de la expresión natural de los genes.</p><p>El equipo ha identificado dos microRNAs (denominados miR25 y miR93) cuyos niveles están elevados en los tumores hipóxicos. En un análisis de 148 pacientes con cáncer, encontraron que aquellos que presentaban niveles elevados de miR25 y miR93 se relacionaban con un peor pronóstico de la enfermedad. También observaron que con otra molécula, denominada cGAS, ocurría justo lo contrario. Era una concentración baja en el tumor lo que se asociaba con una mala evolución.</p><p>«Estamos muy ilusionados con nuestro hallazgo y esperanzados de que <strong>alterando esta vía podamos modificar la respuesta inmune para luchar contra el cáncer</strong>», asegura Juan Carlos Izpisúa a EL MUNDO.</p><p>Estudios previos habían demostrado que cGAS funciona como una señal de alarma para activar la respuesta del sistema inmunitario, por lo que los científicos quisieron comprobar la existencia de una posible interrelación entre ellos.</p><h3 class="subhead">Experimento en ratones</h3><p>En varios experimentos observaron que, ante un ambiente de hipoxia, se elevaban los niveles de miR25 y miR93, lo que a su vez creaba una cascada de señalización celular que finalmente se traducía en una disminución de los niveles de cGAS.</p><p>Los científicos quisieron dar un paso más en el trabajo y corroborar la citada interrelación. Para ello, hicieron un experimento en ratones e inhibieron la acción de miR25 y miR93, con lo que se produjo una ralentización del crecimiento tumoral en los animales. En ratones inmunodeficientes, el efecto de la inhibición fue menos acusado lo que, según los científicos, pone de manifiesto que miR25 y miR93 promueven el crecimiento del tumor a través de un freno en el sistema inmunológico.</p><p>En el trabajo, los científicos señalan que su análisis puede tener potenciales implicaciones para desarrollar inmunoterapias contra el cáncer, si bien reconocen que sus datos aún son preliminares.</p><p>Tomado de: <a href="http://www.elmundo.es/ciencia-y-salud/salud/2017/09/19/59c01caa268e3e86188b457c.html" target="_blank">elmundo</a></p>2017-09-19T13:44:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/231Ciencia: El terremoto en México bajo la mirada de especialistas de la UNLP2017-09-18T17:17:48+00:00Gestión Ingenio y Sociedad<p>Recientemente, en México se registró un sismo de 8,2 en la escala de Richter y que afectó con mayor intensidad la costa de Chiapas. Consultada al respecto, la Dra. en Geofísica Nora Sabbione, Jefa del Departamento de Sismología e Información Meteorológica de la Facultad de Cs. Astronómicas y Geofísicas de la UNLP (Argentina), señaló que “se trata de un evento que se registró en una zona altamente sísmica y compleja del planeta donde confluyen varias placas tectónicas. En particular, este terremoto está asociado a una placa llamada Placa de Cocos que está introduciéndose por debajo de la placa del Caribe”.</p><p>Sabbione agregó que a este terremoto se le está asignando características de terremoto intraplaca, “quiere decir que está dentro de la placa de Cocos y tiene una profundidad intermedia”. El epicentro -el punto en la superficie que está exactamente por encima del foco- estuvo fuera de la costa de Chiapas, en tanto el foco se registró a unos 69 km de profundidad. “El poder destructivo de este terremoto es importante debido a la cercanía de la costa de México y de Guatemala pero fue mucho menor de lo que hubiera sido si hubiese tenido una profundidad de 10, 15 kilómetros”. El sismo ocurrió a las 23:49 del 7 de septiembre, hora local, con epicentro a 165 kilómetros al oeste de Tapachula, en el estado sureño de Chiapas, a 69,7 km de profundidad, según el Servicio Geológico Estadounidense (USGS).</p><p>“Estamos a 6700 km de donde ocurrió el terremoto y las ondas que viajan por todo el planeta también llegan a nuestra Estación, aquí en el predio de la Facultad de Ciencias. Astronómicas y Geofísicas y se registran tanto en forma analógica -papel- como digital”.</p><p>La Dra. en Geofísica Gabriela Badi, también integrante del citado Departamento, explicó que las denominadas Ondas P son las primeras en llegar y eso ocurrió a los 10 minutos de sucedido el terremoto, “salieron del foco y recorrieron los 6700 km que nos separan de esa región en 10 minutos”.</p><p>Para caracterizar la zona, la Dra Sabbione aclaró que son zonas que tienen sismos periódicamente con magnitudes de 7 o poco más en la escala de Richter, pero de acuerdo a los datos estadísticos, hace 100 años que no había habido un terremoto similar.</p><p>Por su parte, la Dra. Badi señaló que “la falla es un plano muy grande y sólo un pedazo de la misma es la que se desplaza, la que se mueve por la energía del sismo. En este caso hay unos 200 km por 50 km, o sea, 10.000 km2 que se rompieron”.</p><p>“Este tipo de terremotos -agregó la Dra. Sabbione- genera también muchas réplicas que pueden durar semanas aunque la población ya no las perciba. En este caso, las réplicas podrían alcanzar una magnitud 7 que puede causar aún más daño”.</p><p>Consultada sobre la posible relación entre los huracanes que asolan la región Caribe y este terremoto, la Dra. Sabbione señaló que “el tema del huracán es un fenómeno meteorológico y los terremotos son fenómenos endógenos, del interior de nuestro planeta, no hay relación entre ambos sucesos naturales”.</p><p>Sobre un eventual tsunami, esta Geofísica explicó que por la característica que tiene este terremoto no debería haber grandes olas como para generar un tsunami, justamente por la profundidad y por el tipo de falla a la que está asociado.</p><p>Sobre la tectónica de placas, la Dra. en Geofísica Gabriela Badi, explicó que la parte superficial de nuestro planeta tiene un comportamiento casi rígido y se encuentra fracturada en muchas placas Nuestro planeta es un planeta dinámico, tiene movimiento en su interior, tiene calor.</p><p>Algunas capas de la corteza terrestre tienen comportamientos casi rígidos y por eso las capas más rígidas se desplazan por encima de las capas más viscosas.</p><p>Las capas rígidas -como el planeta no crece ni se achica- en algunos casos, chocan, convergen o también divergen, se separan. Cada borde de placa tiene su propia actividad.Placa de Cocos</p><p>El terremoto de México ocurrido en 1985 fue resultado de la subducción de la placa de Cocos bajo la placa Norteamericana. Un poco más al sur, la subducción de la placa de Cocos bajo la placa del Caribe generó una serie de sismos destructivos como los de El Salvador de 2001 y de Guatemala de 2012.</p><p>La Dra. Sabbione señaló que la Placa de Cocos es una placa tectónica pequeña en relación a otras y se encuentra debajo del Océano Pacífico; “esta placa está introduciéndose por debajo de la placa del Caribe que involucra a América Central y a todo el mar Caribe. Por encima y por debajo hay otras placas y por eso es muy complejo lo que allí sucede”.</p><p>Los terremotos son vibraciones elásticas en la Tierra producidas por una liberación brusca de energía. Por su origen pueden ser naturales o artificiales (de explosión). Entre los primeros existen los tectónicos, volcánicos y de colapso.</p><p>Comúnmente se designa con el nombre de temblores a los fenómenos más débiles y se reserva el de terremotos a los de mayor intensidad. También suele llamárselos con el nombre de sismos, originado en el griego "seismos" que significa sacudimiento o agitación.</p><p>Recordemos que la magnitud de un terremoto referencia al tamaño del mismo, a la cantidad de energía liberada; la intensidad de un terremoto nos señala el tamaño del terremoto según los efectos del mismo, es decir, los daños que ha causado en la población, en las construcciones y en el terreno. (Fuente: Argentina Investiga)</p>2017-09-18T17:17:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/230Ciencia: Descubren que el núcleo del Sol rota casi cuatro veces más rápido que su "superficie"2017-08-08T15:52:50+00:00Gestión Ingenio y Sociedad<p>El núcleo del Sol gira casi cuatro veces más deprisa que la superficie solar, según lo descubierto por un equipo internacional de astrónomos. Los científicos habían supuesto que el núcleo estaba rotando a más o menos la misma velocidad que la superficie.</p><p>La explicación más probable para esta inesperada conducta es que la veloz rotación del núcleo sea un remanente del periodo durante el cual se formó el Sol, hace unos 4.600 millones de años. Después de la formación de nuestra estrella, el viento solar posiblemente ralentizó la rotación de la parte externa del astro.</p><p>El hallazgo es obra del equipo del astrónomo Roger Ulrich, de la Universidad de California en Los Ángeles (UCLA) en Estados Unidos, y Patrick Boumier, del Instituto de Astrofísica Espacial en Francia. Los investigadores trabajaron con datos obtenidos a lo largo de 16 años por el observatorio espacial SOHO, de la Agencia Espacial Europea y la NASA. El SOHO fue lanzado al espacio el 2 de diciembre de 1995, para estudiar el Sol desde su núcleo hasta la corona externa y también al viento solar. La nave sigue funcionando.</p><p><img src="/public/site/images/mikhail/sol.JPG" alt="" /></p><p>La idea de que el núcleo solar podría estar rotando mucho más rápidamente que la superficie ha venido siendo considerada durante más de 20 años, pero nunca antes se había tenido la oportunidad de ponerla a prueba mediante mediciones de velocidad.</p><p>El núcleo del Sol difiere también de su superficie en otro rasgo importante: posee una temperatura de aproximadamente 15,7 millones de grados centígrados, mientras que la superficie "solo" está a unos 5.500 grados centígrados.</p>2017-08-08T15:52:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/229Ciencia: La proteína que imita los efectos del ejercicio físico en el corazón2017-08-08T15:34:11+00:00Gestión Ingenio y Sociedad<p>La insuficiencia cardiaca es una de las causas de muerte más comunes de los países desarrollados, un problema que no deja de crecer en todo el mundo. Cuando una parte del tejido muscular del corazón se ve dañado y el órgano es incapaz de bombear sangre normalmente, el resto del músculo crece de manera disfuncional e intenta adaptarse. Aún así, este mecanismo no produce necesariamente una mejora en el bombeo.</p><p>Esta semana, la revista Cell Research publica el trabajo de unos investigadores canadienses que han descubierto una proteína que provoca un crecimiento de los músculos del corazón, pero de forma muy distinta al que se produce durante un proceso de insuficiencia cardiaca. Se trata de la cardiotrofina-1 (CT-1), capaz de engañar al corazón para que actúe como si estuviera haciendo ejercicio, favoreciendo su crecimiento y el bombeo de sangre.</p><p>“Descubrimos que CT-1 provoca el crecimiento de los músculos de forma más sana y estimula el crecimiento de los vasos sanguíneos en el corazón. Esto incrementa la habilidad del corazón para bombear sangre, tal y como se vería durante el ejercicio o el embarazo”, asegura Lynn Megeney, principal autor del trabajo y científico del Hospital de Ottawa (Canadá).</p><p>Junto a su equipo, Megeney puso a prueba esta proteína con animales de laboratorio (ratas y ratones) y comparó los resultados con los producidos por la fenilefrina, usada para incrementar la presión aretrial y conocida por causar un mal crecimiento del corazón.</p><p>Así, los expertos observaron que las células musculares del corazón tratadas con la cardiotrofina-1 se transforman en fibras largas y sanas. Junto a este nuevo tejido, los vasos sanguíneos también crecen y aumentan la capacidad de bombear sangre.</p><p><img src="/public/site/images/mikhail/Corazón.JPG" alt="" /></p><p>La fenilefrina, por ejemplo, provoca un crecimiento disfuncional irreversible del corazón. Sin embargo, la cardiotrofina-1 es capaz de evitarlo. Cuando el tratamiento con esta proteína finaliza, el corazón vuelve a su estado habitual, tal y como ocurre tras el ejercicio o el embarazo.</p><p>Además, el equipo comprobó que la CT-1 mejoró la función cardiaca en dos animales con daños en el corazón, uno provocado por un ataque al corazón que afectaba al lado izquierdo y otro por presión alta en los pulmones que perjudicaba al lado derecho.</p><p>“Esta terapia experimental es muy emocionante, particularmente porque parece prometedora para el tratamiento de insuficiencia cardiaca tanto en el lado izquierdo como en el derecho del corazón”, afirma Duncan Stewart, cardiólogo y coautor del estudio.</p><p>Aunque, en teoría, la práctica de ejercicio tiene los mismos efectos beneficiosos, los pacientes con insuficiencia cardíaca tienen la actividad física muy limitada. En la actualidad, el único tratamiento para tratar la afección en el lado derecho del corazón es a través de un trasplante. En el caso del lado izquierdo existen fármacos que pueden reducir los síntomas, pero no los solucionan por completo.</p><p>Los científicos necesitarán ahora obtener las patentes necesarias para poder tratar enfermedades cardiacas con esta proteína, así como probar su eficacia en pacientes antes de lanzar un producto al mercado. (Fuente: <a href="http://www.agenciasinc.es">SINC</a>)</p>2017-08-08T15:34:11+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/228Ciencia: El Hubble detecta la primera estratosfera de un exoplaneta2017-08-04T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de investigadores, liderado por la Universidad de Exeter y en el que participa el Centro de Astrobiología (CSIC-INTA), ha hecho el descubrimiento observando con el telescopio espacial Hubble de la NASA la intensa emisión del vapor de agua de la atmósfera del exoplaneta WASP-121b.</p><p><img src="/public/site/images/mikhail/Planetas_con_estratofera.JPG" alt="" /></p><p>WASP-121b, localizado a unos 900 años-luz de la Tierra, es un exoplaneta gigante gaseoso comúnmente conocido como "Júpiter caliente", aunque su masa y radio son mayores que las de Júpiter. El exoplaneta orbita su estrella anfitriona cada 1,3 días, y está situado, aproximadamente, a la distancia mínima a la que podría estar antes de que la gravedad de la estrella comenzara a “romperlo”. Al estar tan cerca de la estrella, las capas superiores de la atmósfera llegan a alcanzar los 2500 Kelvin (unos 2230ºC), ¡una temperatura a la que el hierro no estaría en estado sólido sino gaseoso!</p><p> </p><p>Con el fin de estudiar la atmósfera del gigante gaseoso los científicos utilizaron la espectroscopia para analizar el brillo del planeta en diferentes longitudes de onda de la luz. En particular, el vapor de agua en la atmósfera del planeta se comporta de manera predecible en respuesta a ciertas longitudes de onda de luz incidente, dependiendo de la temperatura. A temperaturas más bajas, el vapor de agua bloquea el paso de la luz, absorbiéndola. Pero a temperaturas más altas, las moléculas de agua emiten luz en lugar de absorberla. Se ha observado que las moléculas de agua que hay en la atmósfera de WASP-121b emiten radiación en forma de luz infrarroja, que el ojo humano es incapaz de detectar. La observación de la emisión procedente del vapor de agua es la prueba inequívoca de la presencia de una estratosfera. Eso indica que el vapor de agua está más caliente que lo que hay en capas inferiores.</p><p>Se define la estratosfera como la capa que está entre la troposfera (más cerca de la superficie) y la mesosfera (más cerca del espacio), y tiene la peculiaridad de que la temperatura aumenta con la altitud (lo normal sería que disminuyese). En la estratosfera terrestre, el ozono absorbe la radiación ultravioleta procedente del Sol, siendo el responsable del aumento de temperatura de esta capa atmosférica. En otros cuerpos del Sistema Solar, como Júpiter o la luna de Saturno Titán, el metano es el responsable del calentamiento de sus estratosferas. En los planetas del Sistema Solar, la variación típica de temperatura dentro de la estratosfera es de menos de 100 grados. Sin embargo, en WASP-121b, la temperatura en la estratosfera se eleva más de 1000 grados. Para desentrañar este misterioso aumento de temperatura serán necesarias nuevas observaciones en otras longitudes de onda, como ultravioleta y rayos X. Precisamente Jorge Sanz-Forcada, investigador del CAB y uno de los coautores del trabajo, se encarga de las observaciones de rayos X, con objeto de entender cómo influye la radiación de altas energías en la atmósfera de estos planetas.</p><p> </p><p>Los posibles candidatos que se barajan para explicar este extraordinario calentamiento son el óxido de vanadio y el óxido de titanio, pues en forma gaseosa absorben fuertemente la luz de las estrellas en las longitudes de onda visibles, de manera similar a como el ozono terrestre absorbe la radiación ultravioleta solar. Se espera que estos compuestos estén presentes en los Júpiter súper-calientes, tales como WASP-121b, cuyas atmósferas pueden alcanzar las altas temperaturas que se requieren para mantenerlos en estado gaseoso. De hecho, el óxido de vanadio y el óxido de titanio se observan normalmente en las estrellas enanas marrones, esas "estrellas fallidas" que presentan similitudes con los exoplanetas.</p><p> </p><p>El estudio de este exoplaneta representa un punto de referencia para el estudio de atmósferas planetarias, y constituye el objetivo del próximo telescopio espacial James Webb de la NASA, que será capaz de estudiar las atmósferas de exoplanetas como WASP-121b con una sensibilidad sin precedentes. (Fuente: CAB)</p>2017-08-04T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/227Ciencia: Virus con nanopartículas magnéticas para matar a bacterias dañinas2017-08-04T00:00:00+00:00Gestión Ingenio y Sociedad<p>Unos conglomerados de nanopartículas magnéticas armados con virus son capaces de atravesar biopelículas para alcanzar bacterias que pueden contaminar sistemas de tratamiento de agua y matarlas, según los resultados de unos experimentos recientes realizados por un equipo de científicos de la Universidad Rice, en Estados Unidos, y de la Universidad de Ciencia y Tecnología de China.</p><p><img src="/public/site/images/mikhail/Virus_con_nanoparticulas1.JPG" alt="" /></p><p>Los nanoconglomerados llevan bacteriófagos (virus que infectan bacterias y se propagan entre ellas) y los transportan hasta esos puntos bajo la biopelícula que generalmente se resisten a la desinfección química.</p><p>Sin el tirón del componente magnético del nanoconglomerado, estos virus tienden a dispersarse sin lograr penetrar en las biopelículas y permitiendo por tanto que las bacterias crezcan en ella e incluso que corroan el metal, un costoso problema para los sistemas de distribución de aguas.</p><p> </p><p>El equipo del ingeniero ambiental Pedro Álvarez, de la Universidad Rice, desarrolló y ensayó conglomerados que impiden la dispersión de los virus. Un débil campo magnético atrae a los conglomerados hacia las biopelículas, y una vez llegan a ellas los virus pueden atacar a sus blancos.</p><p>Este método novedoso, que surge de la combinación entre nanotecnología y virología, tiene un gran potencial para tratar biopelículas difíciles de erradicar, y en particular promete ser una forma efectiva que no genere subproductos de desinfección dañinos, tal como sostiene Álvarez.</p><p>Las biopelículas pueden ser beneficiosas en algunos tratamientos de aguas residuales o en reactores de fermentación industrial debido a sus tasas superiores de reacción y a su resistencia ante situaciones de estrés biológico exógeno. Sin embargo, las biopelículas pueden ser muy dañinas en los sistemas de almacenamiento y distribución de agua, dado que pueden dar cobijo a microorganismos patógenos que constituyen una amenaza para la salud pública y que podrían también contribuir a la corrosión y a las pérdidas económicas asociadas, tal como argumenta Pingfeng Yu, del equipo de investigación.</p><p>El equipo de investigación utilizó virus que son polivalentes (pueden dañar a más de un tipo de bacteria) para atacar biopelículas cultivadas que contenían cepas de Escherichia coli generadoras de enfermedades infecciosas, y de Pseudomonas aeruginosa, que es propensa a la resistencia a los antibióticos.</p><p>Los virus fueron combinados con nanoestructuras de óxidos de hierro, carbono y azufre que fueron modificados a su vez con grupos amino. El recubrimiento con estos últimos propició que los virus se unieran con las nanoestructuras a través de la "cabeza", lo que dejó a sus "colas" infecciosas expuestas y capaces de infectar a las bacterias.</p><p>Los investigadores usaron un campo magnético relativamente débil para empujar a los nanoconglomerados hacia el interior de la película.</p>2017-08-04T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/226Ciencia: El peligro de terminar el ciclo completo de antibióticos2017-07-26T23:05:14+00:00Gestión Ingenio y Sociedad<p>Para tratar una amigdalitis, lo habitual es que el médico recomiende <strong>10 días de antibióticos</strong>. Para la neumonía, también 10 días. Sin embargo, algunos ensayos han comprobado que con un tratamiento de entre tres y seis días para el primero, y de cinco para el segundo, es suficiente.</p><p>Esto pone de manifiesto, en gran medida, el abuso en el consumo de estos medicamentos. El uso excesivo de antibióticos es una de las causas de<a href="http://www.elmundo.es/salud/2016/05/27/57485642e2704e967b8b45cb.html" target="_blank"> resistencia bacteriana</a>, uno de los principales problemas de salud pública a nivel global que <strong>pone en riesgo</strong> a la medicina moderna. Solamente en Europa mueren cada año cerca de <a href="http://www.elmundo.es/salud/2017/02/22/58ad6ae546163ff02d8b4589.html" target="_blank">25.000 personas</a> por esta razón, según un informe de la Agencia Europea de Seguridad Alimentaria publicado a principios de 2017.</p><p>Un<a href="http://www.bmj.com/content/358/bmj.j3418" target="_blank"> análisis</a> publicado en la revista médica <em>British Medical Journal</em> señala que el mensaje «profundamente arraigado» de tomar el tratamiento al completo para evitar, precisamente,<strong> la resistencia antibiótica</strong>, no se apoya en evidencias científicas y provoca justo lo contrario.</p><p><strong>Dejar el tratamiento antes no crea resistencia bacteriana</strong></p><p>«Ya es hora de que políticos, educadores y médicos dejen atrás esta idea», indica uno de los autores, Martin Llewelyn, especialista en Microbiología e Infección en el Brighton and Sussex Unniversity Hospital (Reino Unido). El experto explica a EL MUNDO que es necesario estudiar más profundamente a partir de qué momento es seguro dejar el tratamiento antibiótico. «Hasta ahora, los antibióticos se han prescrito en tratamientos de cierto número de días, dependiendo de la enfermedad a abordar», afirma.</p><p>Por ejemplo, para la infección de riñón se suelen recomendar 14 días de antibióticos. «A menudo se cree que si el paciente deja de tomarlo demasiado temprano, eso potenciará la resistencia antibiótica. Esto no es verdad».</p><p>Sin ir más lejos, la propia <a href="http://www.elmundo.es/salud/2017/02/27/58b45224e5fdead3418b45e9.html" target="_blank">Organización Mundial de la Salud</a> (OMS) recomendó en 2016, durante la Semana Mundial de Concienciación sobre el Uso de Antibióticos, que «siempre se complete el tratamiento aunque el paciente se encuentre mejor, ya que detenerlo antes de tiempo fomenta el crecimiento de bacterias resistentes».</p><p><strong>Dejar el tratamiento antes no crea resistencia bacteriana</strong></p><p>«Ya es hora de que políticos, educadores y médicos dejen atrás esta idea», indica uno de los autores, Martin Llewelyn, especialista en Microbiología e Infección en el Brighton and Sussex Unniversity Hospital (Reino Unido). El experto explica a EL MUNDO que es necesario estudiar más profundamente a partir de qué momento es seguro dejar el tratamiento antibiótico. «Hasta ahora, los antibióticos se han prescrito en tratamientos de cierto número de días, dependiendo de la enfermedad a abordar», afirma.</p><p><img src="/public/site/images/mikhail/Imagen_de_la_echerichia_coli.JPG" alt="" /></p><p>Por ejemplo, para la infección de riñón se suelen recomendar 14 días de antibióticos. «A menudo se cree que si el paciente deja de tomarlo demasiado temprano, eso potenciará la resistencia antibiótica. Esto no es verdad».</p><p>Sin ir más lejos, la propia <a href="http://www.elmundo.es/salud/2017/02/27/58b45224e5fdead3418b45e9.html" target="_blank">Organización Mundial de la Salud</a> (OMS) recomendó en 2016, durante la Semana Mundial de Concienciación sobre el Uso de Antibióticos, que «siempre se complete el tratamiento aunque el paciente se encuentre mejor, ya que detenerlo antes de tiempo fomenta el crecimiento de bacterias resistentes».</p><h3 class="subhead">"Sin evidencias científicas"</h3><p>Sin embargo, Llewelyn destaca que estas recomendaciones están basadas en la tradición y no en evidencias científicas. Sin embargo, también afirma que no se sabe «con claridad» <strong>cuánto tiempo habría que reducir el tratamiento</strong> para minimizar las posibilidades de que las infecciones reaparezcan.</p><p>«Necesitamos más estudios que demuestren en qué momento es seguro detener el tratamiento, pero llevar a cabo este trabajo es difícil si los médicos y los pacientes siguen creyendo, equivocadamente, que dejar el tratamiento antes de lo que habitualmente se recomienda puede aumentar el problema de la resistencia», afirma el investigador.</p><p>El propósito del artículo, explica a este periódico otro de los autores, el profesor Tim Peto, del Centro de Investigación Biomédica de Oxford (Reino Unido), es poner de manifiesto los<strong> mitos sobre los riesgos</strong> de provocar resistencia bacteriana al reducir la duración de los tratamientos.</p><h3 class="subhead">La resistencia antibiótica</h3><p>La amenaza proviene, principalmente, de bacterias que están presentes en nuestra piel, en nuestro intestino o en el ambiente, de forma inofensiva. Las más comunes son la <em>Escherichia coli</em>, la <em>Enterococcus faecium</em>, <em>Staphylococcus auerus</em> o la <em>Klebsiella pneumoniae</em>, entre otros, explica el autor. El problema viene cuando, por alguna razón, pasan a la sangre, y causan la infección.</p><p>Cuando una persona toma antibiótico, las cepas de la bacteria sensibles al medicamento son reemplazadas por las resistentes. Por lo tanto, una persona que haya recibido uno de estos tratamientos es «más propensa a tener otra infección resistente», señala a este diario el presidente de la Sociedad Española de Enfermedades Infecciosas y Microbiología Clínica (SEIMC), José Miguel Cisneros.</p><p>«Estos medicamentos son maravillosos, porque son capaces de curar al 100%, pero ahora tenemos que tener mucho cuidado con no recetar ni un gramo ni un día de más», explica Cisneros.</p><h3 class="subhead">Seguir la pauta del médico</h3><p>En su opinión, las recomendaciones de duración han sido «muy largas». No obstante, añade que «esto no quiere decir que el paciente deje el tratamiento cuando se encuentre mejor, sino que <strong>siga estrictamente la pauta del médico</strong>».</p><p><img src="/public/site/images/mikhail/Nuevas_dosis_de_antibióticos_propuestas.JPG" alt="" /></p><p>Este experto indica que, según los <a href="https://www.aemps.gob.es/medicamentosUsoHumano/observatorio/docs/antibioticos.pdf" target="_blank">datos sobre el consumo de antibióticos </a>publicados en 2016 por el Ministerio de Sanidad, España está entre los primeros puestos del mundo en consumo de estos medicamentos.</p><p>En este sentido, señala que nuestro país puso en marcha en 2013 un <a href="https://www.aemps.gob.es/publicaciones/publica/plan-estrategico-antibioticos/home.htm" target="_blank">Plan Nacional de Resistencia Antibiótica</a> «muy completo» pero que, por el momento, <strong>carece de financiación</strong>.</p><p>«Si no frenamos este problema, la medicina moderna no va a ser posible:no habrá trasplantes, ni se podrá atender a pacientes con cáncer, por ejemplo», advierte.</p><p>Cisneros indica que, según las estimaciones de las que disponen en la SEIMC, <strong>fallecen tres veces más personas por este problema global que por accidentes de tráfico</strong>, lo que da una idea de la magnitud del problema.</p><p>El trabajo concluye señalando que «los antibióticos son un recurso natural valioso y finito que debemos conservar».</p>2017-07-26T23:05:14+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/225Medio Ambiente: El cambio climático ya amenaza los ecosistemas mediterráneos terrestres2017-07-26T22:44:00+00:00Gestión Ingenio y Sociedad<p>El cambio climático conlleva ya a estas alturas un aumento de la frecuencia, la intensidad y la duración de las sequías y también un incremento de la temperatura –en Cataluña (España) ha aumentado 1,6 ºC desde 1950–, y esto hará que la zona del Mediterráneo sea cada vez más árida.</p><p>Un equipo del CREAF liderado por Josep Peñuelas ha elaborado una investigación que recopila estudios, experimentos y datos obtenidos en el campo durante un largo periodo de tiempo en tres ecosistemas mediterráneos terrestres catalanes.</p><p>Esta revisión, publicada en Environmental and Experimental Botany, concluye que el cambio climático ya está alterando bosques y matorrales mediterráneos, y que la tendencia se agravará en las próximas décadas.</p><p><img src="/public/site/images/mikhail/Sistemas_mediterraneos1.JPG" alt="" /></p><p>La sustitución de unas especies por otras más resistentes, o incluso de bosques mediterráneos por matorrales, serán las consecuencias más visibles del cambio climático. Conocer mejor la capacidad de las plantas para aclimatarse y adaptarse a las nuevas condiciones, y una gestión forestal efectiva deben ser prioritarias para minimizar sus efectos.</p><p>Los estudios consultados para la revisión incluyen experimentos de campo y series de datos de 20 años o más, de tres tipos de ecosistemas: encinares en Prades; matorrales semiáridos afectados recientemente por el fuego en el Garraf; y bosques templados y húmedos que van desde encinares a hayedos en el Montseny.</p><p>"Los resultados obtenidos en Cataluña se pueden extrapolar a otras zonas, porque son ecosistemas típicos de la cuenca mediterránea", explica Peñuelas, investigador del CSIC en el CREAF.</p><p>La investigación revela que hay especies menos resistentes al aumento de temperatura y de sequía que otros. "Esto nos hace pensar que en un escenario futuro más árido la composición y distribución de las especies cambiará el Mediterráneo", comenta Peñuelas. Y añade que "es posible que bosques actuales de encinas pasen a ser matorrales en un futuro, más resistentes a estas condiciones". Algo parecido a lo que ocurre en otras zonas de la Península, donde la falta de gestión de los bosques y el cambio climático están acelerando la sustitución de pinos por encinas.</p><p>Los resultados también han comprobado que la sequía y el incremento de temperatura provocan que especies bastante resistentes como la encina y el madroño crezcan menos, e incluso presenten picos de mortalidad ante sequías graves. Otro efecto del cambio climático sobre las especies vegetales mediterráneas es la alteración de los periodos de floración, fructificación o dispersión y cantidad de semillas. Además, también se ha constatado que "la sequía hace que muchas plantas liberen más compuestos volátiles, que son inflamables y aumentan el riesgo de incendio", alerta Juan Llusià, también investigador del CREAF y autor del estudio.</p><p>Hay que estar especialmente alerta con los ecosistemas jóvenes que han sufrido perturbaciones recientemente, como fuegos, viento, o sequías graves. Es el caso del macizo del Garraf, que sufrió un gran incendio en 1994. "Son las comunidades jóvenes las más vulnerables al cambio climático", apunta Peñuelas.</p><p>El suelo también es uno de los componentes que más sufrirá los efectos del cambio climático, ya que el ciclo de los nutrientes queda muy alterado. El agua y nutrientes como el fósforo, el nitrógeno, o el potasio estarán menos disponibles en el suelo. "Una ligera reducción en la disponibilidad de agua puede suponer una gran dificultad para los bosques de retener y acumular los nutrientes, que se escapan arrastrados por las fuertes lluvias", explica Jordi Sardans, otro de los autores e investigador del CREAF. También se reducirá la capacidad del suelo y de las especies vegetales para retener el carbono, el cual probablemente retorne a la atmósfera incrementando los niveles de CO2.</p><p>Sin embargo, no todos los resultados de la investigación son tan negativos. Se ha visto que en general las especies mediterráneas han mostrado una capacidad rápida de aclimatación y de adaptación a los cambios ambientales naturales o inducidos por los experimentos. Las comunidades de plantas han sufrido cambios en sus genes y en la forma que estos se expresan, lo que habría ayudado a que la sequía y el aumento de temperatura les afecten con menor severidad. Esto sumado a una adecuación y mejora de la gestión forestal en las próximas décadas proporciona una brizna de esperanza para la mitigación de los efectos del cambio climático. (Fuente: CREAF)</p>2017-07-26T22:44:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/224Ciencia: El Programa Científico da su apoyo a Proba-32017-07-19T19:14:50+00:00Gestión Ingenio y Sociedad<p>El Programa Científico de la ESA ha acordado dar apoyo a la misión de demostración tecnológica Proba-3, constituida por dos satélites que, volando en formación, observarán una región del Sol normalmente oculta a nuestra vista.</p><p>Los dos satélites de Proba-3, cuyo lanzamiento está previsto para finales de 2020, volarán con una separación precisa para arrojar una sombra a través del espacio que bloqueará el disco del Sol, revelando así detalles de la corona que lo rodea que suelen quedar ocultos por el propio brillo de la luz solar.</p><p>Al igual que el resto de las misiones de la serie Proba, Proba-3 es principalmente una misión de demostración tecnológica que explorará las técnicas de vuelo en formación de precisión para que los futuros satélites que vuelen en grupo puedan llevar a cabo labores similares a las de una sola nave gigante.</p><p>No obstante, siguiendo la larga tradición de Proba, esta misión también tiene un ambicioso objetivo científico, y es que suministrar datos científicamente útiles es una forma estupenda de demostrar que la tecnología funciona según lo previsto.</p><p>Proba-3 ofrecerá a los científicos solares una ventana al segmento interior de la corona solar, una región llena de misterio más de un millón de grados más caliente que la superficie del Sol a la que rodea.</p><p>Hasta ahora, la mejor forma de observar la corona era hacerlo durante un eclipse solar, aunque la luz parásita que atraviesa la atmósfera de la Tierra es un factor que limita la observación</p>2017-07-19T19:14:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/223Ciencia: Testimonios de aguas pasadas en Marte2017-07-14T23:26:49+00:00Gestión Ingenio y Sociedad<p>Esta vista, capturada recientemente por la sonda Mars Express de la ESA, muestra el valle de un río seco con numerosos afluentes.</p><p>Esta sección de la región de Libya Montes, situada sobre el ecuador marciano, en la frontera entre los altiplanos del sur y las tierras bajas del norte, fue fotografiada por la Cámara Estéreo de Alta Resolución de la sonda el 21 de febrero de 2017.</p><p>Las montañas de los altiplanos de Libya Montes, una de las regiones más antiguas del Planeta Rojo, se erigieron hace unos 3.900 millones de años durante la formación de la cuenca de impacto de Isidis, de 1.200 km de diámetro, y pueden verse al norte del mapa contextual.</p><p>Las formaciones que se aprecian a lo largo de la región más amplia indican ríos y cuerpos de agua fijos, como lagos o incluso mares, que existieron en la historia temprana de Marte.</p><p>Se cree que el cauce que destaca de sur a norte (de izquierda a derecha en la imagen en color principal) habría atravesado la región hace unos 3.600 millones de años. En principio, su origen estaría en el cráter de impacto del sur, cuya pared se habría roto haciendo que el agua fluyera hacia el norte, atravesando las suaves montañas de la topografía local.</p><p>El valle recibía numerosos afluentes, lo que indicaría intensas precipitaciones y escorrentía superficial desde las regiones más altas hacia las más bajas. También se cree que la filtración de aguas subterráneas podría haber contribuido a dar forma a este valle. Un canal similar serpentea por la parte inferior derecha de la imagen.</p><p><img src="/public/site/images/mikhail/Marte1.JPG" alt="" /></p><p>Como nos revela Mars Express, la mineralogía de la región de Libya Montes es muy variada. Los minerales formados por el efecto del agua y alterados químicamente dan testimonio de actividad hidrotermal en el pasado, que podría estar vinculada a la formación de la cuenca de impacto de Isidis. Por ejemplo, el impacto podría haber movilizado agua líquida al derretir hielo subterráneo que, a continuación, habría interactuado con las rocas antiguas de montañas volcánicas.</p><p>Numerosos cráteres en diferentes estados de degradación salpican toda la escena, prueba de la larga historia de la región. Quizá los más llamativos sean los dos adyacentes que aparecen en el centro de la imagen, conectados por sus paredes fracturadas, lo que da al conjunto la forma de un ocho.</p><p>A la izquierda encontramos otro cráter interesante, ubicado en la ladera de un monte. Inevitablemente, su flanco se derrumbó sobre el valle que quedaba por debajo. Un poco más a la izquierda, encontramos un pequeño cráter dentro de otro mayor, revelando las capas más profundas de este último.</p><p>La rica diversidad de fenómenos geológicos en esta región —y en esta imagen— da cuenta del dinamismo que el planeta ha experimentado a lo largo del tiempo, pasando de un clima más cálido y húmedo en el que el agua líquida fluía libremente por la superficie a convertirse en el árido planeta que vemos hoy. (Fuente: ESA)</p>2017-07-14T23:26:49+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/222Ciencia: Pues sí... después de todo, el sol es una estrella ordinaria de tipo solar2017-07-14T23:23:59+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>El Sol es una estrella de tipo solar, afirma un nuevo estudio que resuelve una controversia en curso sobre si la estrella del centro del Sistema Solar exhibe el mismo comportamiento cíclico que otras estrellas cercanas de tipo solar. Los resultados también son un avance en la comprensión por parte de los científicos sobre cómo generan las estrellas sus campos magnéticos.</p><p>La actividad del Sol, incluidos los cambios en los niveles de radiación solar y eyección de material solar, varían en un ciclo de once años, impulsado por cambio en su campo magnético. Este ciclo constituye uno de los principales rompecabezas todavía existentes en la física solar, en parte porque no parece reflejar los ciclos magnéticos de otras estrellas de tipo solar, lo que lleva a algunos a sugerir que el Sol es una estrella no solar.</p><p>En esta ocasión, realizando una serie de simulaciones de campos magnéticos estelares, Antoine Strugarek y sus colegas han demostrado que el ciclo magnético del Sol depende de su ratio de rotación y luminosidad, una relación que puede expresarse como una función del llamado número de Rossby; el ciclo magnético del Sol es, de hecho, inversamente proporcional a este número, tal como demuestran.</p><p>Comparando los resultados de sus simulaciones con las observaciones disponibles de actividad cíclica en una muestra de estrellas lejanas, los autores han descubierto además que la relación que han identificado entre el período del ciclo solar y el número de Rossby es compatible con lo que se ha observado en otras estrellas de tipo solar. Los resultados confirman que el Sol es, en efecto, una estrella de tipo solar. (Fuente: AAAS)</p></div>2017-07-14T23:23:59+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/221Ciencia: Una técnica experimental analiza el funcionamiento de espermatozoides humanos antes de su inseminación2017-07-06T15:36:33+00:00Gestión Ingenio y Sociedad<p>La investigación, presentada en el Congreso anual de la Sociedad Europea de Reproducción Humana y Embriología (ESHRE, por sus siglas en inglés), que finaliza hoy en Ginebra (Suiza), describe por primera vez la utilización de una técnica experimental que ha permitido analizar el funcionamiento de espermatozoides humanos en contacto con el contenido citoplasmático de los óvulos de forma in vitro. De esta manera, se ha podido comprobar en el laboratorio y antes de producirse la fecundación si en este medio el espermatozoide cumplía con sus funciones antes de haber sido inseminado en un óvulo.</p><p> </p><p>La investigación, dirigida por la Dra. Isabelle Vernos, profesora de investigación ICREA en el Centro de Regulación Genómica de Barcelona, y Grupo Eugin, se ha desarrollado conjuntamente por un grupo de investigadores en el laboratorio del Parc Científic de Barcelona (PCB) y en el CRG. "El objetivo de la investigación era desarrollar una técnica previa a la utilización de los gametos masculinos en un ciclo de reproducción asistida para comprobar si sus funciones se desarrollaban correctamente", explica la Dra. Montserrat Barragán, coautora del estudio y responsable del laboratorio de investigación de Eugin en el PCB.</p><p>"Los resultados son preliminares y tenemos que ver más casos, pero parece que existe una relación entre las características de los espermatozoides seleccionados y sus capacidades para generar un embrión correctamente", añade Barragán. "Los primeros resultados abren el camino a seguir investigando en esta dirección", asegura.</p><p>Tras un estudio con 20 muestras de semen, los investigadores han podido observar con esta novedosa técnica la relación entre las características visibles de los espermatozoides que se detectan en los habituales seminogramas -como la morfología, la concentración y la movilidad- y su capacidad funcional en los primeros procesos de división celular, es decir, los primeros estadios de desarrollo del embrión.</p><p>"La metodología del estudio ha sido novedosa", según señala Farners Amargant, primera autora de la investigación e investigadora predoctoral en el CRG y Eugin. "Se analizaron veinte muestras de esperma humano -con características morfológicas, niveles de concentración y movilidad distintos-, y se incubaron ex vivo (fuera de un organismo vivo) en óvulos de la rana africana de uñas (Xenopus laevis) un organismo modelo muy utilizado en investigación biomédica". La muestra de esperma humano se pone en contacto con el citoplasma del ovocito de la rana y a partir de aquí se analiza su capacidad de construir el huso mitótico bipolar y otras funciones implicadas en la división celular.</p><p>Un 30% de los óvulos fecundados en procesos de reproducción asistida detienen su desarrollo en las primeras etapas de la división celular. Esto lleva a pensar a los científicos que los defectos funcionales de la célula espermática, tales como un fallo en la fusión de los pronúcleos o en la construcción del llamado huso mitótico bipolar -fases posteriores a la replicación del ADN- podrían ser los responsables de estos fracasos. "La técnica desarrollada nos permitirá poder observar más de cerca la incidencia de este tipo de defectos para entender si influyen en el correcto desarrollo del embrión", concluye Farners.</p><p>Este proyecto de investigación empezó en 2014 a raíz de una iniciativa interna del CRG para promover la investigación pluridisciplinar orientada a pacientes y a la sociedad. Un caso de éxito que ha dado lugar a una fructífera colaboración científica entre el grupo Eugin y el laboratorio de Isabelle Vernos en el CRG. La primera autora del trabajo, la investigadora predoctoral Farners Amargant, está participando en un doctorado industrial, una iniciativa de la Generalitat de Catalunya que pretende captar talento, formar a científicos y contribuir en la competitividad y la internacionalización del tejido empresarial. (Fuente: Center for Genomic Regulation)</p>2017-07-06T15:36:33+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/220Ciencia: Un dinosaurio jirafa hallado en Burgos toma el nombre de Clint Eastwood2017-07-02T18:37:53+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de científicos liderados desde el Museo de Dinosaurios de Salas de los Infantes (Burgos) y la Universidad de Zaragoza, en España, ha presentado esta semana en la revista Peer J una nueva especie de dinosaurio descubierto en la sierra burgalesa de la Demanda: Europatitan eastwoodi.</p><p><img src="/public/site/images/mikhail/Dinosauro_jirafa.JPG" alt="" /></p><p>El nombre hace alusión a su origen europeo y a su gran tamaño (como los titanes de la mitología griega), así como al actor de cine Clint Eastwood, uno de los protagonistas de la película El Bueno, el Feo y el Malo, rodada en esta comarca serrana.</p><p>Esta nueva especie se identifica como un dinosaurio saurópodo, grupo caracterizado por englobar animales de grandes dimensiones, y de cuello y cola largos. “El ejemplar es uno de los saurópodos titanosauriformes más completos de comienzos del Cretácico en Europa, un descubrimiento que puede ayudarnos a conocer mejor cómo evolucionaron y se diversificaron estos dinosaurios en Europa en ese tiempo”, destacan los autores.</p><p>La antigüedad de los fósiles de Europatitan ronda los 125 millones de años, al principio del período Cretácico (era Mesozoica). Los restos fósiles se extrajeron del yacimiento Oterillo II, situado entre Salas de los Infantes y Barbadillo del Mercado (Burgos). El yacimiento fue objeto de tres campañas de excavaciones –años 2004 a 2006– financiadas por la Junta de Castilla y León y la Fundación Dinosaurios. Se recuperó un esqueleto semicompleto y parcialmente articulado, con muchos huesos dispuestos tal como murió el animal. La lista de elementos anatómicos recogidos incluye un diente, vértebras del cuello, espalda y cola, hombro, mano y pelvis.</p><p>Un equipo internacional de científicos liderados desde el Museo de Dinosaurios de Salas de los Infantes (Burgos) y la Universidad de Zaragoza, en España, ha presentado esta semana en la revista Peer J una nueva especie de dinosaurio descubierto en la sierra burgalesa de la Demanda: Europatitan eastwoodi.</p><p>El nombre hace alusión a su origen europeo y a su gran tamaño (como los titanes de la mitología griega), así como al actor de cine Clint Eastwood, uno de los protagonistas de la película El Bueno, el Feo y el Malo, rodada en esta comarca serrana.</p><p>Esta nueva especie se identifica como un dinosaurio saurópodo, grupo caracterizado por englobar animales de grandes dimensiones, y de cuello y cola largos. “El ejemplar es uno de los saurópodos titanosauriformes más completos de comienzos del Cretácico en Europa, un descubrimiento que puede ayudarnos a conocer mejor cómo evolucionaron y se diversificaron estos dinosaurios en Europa en ese tiempo”, destacan los autores.</p><p>La antigüedad de los fósiles de Europatitan ronda los 125 millones de años, al principio del período Cretácico (era Mesozoica). Los restos fósiles se extrajeron del yacimiento Oterillo II, situado entre Salas de los Infantes y Barbadillo del Mercado (Burgos). El yacimiento fue objeto de tres campañas de excavaciones –años 2004 a 2006– financiadas por la Junta de Castilla y León y la Fundación Dinosaurios. Se recuperó un esqueleto semicompleto y parcialmente articulado, con muchos huesos dispuestos tal como murió el animal. La lista de elementos anatómicos recogidos incluye un diente, vértebras del cuello, espalda y cola, hombro, mano y pelvis.</p>2017-07-02T18:37:53+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/219Ciencia: Un cerebro artificial para cazar estrellas hiperveloces2017-07-02T00:00:00+00:00Gestión Ingenio y Sociedad<p>Con ayuda de un software que imita al cerebro humano, el satélite Gaia de la ESA ha detectado seis estrellas alejándose a gran velocidad del centro de nuestra Galaxia. Esto podría proporcionar información clave sobre algunas de las regiones más oscuras de la Vía Láctea. </p><p>Nuestra galaxia alberga más de cien mil millones de estrellas, que mantienen su posición gracias a la gravedad. La mayoría se encuentra en una estructura plana —el disco galáctico— con un bulbo en su centro, mientras que el resto se distribuye en un halo esférico más amplio, que se extiende en un radio de aproximadamente 650.000 años luz desde el centro.</p><p>La estrellas no se encuentran inmóviles en la Galaxia, sino que giran alrededor de su centro a velocidades que varían según su ubicación: por ejemplo, el Sol orbita a unos 220 km/s, mientras que la media en el halo es de unos 150 km/s.</p><p>En ocasiones, unas pocas estrellas rebasan estas velocidades, ya de por sí impresionantes.</p><p>Algunas se aceleran debido a un encuentro estelar cercano o a la explosión en forma de supernova de una estrella compañera, lo que provoca que las estrellas escapen a velocidades hasta varios cientos de km/s por encima de la media.</p><p>Hace algo más de una década se descubrió una nueva clase de estrellas muy veloces, que atraviesan la Galaxia a varios cientos de km/s. Son el resultado de interacciones pasadas con el agujero negro supermasivo que se encuentra en el centro de la Vía Láctea y que, con una masa equivalente a cuatro millones de soles, gobierna las órbitas de las estrellas a su alrededor.</p><p>“Estas estrellas hiperveloces son fundamentales para estudiar la estructura general de nuestra Vía Láctea”, explica Elena Maria Rossi, de la Universidad de Leiden, Países Bajos, que el 26 de junio presentó el descubrimiento por parte de Gaia de seis nuevas estrellas de este tipo en la Semana Europea de la Astronomía y las Ciencias del Espacio en Praga, República Checa.</p><p><img src="/public/site/images/mikhail/Estrellas_atravensando_galaxias.JPG" alt="" /></p><p>“Se trata de estrellas que han recorrido grandes distancias en la Galaxia, pero cuyo seguimiento se puede remontar hasta su núcleo (un área tan densa y oscurecida por el polvo y el gas interestelar que normalmente sería muy difícil de observar), por lo que ofrecen información crucial sobre el campo gravitacional de la Vía Láctea desde su centro hacia el exterior”.</p><p>Por desgracia, localizar estrellas hiperveloces en la Vía Láctea es como buscar una aguja en un pajar, ya que los estudios actuales incluyen las velocidades de varios cientos de miles de estrellas.</p><p>Así, los científicos han tenido que buscar estrellas jóvenes y masivas que llamaran la atención entre la población estelar, más antigua, del halo galáctico. Delatadas por su propia juventud, es probable que estas estrellas hayan experimentado un ‘empujoncito’ extra para llegar hasta el halo. Al volver a medir sus velocidades y calcular sus trayectos pasados se puede confirmar si realmente se trata de estrellas hiperveloces que se han alejado del centro de la Vía Láctea.</p><p>Hasta el momento, solo se han detectado 20 estrellas de este tipo. De acuerdo con este método de selección específico, se trata de estrellas jóvenes con una masa entre 2,5 y 4 veces la del Sol. Sin embargo, los científicos creen que muchas más estrellas con edades y masas distintas atraviesan a gran velocidad la Galaxia, pero que no pueden detectarse mediante este tipo de estudios.</p><p>El censo de mil millones de estrellas de Gaia ofrece una oportunidad única, por lo que Elena y sus colaboradores empezaron a preguntarse cómo podían aprovechar esta enorme cantidad de datos para optimizar su búsqueda de estrellas hiperveloces.</p><p>Tras varios métodos, probaron con un software que permite al ordenador aprender de experiencias pasadas.</p><p>“Al final, decidimos emplear una red neuronal artificial, que es un software diseñado para imitar el funcionamiento del cerebro”, explica Tommaso Marchetti, doctorando de la Universidad de Leiden y autor principal del artículo que describe los resultados, publicado en Monthy Notices of the Royal Astronomical Society.</p><p>“Tras un ‘entrenamiento’ adecuado, el software puede aprender a reconocer ciertos objetos o patrones dentro de un gran conjunto de datos. En nuestro caso, le enseñamos a identificar estrellas hiperveloces dentro de un catálogo de estrellas como el compilado por Gaia”.</p><p>Como parte del proyecto de investigación de Elena para estudiar estas estrellas, el equipo comenzó a desarrollar y a entrenar el programa durante la primera mitad de 2016 para que estuviera listo cuando se publicara el primer catálogo de Gaia unos meses después, el 14 de septiembre.</p><p>Además de un mapa con más de mil millones de posiciones de estrellas, esta primera versión incluía un catálogo algo menor con las distancias y los movimientos de dos millones de estrellas, combinando las observaciones del primer año de Gaia con las de la misión Hipparcos de la ESA, que cartografió el firmamento hace más de dos décadas. Conocida como Solución Astrométrica Tycho-Gaia (TGAS), esta fuente es un primer acercamiento a los futuros catálogos, que se basarán únicamente en datos de Gaia.</p><p>“El día de la publicación, estrenamos nuestro algoritmo ejecutándolo en los dos millones de estrellas de TGAS” —cuenta Elena—. En solo una hora, el cerebro artificial ya había limitado el conjunto de datos a unas 20.000 potenciales estrellas hiperveloces, por lo que su cantidad se había reducido hasta el 1 %.</p><p>“Una nueva selección, en la que se incluían únicamente medidas por encima de una determinada precisión en la distancia y el movimiento, nos permitió restringir aún más el número, hasta llegar a 80 candidatas”.</p><p>El equipo estudió estas 80 estrellas con más detalle. Dado que TGAS solo incluye información sobre el movimiento de cada estrella a través del firmamento, tuvieron que buscar nuevos indicios para inferir su velocidad, consultando catálogos de estrellas anteriores o realizando nuevas observaciones.</p><p>“Al combinar todos estos datos, encontramos al menos seis estrellas cuyo recorrido podía seguirse hasta el Centro Galáctico, con velocidades por encima de los 360 km/s”, indica Tommaso.</p><p>Y lo que es más importante, los científicos consiguieron identificar con éxito una población distinta de las 20 estrellas ya conocidas: las nuevas estrellas tienen masas inferiores, similares a las de nuestro Sol.</p><p>Una de las seis estrellas parece desplazarse tan rápido, a más de 500 km/s, que ya no está sujeta a la gravedad de la Galaxia, por lo acabará saliendo fuera de ella. Pero puede que las demás estrellas, algo más lentas, resulten aún más fascinantes, ya que los científicos están deseando saber más sobre lo que las ha frenado: es posible que también haya influido la materia oscura invisible que, según se cree, se extiende por la Vía Láctea.</p><p>Aunque el nuevo programa se había optimizado para buscar estrellas que se han acelerado en el centro de la Galaxia, también identificó cinco de las estrellas fugitivas más tradicionales, que deben sus velocidades a encuentros estelares en otros puntos de la Vía Láctea.</p><p>“Este resultado muestra el gran potencial de Gaia para abrir nuevas vías para investigar la estructura y las dinámicas de nuestra Galaxia”, señala Anthony Brown, de la Universidad de Leiden, coautor del estudio y presidente del Consorcio para el Procesamiento y Análisis de Datos de Gaia, DPAC.</p><p>Los científicos están deseando usar los datos de la próxima versión de Gaia, prevista para abril de 2018 y que incluirá las distancias y movimientos por el cielo de más de mil millones de estrellas, así como las velocidades de un subconjunto de ellas.</p><p>Procesar los datos de mil millones de estrellas, y no de dos millones como hasta ahora, es un reto enorme, por lo que el equipo está trabajando a fondo para actualizar su programa, de forma que pueda enfrentarse a un catálogo de tales dimensiones y descubrir las numerosas estrellas hiperveloces que habrá escondidas entre los datos.</p><p> “La ingente cantidad de estrellas sondeadas por Gaia ofrece una oportunidad apasionante para los astrónomos, pero también es un desafío, y nos complace ver que están respondiendo a él con gran interés”, reconoce Timo Prusti, científico del proyecto Gaia de la ESA. (Fuente: ESA)</p>2017-07-02T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/218Medio Ambiente: Drones velarán por la seguridad en incendios forestales2017-06-30T15:00:10+00:00Gestión Ingenio y Sociedad<p>Los devastadores incendios ocurridos en las últimas semanas en España y Portugal, ponen de manifiesto la necesidad de aumentar la seguridad en las labores de control y extinción de los incendios forestales, para evitar pérdidas de vidas humanas.</p><p>Por primera vez en España entran en operación 4 aeronaves no tripuladas para operar en la campaña de control de incendios forestales 2017, dotados con visión infrarroja, que optimizarán la operativa nocturna, cuando el incendio pierde fuerza.</p><p>Los datos que aportan estas aeronaves son de gran ayuda para el PMA (Puesto de Mando Avanzado) en la toma de decisiones, permitiendo a los técnicos tomar las decisiones correctas en materia de efectividad y seguridad.<br /> Poner en marcha estos sistemas requiere una cantidad de trabajo que normalmente se desconoce; se necesita personal altamente cualificado y esto parece ser una asignatura pendiente en España. La Corporación Industrial Aeronáutica Española (CIAE), junto a la startup salmantina Natur Futura, desarrollan a partir de este mes de Julio un programa de capacitación de técnicos operadores, adaptado a los requerimientos actuales del Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente. Ya son varias las empresas españolas y particulares interesados en recibir dicha formación, ante la incuestionable necesidad de cubrir demanda de personal para este servicio.</p><p>Estas empresas han diseñado el primer dron del mundo capaz de volar durante las 24 horas del día de forma ininterrumpida, el cual entrará en servicio próximamente.</p><p>No obstante las labores más importantes que pueden realizar este tipo de aeronaves son las de carácter preventivo. “El mejor incendio es el que nunca tuvo lugar”, dice Antonio José Zúñiga, Director General de Grupo Natur Futura y para ello, los drones jugarán un importante papel en la prevención de incendios en los próximos años, apoyando mediante tecnología avanzada las labores de gestión selvícola que deben efectuarse una vez finalizada la campaña de extinción. La visión multiespectral jugará un papel muy importante en la optimización de las labores preventivas. (Fuente: Natur Futura)</p>2017-06-30T15:00:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/217Medio Ambiente: Dinamarca, aparte de ser uno de los países más felices del mundo, también son los más concienciados2017-06-30T14:34:54+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Casi todos los alimentos pueden ser aprovechados al 100% pero no estamos acostumbrados a ello. Por ejemplo, las hojas verdes de las zanahorias se pueden utilizar para hacer pesto. En cambio, la mayoría de gente los desecha, y estos desperdicios forman parte del 30% de la comida producida en el mundo, y representa el 25% del agua utilizada para su cultivo.</p><p>En Dinamarca han invertido mucho esfuerzo durante los últimos 5 años y han conseguido reducir un 25% el desperdicio, gracias al movimiento de activistas y a la plataforma Stop Spild As Mad (parar el desperdicio de alimentos en danés). Y gracias a ellos grandes compañías se han unido, chefs famosos y supermercados.</p><p>Con acciones como <strong>cambiar los hábitos de los consumidores</strong> de comprar a peso a comprar por unidad, así los consumidores solo se llevan lo que necesitan. O poner estanterías con productos a punto de caducar con un suculento descuento.</p><p>En 2008, una famosa cadena de supermercados suprimió los descuentos por volumen, como el 3x2, y se centraron en vender la unidad a precios más bajos. Estos supermercados son Rema 1000, y de desperdiciar entre 80 y 100 plátanos diarios, con esta nueva forma de vender redujeron el 90% este desperdicio.</p><p>Reduciendo el volumen de las compras de los clientes, se consigue que no compren más de lo necesario, y así no acumulen alimentos en la nevera que nunca serán utilizados.</p><p>También aplicaciones como “Too good to go” sirven para que los restaurantes oferten las sobras del día a un precio de 4 euros. El nombre tiene doble sentido, ya que significa “demasiado bueno para ir” pero también “demasiado bueno como para tirarme”. Esta aplicación ha creado sensación entre los jóvenes, ya no solo por el precio, sino por el compromiso social de estos restaurantes. Es un win2win para empresarios, clientes y el medio ambiente. </p><p>Los daneses lo tienen claro, quieren eliminar su huella contaminante, y no solo con las energías renovables sino también con el desperdicio de alimentos. Y saben que el trabajo empieza desde el hogar, así que con iniciativas como Wefood, un comercio que vende fruta y verdura con el envase dañado o de aspecto no tan apetecible, pero comestible, pretenden concienciar a la población que no porque sea más bonito sabe mejor, y que los productos con fechas de caducidad pasadas no tienen porque estar malos.</p><p>El gran aliado para que esto pueda ser posible es el Gobierno Danés, que da soporte a todas estas iniciativas, y además no legisla en contra, estando permitido vender alimentos pasados de la fecha de caducidad, ya que la mayoría de alimentos siguen siendo comestibles.</p><p>Este debe ser un objetivo común, entre individuos, empresas, asociaciones, y gobiernos para luchar todos en contra del desperdicio de alimentos, porque afecta mucho más de lo que pensamos al medio ambiente.</p><p>Autor: Adriana Vàzquez Farràs Marketing Manager en Trendhim, <a href="http://www.trendhim.es">joyas para hombre</a></p></div>2017-06-30T14:34:54+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/216Ciencia: Utilizan una bacteria para eliminar metales pesados de aguas residuales2017-06-28T19:48:44+00:00Gestión Ingenio y Sociedad<p>Investigadores del grupo ‘Ingeniería Química y Ambiental’ de la Universidad de Jaén (España) han demostrado la capacidad de una bacteria para eliminar metales pesados, como la plata o el plomo, de las aguas residuales. A partir de los resultados de este estudio podrán elaborarse biofiltros basados en estos microorganismos que contribuyan a la depuración de aguas contaminadas.</p><p>El uso de esta bacteria como agente biorremediador no genera lodos residuales, por lo que no es necesario su tratamiento en las plantas de depuración. Esto conlleva una reducción del coste añadido en la recuperación de las aguas, ya que los residuos obtenidos por métodos físico-químicos con agua que contiene metales pesados no pueden reutilizarse.</p><p>Al mismo tiempo, este microorganismo produce cloruro de plata, muy extendido como agente antimicrobiano. Este compuesto es usado en biosensores y tiene una gran actividad antiviral y antitumoral. Por tanto, la bacteria podría ser una fuente de este recurso demandado por la industria biomédica y nanotecnológica.</p><p>Para el desarrollo del proyecto, los expertos partieron del estudio de 48 microorganismos entre hongos, levaduras y bacterias, hasta llegar a la especie más idónea para sus propósitos. Se trata de identificar al que asimile más cantidad de plata y que no suponga un riesgo añadido en las aguas tratadas. En el artículo ‘Biosorption of Ag(I) from aqueous solutions by Klebsiella sp. 3S1’ publicado en la revista Journal of Hazardous Materials describen el comportamiento de esta bacteria, Klebsiella sp. 3S1, en la asimilación de plata según sus observaciones en ensayos de laboratorio.</p><p>La identificación del microorganismo tiene fines ambientales. “A pesar de la normativa actual, muy restrictiva en el vertido de metales pesados, se sigue observando la presencia de estas sustancias en el agua. Además, la existencia de plata en las aguas y su eliminación ha sido un tema poco estudiado hasta el momento. Nos hemos sorprendido al descubrir el enorme potencial de esta bacteria para el tratamiento de aguas que la convertirán en una excelente aliada contra la contaminación”, indica a la Fundación Descubre el investigador de la Universidad de Jaén Antonio Jesús Muñoz, autor del artículo.</p><p>Según los resultados del Séptimo informe sobre la implementación de la directiva de aguas residuales urbanas, publicado por la Unión Europea, el zinc es uno de los elementos con mayor presencia en las aguas, aunque el plomo y la plata tienen un efecto mucho más tóxico para el medioambiente. Los investigadores señalan que estos tres metales se cuantifican en millones de toneladas cada año en toda Europa, procedentes, en gran medida, de vertidos de las industrias metalúrgicas. Al no ser elementos biodegradables, su acumulación aumenta el problema a medida que pasa el tiempo.</p><p>De la misma familia que la bacteria que causa la neumonía, pero sin su acción patógena en el ser humano ni en otras especies, Klebsiella sp. 3S1 es un microorganismo que está presente en la naturaleza y no está modificado genéticamente. A través de este estudio se ha confirmado que es capaz de retener plata a través de dos mecanismos distintos. Por un lado, a través de la bioadsorción, a nivel superficial, la bacteria retiene la plata sin que exista consumo energético por su parte. Por otro lado, por bioacumulación, a nivel intracelular, toma del ambiente sustancias nocivas y las almacena en su interior para neutralizarlas o eliminarlas posteriormente.</p><p>Además, a través de los ensayos con esta bacteria, han podido observar cómo sintetizan en su interior nanopartículas de cloruro de plata. Este compuesto es muy utilizado en nanotecnología y en aplicaciones para biomedicina y biotecnología. Por tanto, Klebsiella sp. 3S1 podría ser al mismo tiempo que un biorremediador más eficaz y económico que los conocidos hasta el momento, una fuente eficiente para la obtención de este compuesto.</p><p>Sin embargo, aún no conocen los procesos que este organismo acciona en la síntesis de cloruro de plata, por lo que plantean una nueva línea de investigación para profundizar en los mecanismos celulares que intervienen en su producción, y en los que pueden estar implicados diferentes enzimas y proteínas.</p><p>En un estudio anterior realizado por el equipo publicado en el artículo ‘Removal of Pb(II) in a packed-bed column by a Klebsiella sp. 3S1 biofilm supported on porous ceramic Raschig rings’, publicado en la revista Journal of Industrial and Engineering Chemistry, se determinó la capacidad de regeneración de aguas y de biosorción de plomo en una biopelícula bacteriana sobre un soporte cerámico de bajo coste. Este método supone una alternativa más económica y eficiente para el tratamiento de aguas contaminadas que las actualmente utilizadas al no producir lodos contaminados y no ser necesario, por tanto, su tratamiento posterior.</p><p>Las investigaciones han formado parte de un proyecto financiado por la Agencia Española de Cooperación Internacional para el Desarrollo en el que estudian distintos organismos como levaduras, hongos, algas, bacterias y cierta flora acuática con capacidad de concentrar metales y de acumularlos dentro de su estructura. El objetivo es conseguir biorremediadores eficaces que cumplan una doble función al ser descontaminantes, por un lado, y recicladores de las sustancias que asimilan, por otro. (Fuente: Fundación Descubre)</p>2017-06-28T19:48:44+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/215Ciencia: Estimación de cuánta agua fue necesaria para excavar valles marcianos2017-06-12T00:00:00+00:00Gestión Ingenio y Sociedad<p>En un nuevo estudio se ha calculado la cantidad de agua necesaria para excavar la llamativa red de valles marcianos y el resultado indica que la superficie del Planeta Rojo tenía en el pasado mucha más agua de lo que se pensaba previamente.</p><p><img src="/public/site/images/mikhail/agua_marciana.GIF" alt="" /></p><p>Lo descubierto por el equipo de Wei Luo, de la Universidad del Norte de Illinois en Estados Unidos, refuerza la idea de que Marte tuvo una vez un clima más cálido y un ciclo hidrológico muy activo, con agua evaporándose de un antiguo océano, regresando a la superficie en forma de precipitación y erosionando el terreno hasta acabar dando forma a la amplia red de valles del planeta.</p><p>Los satélites que orbitan Marte y los robots en su superficie han proporcionado a los científicos pruebas convincentes de que el agua ayudó a dar forma al paisaje del planeta hace algunos miles de millones de años. Pero no estaba claro cuánta agua fluyó realmente sobre el planeta, y la hipótesis del océano ha sido muy debatida.</p><p> </p><p>En el nuevo estudio, Luo y sus colegas utilizaron un algoritmo innovador para calcular de forma más precisa el volumen del espacio hueco dentro de los valles de Marte y la cantidad de agua que habría sido necesaria para crear esos huecos a través de la erosión con el paso del tiempo. La mayoría de los valles tienen más de 3.000 millones de años.</p><p>Sus estimaciones más conservadoras sobre el volumen global de los valles marcianos y la cantidad acumulada de agua necesaria para excavarlos son al menos 10 veces mayores que las estimaciones previas.</p><p>Además, la nueva estimación del volumen de agua necesaria para esculpir los valles es al menos un orden de magnitud superior al volumen que se le atribuía a un hipotético océano y 4.000 veces mayor que el volumen de los huecos de los valles.</p><p>Eso significa que el agua debió reciclarse muchas veces a través de los sistemas de valles en Marte, y que se necesita un gran cuerpo de agua abierto u océano para facilitar dicho reciclaje tan activo. “Me imaginaría al antiguo Marte siendo similar a lo que tenemos en la Tierra, con un océano, lagos, ríos y precipitaciones”, declara Luo.</p>2017-06-12T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/214Tecnología: Obtendrán combustible a partir de desechos de la caña de azúcar2017-06-12T15:36:32+00:00Gestión Ingenio y Sociedad<p>El cultivo de la caña de azúcar es la base de la economía regional en el noroeste argentino, con 365 mil hectáreas cultivadas y una producción anual de 20 millones de toneladas por molienda. Esta actividad industrial genera 45 mil puestos de trabajo directos e ingresos por aproximadamente ocho millones de pesos anuales, sin embargo, en contraposición de su impacto industrial en la región, los residuos que se generan no son aprovechados, lo que implica un problema ambiental que se acentúa a medida que la producción crece.</p><p>Con el objetivo de aprovechar los desechos de la cosecha, especialistas de la Unidad Técnica Valorización de Recursos Biomásicos de INTI-Tucumán (Argentina) llevaron adelante el primer ensayo a escala industrial de conformado de pellets en la ciudad santafesina de Rafaela. El mismo se realizó con máquinas disponibles en el mercado, lo que permitió reunir pautas técnico-económicas para el diseño, en el corto plazo, de un modelo de negocios rentable, apuntando al desarrollo de un nuevo biocombustible para aplicaciones industriales de alcance regional, que cumpla con los estándares mínimos de calidad para su uso en equipos de combustión.</p><p>“El trabajo contribuirá al desarrollo regional porque apunta a resolver un gran problema de contaminación ambiental, diversificar la matriz energética, agregar valor a un residuo agrícola y mejorar la competitividad de los productores cañeros”, afirma Guillermo Martínez Pulido del Centro INTI-Tucumán, quien llevó adelante el proyecto junto a Marcos Risso, Martín Rearte y Sado Abdelhamid.</p><p>El ensayo se implementó a partir de la articulación entre el municipio tucumano de Simoca, productores cañeros, una empresa fabricante de máquinas pelletizadoras y el INTI —a través de los centros de Tucumán y Energías Renovables—. Se enmarca dentro de las acciones que lleva adelante el Instituto, que este año conmemora su 60º aniversario, con el objetivo de fomentar el aprovechamiento y valorización de recursos biomásicos (materiales orgánicos utilizables como fuente de energía) en todo el país.</p><p>Si bien estudios estadísticos acuerdan sobre el potencial de estos residuos azucareros, las tecnologías para su aprovechamiento aún no han sido validadas por la propia industria azucarera. Actualmente el único antecedente es el uso parcial en su estado natural en calderas bagaceras de ingenios azucareros —que buscan complementar al bagazo que escasea debido a la demanda energética de la producción de etanol— .</p><p>Su aplicación como combustible estandarizado (pellet) puede dar una mayor confiabilidad y diversificar el consumo hacia la media y baja escala, incluso para aplicaciones domésticas en reemplazo del gas licuado de petróleo y el gas natural. “Es una alternativa no solo para darle valor agregado y diversificar la actividad cañera sino para suplir la demanda energética creciente en todo el país”, concluye Martínez Pulido. (Fuente: INTI)</p>2017-06-12T15:36:32+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/213Ciencia: Es sabido, que los recién nacidos muestran un mayor interés por las caras que por los objetos. Ahora, una investigación, publicada en el último número de la revista Current Biology, revela que esta preferencia se empieza a desarrollar dentro del útero mat2017-06-09T14:08:01+00:00Gestión Ingenio y Sociedad<p>Es sabido, que los recién nacidos muestran un mayor interés por las caras que por los objetos. Ahora, una investigación, publicada en el último número de la revista Current Biology, revela que esta preferencia se empieza a desarrollar dentro del útero materno.</p><p>Un equipo de la Universidad de Lancaster proyectó luz con imágenes a través de la pared matricial de mujeres embarazadas y descubrió que los fetos –con una gestación de 34 semanas– giraban antes la cabeza para observar imágenes de rostros que de otras formas.</p><p>Estos expertos son los primeros en examinar la percepción visual y la cognición de los bebés antes de nacer. "Hace muchas décadas que se conocía esta faceta de los neonatos, sin embargo, la exploración de la visión fetal no se había intentado” explica Vincent Reid, autor principal del estudio.</p><p>Hasta el momento, otros estudios no habían podido observar las reacciones del feto frente a estímulos concretos, debido a cuestiones técnicas. Ahora los cientíticos han utilizado un dispositivo de ultrasonido 4D de alta calidad para estudiar su comportamiento.</p><p> </p><p>Para realizar este estudio, los investigadores han analizado las repuestas de 39 fetos ante figuras lumínicas con formas de caras, proyectadas con distintas orientaciones. Las luces emitidas las movían a través de sus campos de visión, mientras observaban con el ultrasonido 4D sus reacciones.</p><p>Las películas obtenidas muestran que los bebes se sentían más atraídos por los rostros ‘normales’, que por los invertidos. Con estos resultados, los autores sugieren que los bebes adquieren antes del nacimiento la capacidad para reconocer caras. Además, han comprobado que la luz exterior puede atravesar los tejidos humanos y llegar al útero.</p><p>“Existía la posibilidad de que al feto le pareciese interesante cualquier figura, debido a la novedad de los estímulos”, explica Reid, refiriéndose a la metodología empleada. “Si este hubiese sido el caso, no habríamos visto diferencias en las respuestas a las distintas versiones de los estímulos” asegura.</p><p>El equipo también ha confirmado que a los fetos les llega la suficiente luz para ver dentro del útero. Por este motivo, desaconsejan a las madres embarazadas iluminar sus barrigas con luces brillantes.</p><p>Actualmente, los investigadores están mejorando la fuente de luz empleada en el estudio para profundizar en sus análisis sobre la percepción y cognición del feto. Una de sus futuras líneas de investigación, tratará de averiguar si los bebes desarrollan la capacidad para distinguir números y cantidades estando dentro del útero. (Fuente: <a href="http://www.agenciasinc.es">SINC</a>)</p>2017-06-09T14:08:01+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/212Tecnología: La Fecundación In Vitro cumple 40 años2017-06-09T00:00:00+00:00Gestión Ingenio y Sociedad<p>A finales de este año se cumplirán 40 años de la primera Fecundación In Vitro (FIV), realizada con éxito por los doctores británicos Robert Edwards y Patrick Steptoe. Nueve meses después, el 25 de julio de 1978, nacería Louise Brown, el primer “niño probeta” del mundo, que cumplirá 40 años el año que viene.</p><p>En su momento, el proceso de la FIV que llevó a la concepción de Brown, utilizado luego por mujeres de todo el mundo, fue motivo de una gran polémica. El método generó un amplio debate en los círculos médicos y religiosos y muchos se opusieron activamente a este tipo de intervención del hombre en los “procesos naturales”. Para hacer la idea de FIV más aceptable para la totalidad de la población, Tesarik desarrolló, en 1983, una técnica que permitía recuperar los ovocitos de la mujer, mezclarlos con espermatozoides del marido e introducirlos inmediatamente de nuevo en la mujer, permitiendo que la fecundación se produjera, posteriormente, en su “sitio natural” (Tesarik et al., “Oocyte recovery, in vitro insemination, and transfer into the oviduct after its microsurgical repair at a single laparotomy”. Fertility and Sterility 1983,39:472-775). Esta técnica se utilizó posteriormente bajo la abreviación GIFT (Gamete Intrafallopian Transfer) como alternativa a la FIV convencional.</p><p>En todo caso, la FIV “fue un paso de gigante –explica Tesarik- que nos ha permitido dar muchos otros, más importantes, porque en los últimos 40 años la reproducción asistida ha vivido avances revolucionarios”.</p><p>Al inicio las técnicas de FIV convencional y de GIFT se utilizaban exclusivamente en casos en los que la causa de infertilidad era de origen femenino, relacionada con una obstrucción de los oviductos (conductos que conectan los ovarios y el útero). Sin embargo, en los años siguientes las indicaciones de estas técnicas se extendían progresivamente a otras causas de infertilidad femenina y masculina. Y es precisamente en el campo de infertilidad masculina donde se realizó un paso decisivo que marcaba la dirección de futuras innovaciones – la ICSI.</p><p>ICSI (del nombre inglés “Intra Cytoplasmic Sperm Injection”) permite realizar la FIV en casos de anomalías severas de espermatozoides, donde la FIV convencional y el GIFT fracasan inevitablemente. El primer niño concebido gracias a ICSI nació en Bélgica en 1992. Jan Tesarik logró el primer nacimiento en Francia, en el Hospital Americano de Paris. La tecnología de micromanipulación de espermatozoides, ovocitos y embriones, desarrollada en el contexto de la aplicación de ICSI, servía posteriormente de base para la evolución de nuevas técnicas para el tratamiento de diferentes causas de infertilidad humana. Esta es la lista de logros los más importantes.</p><p>ROSI (del nombre inglés “Round Spermatid Injection”) permite realizar la FIV incluso para hombres sin espermatozoides, utilizando sus células precursoras inmaduras (espermátides). El primer niño del mundo concebido gracias a esta técnica, desarrollada por Jan Tesarik, nació en 1995. En 1998 la misma técnica fue utilizada con éxito por Tesarik para obtener los primeros nacimientos del mundo en casos de hombres con un bloqueo aún más precoz de formación de espermatozoides (espermatocitos primarios).</p><p>El primer paso se hizo en 2001, cuando un equipo de investigadores liderado por Jan Tesarik logró, en Brasil, los primeros embriones humanos obtenidos por FIV de ovocitos “artificiales”, reconstruidos con células somáticas de una paciente sin ovocitos. La misma técnica se está probando para formar espermatozoides “artificiales” para hombres que no tienen ni espermatozoides ni sus células precursoras inmaduras. Hoy día estas técnicas no pueden aún ser utilizada clínicamente por falta de garantías de seguridad en cuanto a la normalidad de futuros bebés. Trabajos de investigación en este campo se están realizando simultáneamente en varios países. La técnica de reproducción asistida llamada incorrectamente de “tres padres genéticos” (en realidad se trata de 1 padre y 2 madres genéticas), que ha recibido mucha atención en medios de comunicación el año pasado (e.g. El País 6 OCT 2016) está también derivada de aquella desarrollada por Tesarik en Brasil.</p><p>Este método, que permite la exploración de los 46 cromosomas humanos con el fin de detectar posibles deleciones y duplicaciones, ha sido aplicado a embriones humanos por varias clínicas del mundo en los últimos años. Un estudio internacional, con la participación de Jan Tesarik y Clínica MARGen, ha demostrado, en 2014, que la probabilidad de conseguir embarazo evolutivo con embriones seleccionados por hibridación genómica comparativa puede alcanzar 68% en pacientes con 3 o más previos fracasos con embriones no seleccionados. Y todo esto con un sólo embrión transferido a la vez (BioMed Research International 2014).</p><p>Sin esperar la disponibilidad de las técnicas para formar espermatozoides y ovocitos artificiales, hoy día podemos hacer en reproducción asistida cosas inimaginables hace 40 años. Así, la calidad y cantidad de ovocitos obtenidos de una mujer con problemas de ovarios pueden ser mejoradas significativamente utilizando una serie de medidas terapéuticas personalizadas estrictamente a la medida de cada paciente concreta. La clínica MARGen va a publicar próximamente, en una revista estadounidense, los resultados obtenidos con pacientes tratadas después de ser rechazadas por varias otras clínicas por ser “casos desesperados”. Sin hablar de la donación de ovocitos, extremamente eficaz, con la cual se puede alcanzar la probabilidad de embarazo del 80% en mujeres que no superarían los 10% con sus ovocitos propios. En el campo de infertilidad masculina, nuevas técnicas de medicación y de laboratorio, perfeccionadas en los últimos 10 años, aumentan la probabilidad de éxito de reproducción asistida para hombres con graves problemas de desarrollo de espermatozoides y con daños del material genético de espermatozoides.</p><p>Los últimos avances en diferentes campos científicos están abriendo vías a nuevas aplicaciones en reproducción asistida. “Los que tienen un sentido para percibir vibraciones de lo nuevo en gestación pueden predecir que los años a venir serán lo mismo fructíferos y revolucionarios, en lo que afecta a la reproducción asistida, como los años 90 del siglo pasado con la irrupción de técnicas de micromanipulación celular” comenta Jan Tesarik. Y creo que el contenido de estas innovaciones se podrá resumir con la bonita expresión inglesa: “patient-friendly” (amigable con el paciente).</p><p>Una de estas ideas innovadoras consiste en la sustitución de técnicas diagnósticas invasivas con técnicas no invasivas, mediante la recreación virtual de órganos de los pacientes, utilizando grabaciones multifocales y análisis computerizada de imágenes. En esta línea los investigadores de la Clínica MARGen, en colaboración con la Universidad de Granada, han desarrollado, y publicado en el inicio de este año, técnicas de examen de la cavidad uterina y de detección de embarazo ectópico en realidad virtual, creada a partir de imágenes ecográficas tomadas desde fuera. “Estoy seguro que en el futuro podremos recrear el cuerpo entero de una persona, con todas sus eventuales enfermedades y anomalías, en realidad virtual a fin de realizar allí exámenes que serían desagradables o arriesgados en caso de hacerlos en el cuerpo del propio paciente” matiza Tesarik.</p><p>Otro campo, actualmente en plena expansión, es el análisis de expresión génica en la sangre periférica. Hoy día se utilizan varios transcriptomas de sangre periférica como marcadores genéticos de patologías localizadas en diferentes órganos del cuerpo humano. “Igual que realidad “morfológica” virtual, podemos hablar de una realidad “molecular” virtual, en la cual se pueden descifrar señales de anomalías y enfermedades particulares. En este sentido se trata de dos realidades virtuales complementarias para analizar el funcionamiento del cuerpo humano y sus partes”, concluye Tesarik, que ha involucrado a la Clínica MARGen en diferentes proyectos de investigación y desarrollo en ambos campos de la ciencia del futuro. (Fuente: MAR&Gen)</p><p> </p><p>Está técnica, conocida como FIV clásica, ha permitido el nacimiento de millones de niños en todo el mundo. “Sin embargo, es ineficaz en más que la mitad de los casos de infertilidad que se tratan actualmente” según Jan Tesarik, director de la Clínica MAR&Gen de Granada, que realizó con éxito su primera FIV en 1982 en Chequia, dos años antes que en España.</p><p> </p><p>En la últimas cuatro décadas las técnicas de reproducción asistida han experimentado una evolución exponencial similar a otros campos de la ciencia “y hoy tratamos con éxito casos que antes eran imposibles”, indica Tesarik.</p><p> </p><p>El director de MAR&Gen recuerda que FIV fue una especie de competición “donde los competidores no nos conocíamos. Existían diferentes grupos de trabajo independientes en distintos países que perseguíamos un objetivo similar: resolver el problema de fertilidad de muchas parejas y permitirlas cumplir el deseo de ser padres”.</p><p> </p><p>En esta “carrera” llegó primero, en 1978, el equipo británico, liderado por Robert Edwards- Premio Nobel de Medicina en 2010- y Patrick Steptoe. También en el mismo año se conseguiría en la India. En 1980 en Australia, un años después en EEUU. En 1982 en Chequia, de la mano del doctor Tesarik, en Francia, Alemania, Italia y Austria. En 1983 en Bélgica y en 1984 en España.</p>2017-06-09T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/211Ciencia: Apenas se ha descubierto el 5% de la materia existente en el Universo, según un experto2017-06-05T14:35:56+00:00Gestión Ingenio y Sociedad<p>Desde la antigüedad, el ser humano de distintas civilizaciones ha mirado al cielo para responder a las preguntas fundamentales de cómo se originó el Universo, de qué está formado y cómo ha evolucionado hasta nuestros días.</p><p>Observatorios antiguos y modernos, telescopios, radioscopios, satélites y sondas espaciales han ayudado a los astrónomos a observar para avanzar con sus miradas tecnológicas el conocimiento de esta área medular de la ciencia.</p><p>“Apenas se ha descubierto el cinco por ciento de la materia, la que es visible porque irradia luz y constituye a galaxias, planetas, estrellas y todos los seres vivos”, dijo Carlos Frenk Mora, egresado de la Facultad de Ciencias de la UNAM (México), y fundador y director del Instituto de Cosmología Computacional, dependiente del Departamento de Física de la Universidad de Durham, Reino Unido.</p><p>El 25 por ciento del Universo está formado de materia oscura, cuya presencia se ha comprobado desde la teoría, pero no se ha podido ver experimentalmente, pues no emite ninguna radiación. “Y el 70 por ciento está formado por algo aún más extraño, que no sabemos a detalle qué es y por eso le llamamos energía oscura”, indicó el astrónomo mexicano.</p><p>En el auditorio Paris Pishmish del Instituto de Astronomía, en ocasión de su ingreso como miembro correspondiente a la Academia Mexicana de Ciencias (AMC), Frenk Mora ofreció la conferencia Todo de la nada: cómo se formó nuestro Universo, en la que dijo que “todo es el Universo, y nada se refiere al vacío”.</p><p>La energía oscura es invisible a nuestros ojos, produce una fuerza repulsiva y participa en la expansión del Universo. Por su parte, la materia oscura se conoce con evidencia científica desde la década de 1970, y hoy se sabe que produce halos que rodean a las galaxias. “La materia oscura ha esculpido al Universo”, expuso.</p>2017-06-05T14:35:56+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/210Tecnología: Realidad virtual con sensaciones táctiles más realistas2017-06-05T14:29:54+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/Realidad_virtual.GIF" alt="" /></p><p>Unos ingenieros han usado tecnología de robótica blanda para producir guantes ligeros y flexibles que permitan a los usuarios tener sensaciones táctiles, mucho más realistas que lo logrado hasta ahora, cuando interactúan con entornos de realidad virtual. En las pruebas iniciales, estos investigadores han utilizado los guantes para simular de forma realista la sensación táctil de tocar un teclado de piano.</p><p>Actualmente, las interfaces de usuario para la percepción táctil en la realidad virtual consisten en simples dispositivos que vibran cuando quien los utiliza toca una superficie u objeto virtuales. No son realistas. No podemos notar resistencia cuando apretamos un botón, ni sentir otras cosas. En cambio, el equipo de Jurgen Schulze, del Instituto Qualcomm de la Universidad de California en San Diego, Estados Unidos, y Michael Tolley, de la Escuela Jacobs de Ingeniería en la misma universidad, está trabajando en hacer que el usuario sienta como si estuviera en el entorno real desde el punto de vista táctil.</p><p>Otros equipos de investigación, incluyendo los de importantes empresas del sector han trabajado en el desarrollo de guantes capaces de transmitir sensaciones táctiles de realidad virtual. Pero estos son voluminosos y están hechos de materiales pesados, como metales. El nuevo guante del equipo de Schulze y Tolley tiene un exoesqueleto blando equipado con músculos robóticos blandos que lo hacen mucho más ligero y fácil de usar.</p><p>Aunque los guantes fabricados por el equipo de Schulze y Tolley constituyen tan solo un primer prototipo, este ya es sorprendentemente efectivo.</p><p>El sistema cuenta con tres componentes principales: un sensor de movimiento por pasos que detecta la posición y el movimiento de las manos del usuario; una unidad a medida de control fluídico que monitoriza los movimientos de los guantes; y componentes robóticos blandos en el guante que se inflan o desinflan individualmente para imitar las fuerzas que el usuario encontraría en un escenario físico real. En la versión actual de pruebas, el sistema interactúa con un ordenador que se encarga de mostrar un teclado de piano, con un río y árboles al fondo.</p><p>Un elemento clave en el diseño de los guantes es un tipo de componente robótico blando llamado músculo de McKibben, en esencia cámaras de látex recubiertas con fibras trenzadas. La unidad controla los músculos hinchándolos y deshinchándolos.</p>2017-06-05T14:29:54+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/209Tecnología: Identifican bacterias especializadas en degradar compuestos orgánicos que favorecen la fertilización de sedimentos marinos2017-06-05T14:19:48+00:00Gestión Ingenio y Sociedad<p>Científicos del grupo de investigación ‘Estructura y Dinámica de Ecosistemas Acuáticos’ (EDEA) de la Universidad de Cádiz (España), junto con investigadores de la Universidad de Essex (Reino Unido), han comprobado que en los sedimentos intermareales se desarrollan determinados grupos de bacterias en función del tipo de compuesto orgánico presente en el medio. Además, estos organismos están especializados en degradar dicha materia orgánica de manera muy rápida, propiciando una mayor liberación de nutrientes y favoreciendo así la fertilización de los sedimentos.</p><p>En el estudio titulado ‘Different Types of Diatom-Derived Extracellular Polymeric Substances Drive Changes in Heterotrophic Bacterial Communities from Intertidal Sediments’ y publicado en la revista Frontiers in Microbiology, los expertos explican cómo se degradan estos compuestos procedentes de microalgas que forman el primer eslabón de la cadena trófica. “Es un proceso cíclico, en el que intervienen diatomeas bentónicas encargadas de producir esa materia orgánica que degradan las bacterias. De esta forma se liberan nutrientes al medio y, como consecuencia, sirven de nuevo como alimento para las propias diatomeas y para otros organismos, como las fanerógamas marinas o las macroalgas”, explica a la Fundación Descubre el investigador de la Universidad de Cádiz Julio Bohórquez, uno de los responsables de este estudio.</p><p>En concreto, las diatomeas producen diferentes tipos de carbohidratos con menor o mayor complejidad estructural y también degradación, como son la glucosa o la fructosa. “Generan unas sustancias denominadas EPS, de su nombre en inglés Extracellular Polymeric Substances, que constituyen una fuente abundante de materia orgánica y se transfieren rápidamente hacía niveles tróficos superiores, a los que sirve de alimento. Primero a disposición de las bacterias, que a su vez son parte del sustento de la denominada meiofauna, es decir, animales que miden menos de medio milímetro; y a éstos a la macrofauna, como por ejemplo gusanos y cangrejos”, detalla Bohórquez.</p><p>Durante las pruebas en el laboratorio, los científicos han empleado fundamentalmente este tipo de compuestos procedentes de microalgas, las cuales sirven de bioindicadores por su rápida respuesta a los cambios.</p><p>Estos expertos estudian la materia orgánica presente en los sedimentos intermareales. Al tratarse de una mezcla compleja y variada formada por pequeños fragmentos de plantas en descomposición y materia orgánica procedente de la columna de agua o bien transportada por los ríos y excreciones de animales, requiere de la actuación de diversos grupos bacterianos para su degradación. “Para deshacerla hacen falta muchos tipos de bacterias especializadas. Una vez que estos microorganismos especialistas comienzan con la descomposición, otros con una menor capacidad para degradar tales compuestos pueden también descomponer aquellos que van resultando”, concreta este científico.</p><p>Por ello, los investigadores han incorporado carbohidratos con diferente complejidad estructural con el fin de estudiar qué comunidades bacterianas se desarrollan en esos sedimentos. “Los sedimentos desempeñan un papel importante en el metabolismo y la dinámica de nutrientes de las zonas costeras poco profundas. Los procesos que ocurren dentro de esta zona, así como sus interacciones con el agua, determinan en gran medida el comportamiento de los ecosistemas”, explica Bohórquez.</p><p>Precisamente en la Bahía de Cádiz, donde los expertos de este grupo de investigación sobre ecología microbiana han desempeñado la mayor parte de sus trabajos, la zona intermareal representa el 60% de la superficie total de la parte interna de la Bahía. “Todos estos estudios nos ayudan a generar conocimiento para comprender estos sistemas donde se dan multitud de interacciones diversas entre organismos diferentes”, afirma este investigador.</p><p>En este sentido, investigaciones anteriores han dado como resultado la obtención de compuestos derivados de las microalgas que se utilizan para establecer qué compuestos son capaces de sintetizar, como es el caso de las microalgas en el ámbito de la cosmética o los combustibles, así como la utilización de bacterias para degradar hidrocarburos.</p><p>Los resultados experimentales obtenidos durante este trabajo, financiado por el Plan Nacional, y otros anteriores en los que también han participado estos científicos, se integrarán en un modelo que servirá para producir mejores evaluaciones anuales de la producción de organismos en los fondos marinos en la Bahía de Cádiz. Esta herramienta de estimación también será de utilidad en otras zonas intermareales con características similares. (Fuente: F. Descubre/DICYT)</p>2017-06-05T14:19:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/208Ciencia: Otra forma de estudiar el cerebro2017-05-22T15:51:36+00:00Gestión Ingenio y Sociedad<p>Marcos Cuadrelli es alumno investigador. Hace 2 años, junto a un equipo de cinco investigadores conformado por cuatro profesionales (tres médicos y un biólogo) y dos estudiantes, iniciaron esta investigación que finalizaría con la presentación de un póster en el Congreso Internacional de Diagnóstico por Imágenes en Brasil y que forma parte del material que usará para realizar un atlas.</p><p>Marcos comenta que su pasión por la neuroanatomía fue heredada del profesor Leopoldo Luque, con quien comenzaron buscando líneas de investigación para presentar en la Facultad, siendo una de ellas la relacionada a la tractografía. Luego de iniciar la búsqueda de marco teórico, estudiando fuentes francesas y rusas, papers y journals de neurocirugía, Marcos había logrado avanzar en la propuesta de investigación: observó que no existía en toda la teoría reunida unión entre la tractografía y el conocimiento anatómico del cerebro. La investigación cubre el hueco bibliográfico existente a la hora de profundizar la formación de los estudiantes de medicina dentro del estudio por imágenes del cerebro, ampliando el conocimiento neuroanatómico en conjunto con su relación imagenológica, dentro del área de la tractografía DTi.</p><p>El alumno de Medicina podrá mejorar la manera en que estudia, a través de las imágenes tractográficas, las conexiones del encéfalo mostrando, mediante un software, la dirección de la difusión de moléculas de agua utilizando diferentes colores dependiendo el eje que atraviesa. Esta técnica muestra cómo se observan estas estructuras, tomando conciencia de lo que están viendo, no basándose en imágenes figurativas sino obteniendo conocimiento para poder realizar un diagnóstico certero.</p><p>Asimismo, esta investigación es de utilidad para los médicos especialistas en diagnóstico por imágenes, dado que pueden unir la imagen que observan en el monitor con la realidad anatómica para lograr una profundización de los conocimientos.</p><p>La tractografía es una técnica operador dependiente, que se considera de vital importancia a la hora de realizar estudios en el sistema nervioso central humano, dado que muestra cómo es la conexión que existe en el cerebro y permite conocer una situación patológica. Al ser utilizada para diagnóstico y tratamiento de enfermedades neurodegenerativas, como el Alzheimer y epilepsia, el profesional accederá a otro tipo de interpretación, más especializada.</p><p>En definitiva, según Marcos, el cerebro tiene la última palabra siempre, por ello es importante para prevenir, diagnosticar y realizar el mejor tratamiento que se conozca en profundidad su anatomía. (Fuente: Argentina Investiga)</p>2017-05-22T15:51:36+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/207Ciencia: Desarrollan un nuevo chip para detectar el virus del dengue2017-05-17T14:31:44+00:00Gestión Ingenio y Sociedad<p>Las estadísticas epidemiológicas de las enfermedades trasmitidas por mosquitos impresionan. En Brasil, de acuerdo con la Secretaria de Control Sanitario del Ministerio de Salud, en 2016 se notificaron alrededor de un millón y medio de casos de dengue, 272 mil de fiebre chikunguña y 215 mil de la fiebre del Zika. En 2015, fueron 143 mil casos de paludismo.</p><p>Las estrategias de lucha contra estas epidemias incluyen la prevención –mediante del combate contra las diversas especies de mosquitos trasmisores–, el desarrollo de vacunas, el control epidemiológico con diagnóstico rápido de los afectados y el tratamiento clínico y ambulatorio.</p><p>En el apartado del control epidemiológico, grupos de investigación de universidades brasileñas estudian el desarrollo de biosensores de bajo costo para agilizar el diagnóstico. Un ejemplo de ello es el inmunochip destinado a la detección de la enfermedad del dengue que se encuentra en desarrollo en el grupo Biopol de los Departamentos de Química y de Bioquímica y Biología Molecular de la Universidad Federal de Paraná (UFPR), en la ciudad de Curitiba, capital de dicho estado brasileño.</p><p>“Con nuestro sensor, la detección de la enfermedad del dengue se realiza indirectamente. Lo que se detecta no es el virus sino un antígeno característico de la infección. Esta rastreo se concreta a través de anticuerpos anclados en el biosensor, que detectan rápidamente la presencia del antígeno en el suero e, indirectamente, nos suministran la respuesta de infección”, dijo el doctorando en bioquímica Cleverton Pirich, uno de los autores del estudio.</p><p>El inmunochip es capaz de detectar la presencia de moléculas del antígeno (NS1) para el dengue en el suero sanguíneo, suministrando así un resultado positivo o negativo en forma rápida. Los resultados de este trabajo salieron publicados en la revista Biosensors and Bioelectronics.</p><p>Este sensor se basa en la tecnología de las microbalanzas de cristal de cuarzo (MCQ). El término microbalanza se refiere a la capacidad que estos dispositivos poseen para detectar cantidades de una molécula, de una proteína, por ejemplo, del orden de los nanogramos (milmillonésimos de gramo).</p><p>Esto es posible debido a una propiedad electroquímica llamada efecto piezoeléctrico. La piezoelectricidad es la capacidad que tienen algunos cristales de generar tensión eléctrica como respuesta a una presión mecánica.</p><p>Los sensores piezoeléctricos son dispositivos que se valen del efecto piezoeléctrico para medir la presión, la aceleración, la tensión o la fuerza, convirtiéndolas en señales eléctricas.</p><p>Para validar los resultados y la eficiencia del inmunochip desarrollado en Curitiba, Pirich y su supervisora, la profesora Maria Rita Sierakowski, contaron con la colaboración del profesor Roberto Manuel Torresi, del Departamento de Química Fundamental del Instituto de Química (IQ) de la Universidad de São Paulo, en lo atinente al funcionamiento y a la interpretación de los resultados en una microbalanza con disipación de energía (MCQ-D).</p><p>“La microbalanza se vale del efecto piezoeléctrico reverso. En el caso específico del nuevo inmunochip, se le aplica una señal eléctrica al cristal y la frecuencia de esa señal cambia cuando se depositan algunas moléculas de antígeno (NS1) para el dengue presentes en una muestra sobre el cristal”, dijo Torresi.</p><p>En el laboratorio coordinado por el profesor Torresi se encuentra una de las más sofisticadas y precisas microbalanzas de cristal de cuarzo en operación en Brasil. Este aparato fue adquirido con el apoyo de la FAPESP.</p><p>Al igual que el inmunochip, la microbalanza MCQ-D también basa su operación en la detección a través del efecto piezoeléctrico reverso. Pero su precisión es de otra magnitud, y además detecta cambios relógicos.</p><p>“La microbalanza de nuestro laboratorio es mucho más sofisticada que otras existentes en el país”, dijo Torresi, quien también suscribe el artículo publicado en Biosensors and Bioelectronics y coordina el Proyecto Temático intitulado “Optimización de las propiedades fisicoquímicas de materiales nanoestructurados y sus aplicaciones en el reconocimiento molecular, en catálisis y la conversión y el almacenamiento de energía”.</p><p>La microbalanza del IQ (MCQ-D) y las del BioPol (MCQ, adquirida con apoyo de la Capes, y MCQ-D, con el apoyo de la Finep) confirmaron la presencia del antígeno NS1 para la enfermedad del dengue en todas las muestras de suero que fueron contaminadas mediante el agregado de ese antígeno, para las cuales el inmunochip había sido elaborado con el anticuerpo NS1, lo que redundó en un resultado positivo de detección.</p><p>“El inmunochip se desarrolló para detectar moléculas del antígeno de la enfermedad del dengue en cualquier material en medio líquido. Pero el principio puede aplicarse en la detección de otras enfermedades, como así también en aplicaciones ambientales y sanitarias para detectar moléculas contaminantes presentes en el agua, en alimentos y en el medio ambiente, por ejemplo, dijo Sierakowski.</p><p>La base del inmunochip es un cristal de cuarzo importado, sobre el cual se depositan los demás componentes en finas capas. La primera, arriba del cristal, es de oro. Inmediatamente arriba se encuentra una película de un polímero llamado polietilenimina.</p><p>Por último, sobre el polímero se coloca una nanopelícula de nanocristales de celulosa proveniente de un tratamiento químico de residuos industriales de celulosa bacteriana, que está preparada para reaccionar químicamente en presencia del antígeno del dengue. La reacción química trae aparejado un cambio en la respuesta de los nanocristales, que se ve reflejado en la alteración de sus patrones de frecuencia y de disipación de energía.</p><p>La medición precisa del cambio de esos patrones de frecuencia y de disipación de energía indicará la presencia o la ausencia del antígeno para la enfermedad del dengue y, por consiguiente, si el paciente del cual se extrajo la muestra en cuestión está o no está infectado por el virus del dengue.</p><p>El proceso puede parecer largo, pero luego del desarrollo del biosensor la respuesta es prácticamente inmediata. Se gotea la muestra sobre el biosensor y se obtiene el resultado con precisión; y se logra determinar la presencia del antígeno (NS1) para el dengue a partir de una cantidad equivalente a 0,03 microgramo por mililitro.</p><p>“Lo más importante para un paciente en lo que hace al diagnóstico no es saber cuántas moléculas de antígeno existen en la muestra. Lo que le interesa al paciente es saber si está o no está infectado, y en caso de que lo esté, empezar lo más rápido posible a aplicarse el tratamiento adecuado. Si se apunta únicamente a obtener un diagnóstico cualitativo, es decir, que suministre una respuesta positiva o negativa, se abre margen para el desarrollo de aparatos más sencillos, más baratos y accesibles, y que cumplan tal propósito”, dijo Piricha.</p><p>“Tal como se discutió y se demostró en nuestro trabajo, un inmunochip como éste, de desarrollárselo y comercializárselo, podrá erigirse en una herramienta de diagnóstico en tiempo real, capaz de suministrar resultados en aproximadamente 15 minutos”, dijo. (Fuente: AGENCIA FAPESP/DICYT)</p>2017-05-17T14:31:44+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/206Sociedad: La preferencia circadiana afecta a la capacidad de tomar decisiones de los trabajadores2017-05-17T14:26:53+00:00Gestión Ingenio y Sociedad<p>Un estudio realizado en la Universidad de Granada (UGR) (España), en colaboración con la Universidad de Bolonia (Italia), advierte de la necesidad de ajustar las preferencias circadianas de cada persona (esto es, si es matutina, vespertina o intermedia) a sus horarios de trabajo, ya que cuando un trabajador se somete a horarios que no encajan con su preferencia circadiana (por horarios impuestos) puede ver afectada su capacidad de tomar decisiones, debido a una falta de control cognitivo que provoca impulsividad.</p><p>Los ritmos circadianos son cambios físicos, mentales y conductuales que siguen un ciclo aproximado de 24 horas y que responden, principalmente, a la luz y la oscuridad en el ambiente en el que vive un organismo. Estos ritmos afectan al estado emocional y al control cognitivo de las personas, que es la posibilidad de regular exitosamente y de modo deliberado la intensidad, las circunstancias provocadoras de emociones. A su vez, la toma de decisiones de un sujeto está afectada por factores psicológicos como el estado emocional o el control cognitivo.</p><p>Los investigadores de la UGR, pertenecientes al Centro de Investigación “Mente, Cerebro y Comportamiento” (CIMCYC), junto con los de la Universidad de Bolonia, han evaluado la preferencia circadiana (es decir, si los participantes eran matutinos, vespertinos o intermedios) para conocer la influencia de la hora del día y la preferencia circadiana en la toma de decisiones interpersonales medida mediante un juego económico que los participantes realizaban en un ordenador.</p><p>En el estudio participaron 64 estudiantes italianos de ambos sexos, pertenecientes a la Universidad de Bolonia, de los que 32 eran matutinos y 32 vespertinos.</p><p>A todos ellos se les planteó un juego que consistía en aceptar o rechazar ofertas propuestas por un compañero virtual. Lo racional en este juego sería aceptar todas las ofertas, ya que aceptar implica que cada uno de los jugadores se queda con la cantidad propuesta, mientras que rechazar implicaría que ninguno de ellos se llevaría nada.</p><p>Una vez seleccionados los participantes, en función de su preferencia circadiana extrema (matutino y vespertino), se les citó en dos momentos temporales (por la mañana y por la tarde) para que realizaran una prueba de control cognitivo y la prueba principal de toma de decisiones. Además, se tomaron en cuenta marcadores corporales como la temperatura para verificar que realmente se encontraban en sus momentos óptimo-no óptimo del día. De esa manera, los científicos comprobaron cómo estos se comportaban en su hora óptima del día y en su hora no óptima.</p><p>Los resultados demostraron que los participantes mostraron una desviación de la racionalidad, rechazando las ofertas injustas. Además, los matutinos invirtieron más tiempo en tomar las decisiones que reflejaban más incertidumbre (las que no eran claramente justa o injustas).</p><p>A la luz de los resultados de su trabajo, dos sus autores, los investigadores de la UGR Ángel Correa Torres y Noelia Ruiz Herrera, afirman que, cuando somos sometidos a horarios que alteran nuestro ritmo circadiano, podríamos tomar decisiones de manera más impulsiva, lo que podría afectar a la calidad de nuestras acciones y por supuesto, actuar en contra de nuestro propio beneficio. Además, afirman que existe una diferencia entre estilos de toma de decisiones entre matutinos y vespertinos, ya que los matutinos invierten más tiempo en meditar las decisiones.</p><p>Los autores advierten, por tanto, de la necesidad de conocer la preferencia circadiana para ajustar a los trabajadores a sus horarios de trabajo. De éste modo las empresas mantendrían una ventaja ya que se podrían adaptar de manera más adecuada los horarios de trabajo para aprovechar los picos de rendimiento óptimo de cada trabajador. (Fuente: UGR/DICYT)</p>2017-05-17T14:26:53+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/205Tecnología: Dispositivo de memoria química de 1 bit2017-05-15T22:02:37+00:00Gestión Ingenio y Sociedad<p>En la computación clásica, la información se almacena en bits, o en bits cuánticos (qubits) en el caso de la computación cuántica. Unos experimentos recientes demuestran que el almacenamiento de datos no solo puede basarse en fenómenos de la física sino también en alguno(s) de la química. El papel del bit químico lo puede cumplir una disposición sencilla de tres gotas en contacto entre sí, en la que suceden reacciones químicas oscilantes.</p><p><img src="/public/site/images/mikhail/Dispositivo_de_memoría_químico.GIF" alt="" /> </p><p>El ordenador, el smartphone, la cámara digital… Ninguno de estos dispositivos podría funcionar sin chips de memoria. En la memoria electrónica típica, el cero y el uno son registrados, almacenados y leídos por sistemas que explotan fenómenos de la física, como el flujo de electricidad o la carga en las propiedades eléctricas o magnéticas del medio.</p><p>Konrad Gizynski y Jerzy Gorecki, del Instituto de Química Física de la Academia Polaca de Ciencias (IPC PAS) en Varsovia, han demostrado una memoria funcional de una clase distinta, basada en fenómenos químicos. Un bit individual es almacenado aquí en tres gotas contiguas, entre las cuales los frentes de reacción química se propagan de forma continua, cíclica y estrictamente definida.</p><p>Los cimientos químicos de este nuevo y singular dispositivo de memoria se hallan en la reacción Belousov-Zhabotinsky (BZ). El transcurso de la reacción es oscilante: cuando se acaba un ciclo, los reactivos necesarios para iniciar el próximo son reconstituidos en la solución. Antes de que la reacción se pare, hay normalmente de decenas a cientos de oscilaciones. Estas están acompañadas por un cambio regular en el color de la solución, causado por el catalizador de la reacción, la ferroína. El segundo catalizador usado por Gizynski y Gorecki fue el rutenio. La introducción del rutenio tuvo una importancia clave porque hace que la reacción BZ se haga fotosensible: cuando la solución es iluminada por luz azul, deja de oscilar. Esta característica hace posible controlar el curso de la reacción.</p><p>Los creadores de la unidad de memoria química escogieron para diseñarla los sistemas de gotas más pequeños en los que las excitaciones pudieran tener lugar de varias maneras, siendo estables al menos dos. Eso les permitió asignar una secuencia de excitaciones al valor lógico 0, y otra al 1, y para poder conmutar entre ambos, es decir, para forzar una cambio particular de estado de memoria, recurrir a utilizar luz.</p>2017-05-15T22:02:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/204Ciencia: Los climas fríos reducen el riesgo de sufrir diabetes gestacional2017-05-15T19:57:26+00:00Gestión Ingenio y Sociedad<p>Una de las enfermedades que pueden sufrir las mujeres embarazadas es la diabetes gestacional, que suele aparecer hacia en el segundo trimestre y, aunque es común que no haya síntomas tras dar a luz, causa problemas durante el embarazo y el parto y aumenta el riesgo de diabetes tipo 2 en el futuro.</p><p>Aunque la obesidad, la edad de la madre o los antecedentes de diabetes en la familia influyen a la hora de sufrir este grave trastorno, ahora se le puede unir una nueva causa: la temperatura.</p><p>Científicos del Hospital St. Michael y del Instituto de Ciencias Clínicas Evaluativas, ambos en Toronto (Canadá), publican un estudio en Canadian Medical Association Journal que expone la relación entre el clima y el riesgo de sufrir diabetes gestacional.</p><p>Según este trabajo, las mujeres expuestas a bajas temperaturas durante el embarazo tienen menos probabilidades de desarrollar este tipo de diabetes que aquellas las que lo hacen a temperaturas más altas.</p><p>La enfermedad afectaba al 4,6% de las mujeres que soportaban temperaturas medias extremadamente frías (iguales o por debajo de los -10º) durante un periodo de 30 días antes de hacerse las pruebas de diabetes habituales durante el embarazo.</p><p>Sin embargo, el porcentaje de riesgo crece hasta el 7,7% cuando las temperaturas eran mucho más altas, por encima de los 24º. Los autores también sostienen que, por cada 10º de aumento, las mujeres tienen entre un 6 y un 9% más de posibilidades de padecer esta patología.</p><p>Para realizar la investigación se examinaron 555.911 embarazos entre 396.828 mujeres durante un periodo de 12 años. Todas residían en el área metropolitana de Toronto, aunque algunas experimentaron su experiencia cuando el clima era más cálido y otras cuando era más frío.</p><p>Se buscó la relación existente entre la temperatura media de la zona durante los 30 días previos a las pruebas para diagnosticar o controlar la diabetes a las que se someten las embarazadas durante el segundo trimestre de gestación, y la probabilidad de desarrollar diabetes gestacional.</p><p>Los autores reconocen que aunque los resultados pueden parecer contraintuitivos a simple vista, tienen su explicación científica, teniendo en cuenta la forma en que se generan los distintos tipos de grasa en el ser humano.</p><p>“Se podría pensar que con temperaturas más cálidas las embarazadas serían menos sedentarias, tendrían más actividad en el exterior y eso ayudaría a que no que ganasen peso, algo que suele favorecer la aparición de diabetes”, explica Gillian Booth, autora principal del estudio.</p><p>“Sin embargo, este patrón coincide con el encontrado en otros estudios que muestran que en temperaturas más bajas el cuerpo crea un tipo de grasa protectora, el tejido adiposo marrón o grasa parda, que mejora la sensibilidad a la insulina”.</p><p>Además el estudio contempla la comparación entre los embarazos consecutivos de una misma mujer, detectando que se producía un efecto similar por cada 10 grados de aumento en la temperatura.</p><p>Según Joel Ray, coautor del trabajo, “analizar los embarazos de una misma mujer nos permite controlar muchos factores. Podemos eliminar aspectos como la etnia, los ingresos, la actividad o los hábitos alimenticios”.</p><p>Los resultados desvelaron además que la temperatura del entorno durante el embarazo no era el único factor a tener en cuenta, también influía el clima del lugar en el que habían nacido las madres.</p><p>En el trabajo se muestra que las mujeres nacidas en climas más fríos tienen un riesgo menor de sufrir este tipo de diabetes que las que lo hicieron en lugares con temperaturas más cálidas.</p><p>Por ejemplo, las nacidas en climas fríos, incluyendo Canadá y Estados Unidos, que además vivían en lugares fríos durante los 30 días anteriores a las pruebas de diabetes, tenían un riesgo del 3,6% de padecer la enfermedad, mientras que si vivían en entornos con temperaturas altas el riesgo crecía hasta el 6,3%.</p><p>Por el contrario, para las mujeres procedentes de climas cálidos, por ejemplo el sur de Asia, África y Oriente Medio, el porcentaje de riesgo aumentaba hasta cifras que iban entre el 7,7 y el 11,8%, según estuvieran expuestas a temperaturas bajas o altas respectivamente.</p><p>Según los autores, estos resultados pueden servir como muestra de los efectos que el cambio climático y el aumento de la temperatura global poseen en la salud, aumentando el riesgo de aparición de diabetes gestacional como diabetes de tipo 2 en general.</p><p> “Puede ser un aviso, como el canario en la mina de carbón, sobre los posibles efectos del calentamiento global en la aparición de diabetes en los adultos”, concluyen Booth y Ray. (Fuente: <a href="http://www.agenciasinc.es">SINC</a>)</p>2017-05-15T19:57:26+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/203Ciencia: Descubren agujeros negros supermasivos en dos galaxias diminutas2017-04-24T15:57:12+00:00Gestión Ingenio y Sociedad<p>Hace tres años, unos astrónomos descubrieron que una galaxia enana ultracompacta contiene un agujero negro supermasivo, lo cual la convirtió entonces en la galaxia más pequeña conocida que albergaba un agujero negro de masa enorme. Lo hallado sugería que las enanas eran probablemente restos de galaxias mayores que fueron desprovistas de sus capas exteriores tras colisionar con otras galaxias más grandes. Ahora, el mismo grupo ha encontrado dos galaxias enanas ultracompactas más con agujeros negros supermasivos. Juntos, los tres ejemplos sugieren que hay agujeros negros en el centro de la mayoría de tales objetos, aumentando potencialmente al doble la cantidad conocida de agujeros negros supermasivos en el universo. Estos constituyen un alto porcentaje de la masa total de las galaxias compactas, apoyando la teoría de que las enanas son los restos de galaxias masivas despedazadas por otras mayores.</p><p> </p><p>Las dos galaxias enanas ultracompactas investigadas por el equipo de Chris Ahn, de la Universidad de Utah en Estados Unidos, se llaman VUCD3 y M59cO. El agujero negro de VUCD3 tiene una masa de 4,4 millones de veces la del Sol y supone hasta el 13 por ciento de la masa total de la galaxia. Por su parte, el agujero negro de M59cO tiene una masa de 5,8 millones de veces la del Sol y representa el 18 por ciento de la masa total de la galaxia.</p><p> </p>2017-04-24T15:57:12+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/202Ciencia: La ‘memoria’ ambiental se transmite hasta 14 generaciones2017-04-24T15:46:32+00:00Gestión Ingenio y Sociedad<p>En una investigación liderada por Ben Lehner, del Centro de Regulación Genómica,y Tanya Vavouri del Instituto de Investigación contra la Leucemia Josep Carreras y el Instituto de Investigación Germans Trias y Pujol (Catalunya, España), los científicos han observado que el impacto en los cambios ambientales se podía transmitir en los genes de hasta 14 generaciones. El estudio lo publica la revista Science.</p><p> </p><p>En el trabajo, los expertos utilizaron unos gusanos llamados C. elegans a los que, mediante técnicas de ingeniería genética, introdujeron un chip transgénico, que es una larga cadena de copias repetidas de un gen que codifica para una proteína fluorescente.</p><p> </p><p>Cuando los gusanos estaban a 20ºC, el chip transgénico era menos activo, emitiendo solo una pequeña cantidad de proteína fluorescente. Pero al cambiar los animales a un clima más cálido (25ºC), la actividad del chip transgénico incrementaba de forma significativa, haciendo que los animales emitieran una brillante fluorescencia cuando se les observaba con luz ultravioleta en el microscopio.</p><p>Al volver a los gusanos a su temperatura ambiental habitual y más fría, sus transgenes continuaban muy activos, lo que sugiere que de alguna manera estaban reteniendo la "memoria" a su previa exposición al calor. Curiosamente, los niveles altos de actividad se transmitieron a su descendencia y hasta siete generaciones más tarde. Esto, teniendo en cuenta que todos estos descendientes solo habían estado a 20ºC y nunca fueron expuestos a calor. Este fenómeno sucedía incluso cuando los animales de origen solo habían sido expuestos a altas temperaturas por un periodo breve de tiempo.</p><p>El número de generaciones afectadas incrementa considerablemente, al exponer los gusanos de las cinco primeras generaciones a 25ºC. Después, el efecto fluorescente se mantenía durante, al menos, catorce generaciones.</p><p>A pesar de que este fenómeno ya se había observado en otras especies de animales, como por ejemplo, en la mosca del vinagre, gusanos y mamíferos, incluidos los humanos. El efecto tendía a disiparse al cabo de pocas generaciones. Estos nuevos resultados son la muestra más duradera de la preservación de un cambio ambiental en la memoria a lo largo de generaciones nunca observada hasta ahora.</p><p>"Descubrimos este fenómeno por causalidad, pero demuestra que es ciertamente posible transmitir información sobre el ambiente a lo largo de las generaciones," explica Lehner. "Todavía no sabemos exactamente por qué ocurre, pero podría ser una forma biológica de planificación anticipada," añade el primer autor del estudio, Adam Klosin.</p><p>"Los gusanos son efímeros, con una vida corta, así que tal vez el hecho de transmitir la memoria de las condiciones vividas en generaciones previas puede ayudar a sus descendientes a predecir qué ambiente probablemente encontrarán en el futuro," concluye Vavouri.</p><p>Comparando los transgenes que eran menos activos con aquellos que habían sido activados por las temperaturas otros, Lehner y su equipo descubrieron diferencias cruciales en un tipo de "marcador" molecular unido a las proteínas que se encargan de empaquetar el ADN. Este "marcador" o "etiqueta" molecular se conoce científicamente como metilación de la histona.</p><p>Los transgenes de aquellos animales que siempre se habían mantenido a 20ºC tenían altos niveles de metilación de la histona, lo que se asocia a silenciar genes. En cambio, los gusanos que se habían expuesto a 25ºC habían perdido estos marcadores de metilación en la histona.</p><p>Lo más importante es que, estos últimos, todavía mantenían niveles bajos de metilación en la histona cuando se volvían a 20ºC, lo que sugiere que este mecanismo puede tener un papel importante en el bloqueo de la memoria en los transgenes.</p><p>Los investigadores también descubrieron que algunos fragmentos repetitivos del genoma normal de los gusanos, que tienen cierto parecido a los chips transgénicos, también se comportan de la misma manera. Esto sugiere que este es un mecanismo de memoria generalizado y no está restringido solo a genes diseñados de forma artificial. (Fuente: Centro de Regulación Genómica en Barcelona)</p>2017-04-24T15:46:32+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/201Sociedad: Experimentando otros sistemas de votación en las elecciones presidenciales francesas2017-04-21T19:59:48+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>El domingo 23 de abril Francia celebra la primera vuelta de las elecciones presidenciales. Ese día, un grupo de científicos de Francia, entre ellos la investigadora Ikerbasque de la UPV/EHU (España) Annick Laruelle, analizarán métodos alternativos de votación al que se utilizará en dichos comicios. Esta experiencia se llevará a cabo en cinco ciudades situadas en tres regiones diferentes: Allevard-les-Bains, Crolles y Grenoble, en la región de Auvernia-Ródano-Alpes; Estrasburgo, en la región del Gran Este; y Hérouville Saint-Clair, en Normandía. La participación del electorado, en total unas 16.000 personas, se solicitará a la salida de los colegios electorales elegidos para la investigación. Se propondrá a los electores volver a votar, de manera voluntaria y anónima, según el sistema propuesto por el grupo de investigación, en una mesa experimental parecida a la oficial y también situada en un local municipal.</p><p>En el sistema utilizado en las elecciones presidenciales francesas, cada elector vota a uno de los candidatos y los dos que obtengan la mayoría de votos pasan a una segunda vuelta. En las mesas experimentales los y las electoras deberán evaluar a todos los candidatos en lugar de elegir solo a uno. En concreto, probarán tres sistemas: en el primero, el voto por aprobación, las personas votantes deberán aprobar a todos los candidatos que, a su juicio, son aceptables. En el segundo, voto de aprobación y desaprobación, deberán valorar a cada candidato o candidata de manera positiva, negativa o neutra. Por último, en el voto por evaluación deberán puntuar numéricamente a los candidatos. En cada ciudad se experimentará uno de estos tres sistemas.</p><p>El objetivo es comprender mejor el engranaje democrático en la toma de decisiones colectivas y analizar las ventajas y desventajas de los diferentes sistemas electorales. “Todos los sistemas electorales son imperfectos… pero algunos son más imperfectos que otros. Los sistemas que requieren la evaluación independiente de cada candidato son preferibles a los que exigen una comparación de candidatos. Nuestra investigación tiene por objetivo entender el comportamiento de los votantes con estos métodos alternativos,” explica la investigadora Ikerbasque Annick Laruelle.</p><p>Experimentos sobre el voto por nota y el voto por aprobación ya se llevaron a cabo en Francia en la primera vuelta de las elecciones presidenciales en 2002, 2007 y 2012. Los experimentos despertaron un gran interés y los sistemas fueron valorados de manera muy positiva. Para estas elecciones presidenciales de 2017 la investigación ha sido organizada por un grupo de investigadores en Economía y Ciencias de la Computación, universitarios y del CNRS, de las universidades de Saint-Etienne, Caen, Estrasburgo, Grenoble, París (Dauphine y Paris School of Economics) y la UPV/EHU. (Fuente: UPV/EHU)</p></div>2017-04-21T19:59:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/200Ciencia: Un estudio en ratones muestra cómo actúan las fresas contra el cáncer de mama2017-04-18T14:05:43+00:00Gestión Ingenio y Sociedad<p>Investigaciones anteriores ya habían demostrado que el consumo diario de 500 gramos de fresas (entre 10 y 15 unidades) ofrece beneficios antioxidantes, antiinflamatorios y reduce los niveles de colesterol en sangre. Ahora un nuevo estudio, publicado en la revista de acceso abierto Scientific Reports, ofrece resultados esperanzadores sobre los efectos positivos que también podría tener este fruto para prevenir o tratar el cáncer de mama.</p><p>“Por primera vez ponemos de manifiesto que un extracto de fresa –rico en compuestos fenólicos– inhibe la proliferación celular en modelos in vitro e in vivo de cáncer de mama”, destaca a Sinc Maurizio Battino, coautor y profesor en la Universidad Politécnica delle Marche (Italia) y la Universidad Europea del Atlántico, en Santander.</p><p>Para el modelo in vitro se utilizaron células de la línea tumoral A17, muy agresiva e invasiva, a las que se trató con distintas concentraciones de extracto de fresa de la variedad Alba (entre 0,5 y 5 mg/mL) durante 24, 48 y 72 horas. Los resultados constataron que de esta forma se disminuía la viabilidad celular –de manera dependiente a la dosis y el tiempo–, se bloqueaba el ciclo que conduce a la división de las células, y se inhibía su migración.</p><p>También se comprobó que el extracto de fresa disminuía la expresión de varios genes implicados en procesos de invasión y metástasis, como Csf1, Mcam, Nr4a3 y Set, al mismo tiempo que estimulaba la expresión del gen Htatip2, considerado un supresor de metástasis al ganglio linfático en pacientes con cáncer de mama.</p><p>Respecto al modelo in vivo, se emplearon ratones hembras de laboratorio, a las que al mes de vida se dividió en dos grupos: uno alimentado con dieta estándar y otro con una dieta enriquecida en la que el 15% era extracto de fresa. Transcurrido otro mes, todos los roedores fueron inyectados con células de cáncer de mama A17.</p><p>El seguimiento de los tumores se monitorizó dos veces por semana mediante palpación. Después de 5 semanas, se retiraron y analizaron las masas tumorales para evaluar su peso y volumen.</p><p>En este caso, los datos también señalaron que la suplementación con el extracto de fresa había servido para detener la propagación de las células cancerígenas a los tejidos sanos circundantes. “Además, se observó una reducción significativa del peso y del volumen tumoral”, subraya Battino.</p><p>A pesar de los buenos resultados del estudio, en el que también han participado investigadores de la Universidad de las Américas (Ecuador) y la Universidad Internacional Iberoamericana (México), el investigador recalca que los datos de este y otros trabajos en los que se usan modelos animales, no se pueden extrapolar a los humanos.</p><p>“La mayoría de las enfermedades, incluyendo el cáncer, son complejas –explica el experto– e involucran complejas interacciones entre sistemas celulares y moleculares que determinan el desarrollo de la enfermedad. Sin duda estos resultados son válidos para entender los posibles efectos de la fresa en el cáncer de mama y los mecanismos moleculares involucrados, pero se deben complementar con estudios clínicos y epidemiológicos para comprobar si en las personas se producen los mismos efectos positivos observados en ratones”.</p><p>Los autores también señalan que la concentración de los compuestos fenólicos (considerados responsables de los efectos beneficiosos para la salud) puede variar sustancialmente de una variedad de fresa a otra, aunque no dudan en recordar el efecto protector contra el cáncer de un estilo de vida saludable, caracterizado, entre otras cosas, por una dieta equilibrada rica en verduras y frutas, incluidas las fresas.</p>2017-04-18T14:05:43+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/199Ciencia: Descubren una firma genética común entre los nativos de toda América2017-04-08T15:03:54+00:00Gestión Ingenio y Sociedad<p>Un grupo de científicos de Brasil, Estados Unidos y España descubrió señales de acción de la selección natural en un determinado tipo de gen no sólo en la población del Ártico, tal como ya se sabía, sino también dispersas por todo el continente americano. Este resultado sugiere que hubo un evento adaptativo único, en una población ancestral común, que habría acaecido antes de la migración de los americanos por el continente.</p><p> </p><p>La evidencia detectada se relaciona con la evolución en humanos de genes conocidos como desaturasas de ácidos grasos (genes FADS – del inglés Fatty Acid Desaturase). Se trata de enzimas que hacen posible la digestión de alimentos ricos en grasas insaturadas. Esto es lo que sucede con los inuit en Canadá y en Groenlandia, aptos para consumir una dieta rica en lípidos, como la carne de foca.</p><p> </p><p>El descubrimiento de esta adaptación genética existente entre los inuit lo concretó un equipo internacional en 2015. Luego de leer el artículo publicado referente a dicho estudio, Tábita Hünemeier, docente del Instituto de Biociencias de la Universidad de São Paulo, en Brasil, resolvió investigar si esa misma adaptación no estaría presente en los genes de los nativos americanos.</p><p> </p><p>Y Hünemeier y sus colaboradores han confirmado ahora que la señal positiva referente a la adaptación al consumo de lípidos se encuentra presente en poblaciones de indios de toda América. El estudio, cuyos resultados se publicaron en la revista Proceedings of the National Academy of Sciences, contó con el apoyo de la FAPESP.</p><p> </p><p>“Cuando leí el artículo sobre la adaptación de los inuit a la dieta de lípidos no me extrañó la ocurrencia de la adaptación genética, sino el hecho de que la misma se haya concretado entre los inuit. En términos evolutivos, éstos constituyen una población muy reciente. Están asentados en Groenlandia y en Canadá hace sólo seis mil años. Es poco tiempo como para permitir que una adaptación genética haya generado una variabilidad propia dentro de la población”, dijo Hünemeier.</p><p>Los inuit, también conocidos como esquimales, son descendientes de una segunda oleada migratoria humana hacia América que ocurrió hace seis mil años y que se restringió al Ártico. Partiendo de la comparación genética entre poblaciones, los autores del trabajo realizado con el ADN inuit encontraron la señal positiva para la adaptación al consumo de lípidos en genes del cromosoma 11.</p><p>“Los autores compararon el genoma inuit únicamente con el ADN de chinos y europeos. No tuvieron en cuenta a los nativos americanos”, dijo Hünemeier.</p><p>Debido a ello, la investigadora decidió escrutar genomas de poblaciones nativas americanas y del resto del mundo en busca de la señal positiva que indique la adaptación al consumo de lípidos. La genetista contó para ello con la ayuda de dos posdoctorandos, Carlos Eduardo Amorim y Kelly Nunes, becaria de la FAPESP.</p><p>Nunes explica así la técnica que emplearon en el análisis: “Primeramente comparamos el genoma de nativos americanos con los genomas de africanos, europeos y asiáticos, a los efectos de verificar cuáles serían los alelos que tienen alta frecuencia en las poblaciones indígenas americanas y frecuencias bajas en el resto del mundo”, dijo.</p><p>Los investigadores encontraron tres variaciones en la secuencia del ADN de los nativos americanos, los llamados SNPs (se pronuncia “snips”, y quiere decir “polimorfismos de nucleótido único”, en inglés).</p><p>“Encontramos tres SNPs significativos, dos en el cromosoma 11 y otro en el cromosoma 22”, dijo Nunes. El siguiente paso consistió en verificar si esas variaciones estarían relacionadas con la señal positiva para la desaturación de lípidos. El resultado indicó dos SNPs del cromosoma 11 de los nativos americanos, localizados en el mismo punto donde se había detectado la señal positiva para la desaturación de lípidos en el genoma de los inuit.</p><p>“Son dos mutaciones relacionadas con problemas metabólicos de frecuencia muy alta entre los nativos americanos y baja en el resto del mundo”, explicó Hünemeier.</p><p>Como los nativos americanos y los inuit poseen la misma señal positiva, de ello se desprende la constatación de que ambos grupos descienden de la misma población ancestral que habría vivido en Beringia, la parte de tierra firme que unió Alaska y Siberia durante las glaciaciones, también conocida como Puente de Beringia.</p><p>Faltaba saber si esa señal había surgido en el genoma nativo americano por selección neutra, es decir, movida por procesos genéticos aleatorios, o si era un producto de la selección natural, por la cual individuos con la mutación genética que les permitía consumir carnes grasosas obtuvieron una ventaja adaptativa con relación a los demás.</p><p>“Todas las evidencias apuntan hacia un evento de selección natural”, dijo Hünemeier. Según la investigadora, una presión selectiva en Beringia habría hecho que los individuos con el gen destinado a procesar lípidos dejasen más descendientes que aquéllos que carecían de tal mutación.</p><p>“La señal es muy fuerte como para haberse originado en un evento de selección neutra. Nuestro estudio indicó que se trataba de una señal selectiva”, dijo Nunes.</p><p>La indicación de que la presión adaptativa para el consumo de carnes grasosas fue una adaptación que ocurrió en Beringia reside en el hecho de que la señal positiva para el consumo de lípidos no apareció en la investigación del ADN fósil de un siberiano fallecido hace 20 mil años.</p><p>La Arqueología y la Paleoantropología han intentado descifrar cuál es el origen de los primeros seres humanos que entraron al continente americano desde la década de 1930, cuando se descubrieron los artefactos del pueblo clovis en el sudoeste de Estados Unidos.</p><p>Desde entonces se han realizado muchos descubrimientos, que derivaron en otras tantas hipótesis; y en nuevas dudas. Con el surgimiento de la biología molecular, en la actualidad se estima que los paleoindios permanecieron confinados en Beringia durante alrededor de cinco mil años, toda vez que el territorio de Canadá estaba cubierto de glaciares que impedían el avance de los inmigrantes en dirección hacia el sur.</p><p>De acuerdo con Hünemeier, la mayoría de los estudios sobre el poblamiento de las Américas coinciden en que la diferenciación genética de las poblaciones nativas americanas actuales ocurrió probablemente durante la permanencia forzosa en Beringia, adonde llegaron migrantes provenientes de distintas regiones de Asia hace alrededor de 23 mil años, para habitar el lugar durante entre cinco mil y ocho mil años.</p><p>De este modo, los ancestros de los indios americanos tuvieron tiempo para adaptarse al nuevo continente, antes de que los glaciares empezasen a derretirse, en un proceso que tuvo su inicio hace 15 mil años. Fue cuando se abrió un corredor terrestre entre los glaciares canadienses que permitió el poblamiento del resto de América. Con el fin del último período glacial y la elevación del nivel de los mares, el Puente de Beringia desapareció hace 12 mil años. (Fuente: AGENCIA FAPESP/DICYT)</p>2017-04-08T15:03:54+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/198Salud: Un extracto de jarabe de arce refuerza la acción de los antibióticos2017-04-04T13:36:13+00:00Gestión Ingenio y Sociedad<p>Los antibióticos salvan vidas diariamente, pero hay una desventaja en su omnipresencia. Dosis altas pueden matar células sanas junto con las bacterias que causan infecciones, y además pueden propiciar la creación de “supermicrobios” que ya no sucumben ante antibióticos considerados eficaces.</p><p><img src="/public/site/images/mikhail/Hoja_de_arce.JPG" alt="" /></p><p>Ahora, el equipo de Nathalie Tufenkji, de la Universidad McGill en Canadá, podría haber encontrado una forma natural de recortar el uso de antibióticos sin sacrificar salud: un extracto de sirope (jarabe) de arce que aumenta notablemente la potencia de estas medicinas, de tal modo que una cantidad menor logra el mismo efecto, y así queda el recurso de aumentar la dosis de antibiótico ante casos difíciles.</p><p>Tufenkji señala el hecho de que ciertas poblaciones nativas en Canadá han usado desde hace muchísimos años el sirope de arce para luchar contra infecciones, y admite que ella siempre ha estado interesada en la ciencia que se halla tras estos remedios tradicionales.</p><p>En una prueba inicial, el equipo expuso al extracto a varias cepas bacterianas que causan enfermedades, pero no apreciaron un efecto claro. En vez de abandonar del todo el sirope de arce, Tufenkji decidió comprobar si el extracto podría aumentar la potencia antimicrobiana de dos antibióticos de uso frecuente, concretamente ciprofloxacino y carbenicilina.</p><p>Cuando el equipo mezcló el extracto con cualquiera de estos antibióticos, descubrió efectivamente un fenómeno sinérgico, el cual permitió obtener el mismo efecto antimicrobiano con hasta un 90 por ciento menos de antibiótico.</p><p>El método funcionó con una serie de cepas bacterianas, incluyendo la E. coli, que puede causar problemas gastrointestinales; la Proteus mirabilis, responsable de muchas infecciones urinarias; y la Pseudomonas aeruginosa, que puede causar infecciones que a menudo obligan al ingreso de los pacientes en hospitales.</p>2017-04-04T13:36:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/197Salud: Por qué la fertilidad de las mujeres decae a los 35 años2017-04-04T13:25:09+00:00Gestión Ingenio y Sociedad<p>Cada vez más mujeres deciden posponer la maternidad por razones personales, sociales o económicas. Al mismo tiempo, la fertilidad disminuye naturalmente y, por lo tanto, lograr un embarazo puede llevar más tiempo de lo esperado.</p><p>Ahora, investigadores del Hospital Universitario de Montreal han descubierto una posible nueva explicación para la infertilidad femenina asociada a la edad. Gracias a las técnicas de microscopía más modernas, observaron por primera vez un defecto específico en los óvulos de las ratonas más viejas.</p><p>El trabajo, publicado en Current Biology, explica que este mismo defecto también puede encontrarse en los óvulos de las mujeres de más edad. Esto se debe a que la ‘coreografía’ de la división celular comienza a funcionar mal y a causar errores en el intercambio de cromosomas.</p><p>"Los microtúbulos que orquestan la segregación cromosómica durante la división celular se comportan anormalmente en los óvulos más viejos. En lugar de organizarse para montar un huso acromático simétrico, los microtúbulos van en todas direcciones, lo que provoca errores", afirma Greg FitzHarris, investigador de la institución canadiense.</p><p>Las mujeres –y otras hembras mamíferas– nacen con un número fijo de óvulos, que permanecen latentes en los ovarios y se van liberando mes a mes durante el ciclo menstrual. En el caso de las hembras humanas, la fecundidad disminuye significativamente alrededor de los 35 años.</p><p>"Una de las principales causas de la infertilidad femenina es un defecto en los óvulos que les hace tener un número anormal de cromosomas. Estos llamados óvulos aneuploides son cada vez más prevalentes a medida que la mujer envejece. Esta es la razón clave por la que las mujeres más mayores tienen problemas para quedarse embarazadas”, añade FitzHarris.</p><p>Además, estos óvulos defectuosos aumentan el riesgo de aborto involuntario y pueden causar síndrome de Down en bebés a término. Antes, los expertos creían que los óvulos tenían más posibilidades de ser aneuploides con la edad porque el ‘pegamento’ que mantiene los cromosomas juntos trabaja mal en los más viejos. Esto se conoce como hipótesis de pérdida de cohesión.</p><p>"Nuestro trabajo no contradice esa idea, sino que demuestra la existencia de otro problema: los defectos en los microtúbulos, que causan husos acromáticos defectuosos y, al hacerlo, contribuyen a un tipo específico de error de segregación cromosómica", explica el experto. "En ratones, aproximadamente el 50% de los óvulos de las hembras mayores tienen un huso con una dinámica caótica de los microtúbulos".</p><p>Los investigadores realizaron una serie de micromanipulaciones en los óvulos de ratones hembra de 6 y 12 semanas (jóvenes) y de 60 semanas de edad (mayores).</p><p>"Cambiamos los núcleos de los óvulos jóvenes con los de los huevos más viejos y observamos problemas en ellos", subraya Shoma Nakagawa, investigador postdoctoral en la Universidad de Montreal. "Esto demuestra que la edad materna influye en la alineación de los microtúbulos, independientemente de la edad de los cromosomas contenidos en los núcleos de cada óvulo".</p><p>El equipo de Greg FitzHarris confirma que los defectos del huso también son un problema en los seres humanos. En resumen, la maquinaria celular funciona de manera menos eficiente en los óvulos más mayores, aunque esto no está causado por la edad de los cromosomas.</p><p>Este descubrimiento puede conducir a nuevos tratamientos de fertilidad y ayudar a las mujeres a conseguir un embarazo. "Actualmente estamos explorando posibles tratamientos para revertir este problema y rejuvenecer los óvulos", revela FitzHarris, aunque deja claro que se necesitarán muchos más años de investigación antes de llegar a este punto. (Fuente: <a href="http://www.agenciasinc.es">SINC</a>)</p>2017-04-04T13:25:09+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/196Psicología: Una de cada veinte personas ya sufre adicción al móvil2017-04-04T13:18:31+00:00Gestión Ingenio y Sociedad<p>En la denominada era digital, alrededor del 15,4% de la población española mantiene un uso del teléfono móvil muy elevado e, incluso, en riesgo de padecer complicaciones. De hecho, el 5,1% ya se puede considerar un porcentaje con un consumo problemático o adictivo, según una investigación en la que participa la Universidad Complutense de Madrid (UCM) (España).</p><p>El uso del teléfono móvil se convierte en problemático cuando es excesivo en horas o interfiere con las actividades cotidianas, laborales, sociales, familiares o perjudica la salud física del individuo sin capacidad de control. Si este, además, padece otros síntomas como dificultad para resistir a un impulso, angustia o adicción a otras sustancias, tendrá más posibilidades de caer en el enganche al aparato tecnológico.</p><p>“Históricamente se ha observado que las variables psicológicas de ansiedad e impulsividad anteceden o son predictoras de las adicciones con sustancias; es decir, son factores de predisposición. Esto implicaría que el uso problemático del móvil podría ser considerado una adicción”, explica José de Sola, investigador del departamento de Psicobiología de la UCM y uno de los autores del estudio.</p><p>El trabajo, publicado en Frontiers in Psychiatry, se basó en cuestionarios realizados entre enero y diciembre de 2014 en un total de 1.126 individuos de toda España entre 16 y 65 años.</p><p>El objetivo de los científicos fue cruzar los factores de ansiedad, depresión, impulsividad y consumo de alcohol con el uso problemático del móvil. En un principio, también se tuvo en cuenta el tabaco, pero a lo largo de la investigación se descartó “por la escasa consistencia del instrumento utilizado en su valoración, aunque otros trabajos demuestran que tiene un peso relevante”, apunta de Sola.</p><p>El investigador distingue entre valores relacionados y predictivos. Así, la depresión, las drogas ilegales o algunas patologías psiquiátricas, como las obsesiones, son variables relacionadas, mientras que ansiedad, impulsividad y consumo de alcohol pueden predecir esta adicción.</p><p>Para llevar a cabo el estudio, se utilizaron herramientas de medida estadística como las escalas del uso problemático del teléfono móvil (MPPUS), la de estados de ansiedad (STAI), del comportamiento impulsivo (UPPS-P), el inventario de depresión de Beck o el cuestionario AUDIT de consumo de alcohol.</p><p>Otro de los resultados que se deriva de este estudio es el perfil del individuo que padece este problema. Como era de esperar, afecta más a jóvenes, desde los 16 años, pero también alcanza a poblaciones adultas de hasta 45 años.</p><p>“Esto implicaría que, de encontrarnos con una adicción, el problema no sería exclusivo de los jóvenes y adolescentes, sino que implicaría a capas de población más amplias”, señala el experto de la UCM.</p><p>Además, De Sola alerta de la tendencia creciente que ha adoptado esta adicción que “cada vez interfiere más en la vida cotidiana”.</p><p>Junto con la UCM, en el estudio participan el Hospital Universitario 12 de Octubre (Madrid), el Instituto de Investigación Biomédica de Málaga y la Universidad San Ignacio de Loyola (Perú). (Fuente: Universidad Complutense de Madrid).</p>2017-04-04T13:18:31+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/195Otros artículos: Muere a los 91 años el Dr. Eugene Garfield, padre fundador de Web of Science de Clarivate Analytics2017-02-28T23:17:52+00:00Gestión Ingenio y Sociedad<p>La indización de citas se diseñó en principio para la recuperación de información, pero también ofrecía datos para evaluar la repercusión de un trabajo de investigación específico, sobre la base de la frecuencia con que fue mencionado en las notas al pie o citado por otros investigadores. El desarrollo del análisis de citas y de la infometría desembocó en el desarrollo de varias bases de datos de citas, incluida Web of Science? de Clarivate Analytics y Journal Citation Reports, que informa sobre los factores de repercusión y otros datos de citas para miles de revistas académicas.</p><p>En 1964, el Instituto para la Información Científica, organización fundada originalmente por Garfield y precursora de Clarivate Analytics, publicó el primer Índice de Citas Científicas. Este recurso registraba el contenido bibliográfico y de citas de las revistas más influyentes del mundo, lo que permitía a los usuarios seguir ciertos enlaces de citas para encontrar las investigaciones especializadas más relacionadas con su propio trabajo.</p><p>Actualmente plasmada y muy ampliada en la Web of Science en línea, la invención original de Garfield sigue sirviendo como guía fiable y eficiente para el mundo de la investigación, que crece de manera descontrolada. El cuerpo de estadísticas de citas de Web of Science, que documenta las investigaciones más influyentes en un ámbito dado según la opinión de los propios investigadores, ofrece el fundamento para evaluar y referenciar el rendimiento en investigación de particulares, instituciones, países y regiones.</p><p><img src="/public/site/images/mikhail/Eugene_Garfield.JPG" alt="" /></p><p>"Lamentamos con profunda tristeza el fallecimiento del Dr. <span class="m_-3577583137149148406xn-person">Eugene Garfield</span>", declaró <span class="m_-3577583137149148406xn-person">Jay Nadler</span>, director ejecutivo de Clarivate Analytics. "La labor del Dr. Garfield ha dado forma a la manera en que se accede a la investigación y se evalúa su contenido en todo el mundo. Lo honramos por la contribución que ha hecho al campo de la investigación y a nuestra organización como líder visionario, colega y amigo. En Clarivate Analytics seguiremos innovando con el espíritu que el Dr. Garfield imprimió en su innovadora actividad en el campo de la ciencia de la información".</p><p><strong>Clarivate Analytics</strong></p><p>Clarivate? Analytics acelera el ritmo de la innovación ofreciendo información estratégica y analítica confiables a clientes de todo el mundo, lo que les permite descubrir, proteger y comercializar las ideas nuevas con más rapidez. Clarivate? Analytics, que antes era la división de Propiedad Intelectual y Ciencia de Thomson Reuters, es propietaria y operadora de un conjunto de negocios por suscripción líderes centrados en la investigación científica y académica, la analítica de patentes y las normas regulatorias, la inteligencia farmacéutica y biotecnológica, la protección de marcas comerciales, la protección de marcas de dominio y la administración de propiedad intelectual. Actualmente, Clarivate? Analytics es una empresa independiente con más de 4.000 empleados, que opera en más de 100 países y es propietaria de marcas reconocidas tales como Web of Science?, Cortellis?, Thomson Innovation?, Derwent World Patents Index?, CompuMark?, MarkMonitor<sup>®</sup> y Techstreet?, entre otras. Para obtener más información, visite <a href="http://ipscience.thomsonreuters.com/" rel="nofollow" target="_blank" data-saferedirecturl="https://www.google.com/url?hl=es&q=http://ipscience.thomsonreuters.com/&source=gmail&ust=1488409987069000&usg=AFQjCNFyU_3D4J4zuh46o0gGb4hZHviguw">Clarivate.com</a>.</p>2017-02-28T23:17:52+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/194Tecnología: Cámara ultraveloz para una mejor visión de automóviles autoconducidos y drones2017-02-20T23:34:33+00:00Gestión Ingenio y Sociedad<p>Unos científicos han desarrollado una cámara ultrarrápida de elevado contraste que podría ayudar a los automóviles autoconducidos y a los drones a ver mejor en condiciones de carretera extremas y con mala meteorología.</p><p>A diferencia de las cámaras ópticas convencionales, que pueden resultar cegadas por una luz muy brillante y ser incapaces de mostrar detalles cuando el nivel de luz es muy bajo, la nueva cámara inteligente de la Universidad Tecnológica Nanyang (NTU) en Singapur puede registrar los movimientos y objetos sutiles bajo las citadas circunstancias y en tiempo real.</p><p>La nueva cámara registra los cambios en la intensidad de la luz con intervalos de nanosegundos, mucho más rápido que el video convencional, y almacena las imágenes en un formato de datos que es también muchas veces más pequeño.</p><p>Gracias a su circuito integrado único, la cámara puede efectuar un análisis instantáneo de las escenas captadas, poniendo de manifiesto los objetos y los detalles importantes.</p><p><img src="/public/site/images/mikhail/cámara_ultraveloz.JPG" alt="" /></p><p>Desarrollada por el equipo de Chen Shoushun, de la NTU, la nueva cámara, llamada Celex, se halla ahora en su fase de prototipo final.</p><p>Esta nueva cámara puede convertirse en una gran herramienta de seguridad para los vehículos autónomos, dado que puede ver muy lejos, como las cámaras ópticas convencionales, pero sin el desfase temporal necesario para analizar y procesar las imágenes de video suministradas.</p><p>Chen espera que esté comercialmente lista a finales de este año, dado que ya se encuentra en conversaciones con fabricantes mundiales de equipos electrónicos.</p>2017-02-20T23:34:33+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/193Ciencia: Primera medición del transporte de calor en circuitos nanométricos2017-02-20T23:16:28+00:00Gestión Ingenio y Sociedad<p>Un equipo conformado por ingenieros de la Universidad de Michigan (EE UU), físicos de la Universidad de Constanza (Alemania) y el profesor Juan Carlos Cuevas de la Universidad Autónoma de Madrid (UAM), ha logrado medir, por primera vez, el transporte de calor en circuitos de tamaño atómico.</p><p>En concreto, los científicos han demostrado que en el caso de circuitos de tan solo un átomo la conducción de calor está cuantizada, es decir, que en estos circuitos el calor solo se transmite en unidades de una cantidad fundamental conocida como cuanto de calor.</p><p>Este descubrimiento, que acaba de ser publicado en la revista Science, establece los mecanismos básicos que gobiernan la conducción térmica en nanocircuitos metálicos, lo que abre la puerta a la investigación de nuevos fenómenos relacionados con el transporte de calor en una gran variedad de nanodispositivos.</p><p>En el trabajo, los científicos utilizaron un nuevo tipo de microscopio de efecto túnel que incorpora un calorímetro, el cual permite medir corrientes de calor con una resolución sin precedentes.</p><p>“Este microscopio permite fabricar hilos metálicos cuyas dimensiones pueden ser reducidas hasta tener tan solo un átomo en su parte más estrecha. Además, también permite medir simultáneamente las corrientes eléctrica y de calor”, explica Carlos Cuevas, profesor del Centro de Investigación de Física de la Materia Condensada (IFIMAC) de la UAM.</p><p>Fue gracias a esta herramienta que los investigadores pudieron observar cómo en un hilo metálico de un solo átomo –al contrario a lo que ocurre en circuitos macroscópicos–, el calor se transporta en unidades discretas de una cantidad fundamental conocida como cuanto de conductancia de calor.</p><p>Este es un fenómeno puramente cuántico, que hemos observado por primera vez a temperatura ambiente. Y se debe al hecho de que los electrones, responsables del transporte de calor en estos sistemas, se comportan en los dispositivos de tamaño atómico como ondas, en lugar de como partículas”, detalla Cuevas.</p><p>En el trabajo los científicos también confirmaron que la ley fundamental de la física conocida como ley de Wiedemann-Franz –que se remonta a 1853 y relaciona la conducción de la electricidad y del calor en metales– es válida incluso en contactos metálicos de tan solo un átomo.</p><p>Las técnicas experimentales desarrolladas en esta investigación también harán posible estudiar el transporte de calor en nuevos sistemas, como circuitos moleculares, polímeros unidimensionales y moléculas biológicas como el ADN. Estos son sistemas en los que se han predicho nuevos fenómenos del transporte de calor, pero que hasta ahora no se han podido investigar experimentalmente.</p><p>El progreso en la miniaturización de dispositivos electrónicos hizo posible recientemente la fabricación de circuitos a escala nanométrica (un millón de veces más pequeños que un milímetro). Sin embargo, el futuro de la Nanoelectrónica depende de lograr comprender cómo se disipa y se transporta el calor en estos nuevos dispositivos.</p><p>Esto, por ejemplo, podría favorecer el desarrollo de nuevas tecnologías para la conversión de calor en energía útil, algo que sería trascendental para paliar el acuciante problema energético.</p><p>Por otra parte, los científicos esperan que la conducción de calor en nanocircuitos esté dominada por nuevos fenómenos cuánticos, lo que hace que su estudio tenga también un gran interés fundamental.</p><p>En las dos últimas décadas, avances en las técnicas de fabricación han hecho posible diseñar circuitos que en su parte más pequeña incluyen tan un solo átomo o una molécula, alcanzando así el límite último de la miniaturización.</p><p>De este modo se han podido estudiar en estos nanocircuitos nuevos fenómenos físicos relacionados con la conducción eléctrica. A pesar de ello, hasta el momento había sido imposible explorar la conducción de calor en estos dispositivos debido a la falta de herramientas experimentales. (Fuente: UAM)</p>2017-02-20T23:16:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/192Tecnología: Ya están a punto los planos de Google y otras entidades para construir la primera computadora cuántica de gran escala2017-02-13T16:47:48+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional ha presentando el primer proyecto pormenorizado sobre cómo construir una computadora cuántica a gran escala, que, si funciona como se espera, se convertirá en la computadora más potente del planeta.</p><p>Este enorme salto adelante hacia la creación de un ordenador cuántico para todo tipo de cálculos puede marcar un antes y un después en la historia de la computación e incluso en muchos otros aspectos de la historia humana.</p><p>Se ha sabido desde hace algún tiempo que una computadora así revolucionaría la industria, la ciencia y el comercio a una escala similar a la del invento de los ordenadores normales. Pero este nuevo trabajo ha llegado ya hasta los mismísimos planos industriales con los que construir tal máquina a gran escala.</p><p>Una vez construida, las capacidades de esta computadora cuántica le permitirán diseñar nuevos medicamentos capaces de salvar vidas, resolver los enigmas científicos más desconcertantes, y encontrar las soluciones a algunos problemas que a un ordenador ordinario le exigirían miles de millones de años de cálculos.</p><p>Los nuevos planos son el fruto de los esfuerzos de un equipo internacional de científicos de la Universidad de Sussex (Reino Unido), Google (EE.UU.), la Universidad de Aarhus (Dinamarca), el Instituto RIKEN (Japón) y la Universidad de Siegen (Alemania).</p><p>Winfried Hensinger, de la Universidad de Sussex en el Reino Unido, ha sido el principal impulsor de esta investigación. “Durante muchos años se dijo que era completamente imposible construir una computadora cuántica real”, rememora Hensinger, haciendo notar que esa creencia comienza ahora a desmoronarse ante los hechos.</p><p><a href="http://noticiasdelaciencia.com/not/22937/ya-estan-a-punto-los-planos-de-google-y-otras-entidades-para-construir-la-primera-computadora-cuantica-de-gran-escala/" target="_blank">Tomado de NCYT</a></p>2017-02-13T16:47:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/191Tecnología: Nuevo cristal líquido capaz de triplicar la nitidez de los televisores actuales2017-02-13T16:42:31+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de investigadores ha desarrollado un nuevo cristal líquido de fase azul que podría permitir que los televisores, así como las pantallas de ordenador y de otro tipo presenten más píxeles en el mismo espacio, reduciendo además la energía necesaria para hacer funcionar al aparato. El nuevo cristal líquido está optimizado para LCDs (pantallas de cristal líquido) en color de secuencia de campos, una tecnología prometedora para las pantallas de la próxima generación.</p><p>Hoy en día, las pantallas Retina de Apple tienen una densidad de resolución de unos 500 píxeles por pulgada. Con la nueva tecnología desarrollada por el equipo de Shin-Tson Wu, de la Universidad de Florida Central en Estados Unidos, se podría alcanzar una densidad de resolución de 1.500 píxeles por pulgada con el mismo tamaño de pantalla. Esto resulta especialmente atractivo para gafas de realidad virtual o de realidad aumentada, que deben alcanzar una alta resolución en una pantalla pequeña para que lo mostrado en ellas se vea lo suficientemente nítido cuando las colocamos cerca de los ojos.</p><p>Aunque el primer prototipo de LCD de fase azul fue demostrado por Samsung en 2008, la tecnología aún no ha entrado en fase de producción debido a problemas con el elevado voltaje de operación y el lento tiempo de carga de los condensadores. Para solucionar estos problemas, el equipo de investigación de Wu trabajó con colaboradores del fabricante japonés de cristales líquidos JNC Petrochemical Corporation y del fabricante de pantallas AU Optronics Corporation, en Taiwán.</p><p>Combinando el nuevo cristal líquido con una estructura especial de electrodos que mejora el rendimiento, el equipo ha conseguido una transmitancia de la luz del 74 por ciento con un voltaje de operación de 15 voltios por píxel, niveles operativos que podrían finalmente permitir que las pantallas en color de secuencia de campos entren por fin en la fase práctica de desarrollo del producto.</p>2017-02-13T16:42:31+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/190Ciencia: Descubren el efecto potenciador del calcio y los fosfopéptidos en la producción de penicilina2017-02-09T20:58:08+00:00Gestión Ingenio y Sociedad<p>Un grupo de investigadores del Instituto de Biotecnología de León (INBIOTEC) y de la Universidad de León (ULE), en España, han revelado el efecto potenciador conjunto del calcio y fosfopéptidos derivados de la leche sobre la producción de penicilina. El trabajo ha sido publicado en la revista científica ‘Journal of Proteomics’.</p><p>El hongo Penicillium (que vulgarmente denominamos moho) crece sobre el pan y otra variedad de alimentos: frutas, cebollas e incluso en el vino. Una de las especies de este género (Penicillium chrysogenum) ha sido sometida durante décadas por el hombre a programas de mejora para su empleo en la producción industrial del antibiótico penicilina.</p><p>El calcio ejerce un efecto positivo sobre la producción de penicilina, aunque se desconocían los mecanismos responsables del mismo. El calcio forma complejos con diversas moléculas, entre las que se encuentran los fosfopéptidos resultantes de la hidrólisis de la caseína de la leche, los cuales contribuyen al transporte de calcio a través de la membrana celular.</p><p>En este trabajo se han caracterizado las proteínas y procesos metabólicos que sufren modificaciones tras la adición de calcio y fosfopéptidos de caseína al medio de cultivo en el que crece el hongo resultando en un incremento de la producción de penicilina.</p><p>Los resultados obtenidos sugieren que estos compuestos, entre otras acciones, estimulan la formación de precursores de la penicilina, así como las enzimas que la biosintetizan en los microcuerpos/peroxisomas de P. chrysogenum, que son como pequeños compartimentos intracelulares donde ocurre parte de la formación de este antibiótico.</p><p>Esta información contribuye al conocimiento del transporte y secreción de la penicilina, procesos que casi 90 años después del descubrimiento de este fármaco, están lejos de estar completamente caracterizados.</p><p>El artículo se titula ‘Casein phosphopeptides and CaCl2 increase penicillin production and cause an increment in microbody/peroxisome proteins in Penicillium chrysogenum’ (Los fosfopéptidos de caseína y el CaCl2 incrementan la producción de penicilina y causan un incremento en las proteínas de microcuerpos/peroxisomas en Penicillium chrysogenum) y es fruto del trabajo del grupo de biotecnología fúngica de INBIOTEC, liderado por los Doctores Carlos García Estrada y Katarina Kosalková, junto con la unidad de proteómica del Instituto liderada por Carlos Barreiro (director del INBIOTEC) y en colaboración con la ULE.</p><p>Este trabajo continúa una línea consolidada en INBIOTEC con trabajos de alto impacto en años anteriores, como la publicación del genoma del hongo productor de este antibiótico Penicullium chrysogenum en la revista ‘Nature Biotechnology’, o los análisis del conjunto de proteínas (proteoma) responsables de la mejora en la producción de penicilina a nivel industrial publicados en la revista 'Molecular & Cellular Proteomics'. (Fuente: ULE/DICYT)</p>2017-02-09T20:58:08+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/189Tecnología: Altran y el Equipo Hyperloop UPV colaboran en el desarrollo del tren del futuro que podría alcanzar los 1.000 kilómetros por hora2017-02-06T14:58:21+00:00Gestión Ingenio y Sociedad<p>Altran España y el Equipo Hyperloop UPV han firmado un acuerdo de colaboración mediante el que la compañía dará soporte tecnológico y proporcionará su expertise en el ámbito de la I+D al proyecto Hyperloop UPV, un revolucionario sistema de transporte terrestre que podría alcanzar los 1.000 kilómetros por hora, desarrollado por la Universidad Politécnica de Valencia.</p><p>Hyperloop UPV se basa en un diseño disruptivo “sin raíles”, que permite rebajar el coste de las infraestructuras, y un sistema de levitación robusto altamente eficiente desde el punto de vista energético.</p><p>El prototipo de tren, que circulará levitando en un tubo de vacío cruzando la pista de 1,5 kilómettros, es uno de los 30 proyectos finalistas de la prestigiosa competición internacional SpaceX, promovido por Elon Musk, y se presentará este próximo verano en la POD Competition II, en California, enfrentándose a otros equipos de las más prestigiosas universidades como el MIT, Stanford o Purdue, siendo uno de los sólo tres equipos europeos clasificados.</p><p>Miguel Arjona, director de I+D de Altran España, ha comentado que “este acuerdo implica la clara apuesta de Altran con el talento joven, y su compromiso por impulsar las tecnologías más innovadoras en distintos campos”.</p><p>Por su parte, Luis Javier Codón, director de la División de Aeronáutica, Espacio y Defensa de Altran España, ha afirmado que “es un orgullo para Altran formar parte de un proyecto tan innovador como éste, que seguro supondrá una transformación del sistema de transporte del futuro, gracias a un equipo formado por universitarios con unas ganas enormes de emprender y diseñar nuevas ideas pioneras, imprescindibles para crear sociedades más sostenibles”.</p><p>La firma del acuerdo se ha anunciado durante la celebración de la Global Robot Expo, la feria internacional sobre robótica, tecnologías afines, sistemas inteligentes e innovación, y en la que ambas entidades están presentes con stand propio. Altran mostrará una amplia panorámica de las tecnologías que están protagonizando la Transformación digital y la revolución que supone la Industria 4.0 para concebir las nuevas fábricas del futuro.</p><p>Los asistentes podrán interactuar con diferentes robots autónomos y asistentes domésticos de última generación, probar sistemas de realidad virtual y realidad aumentada, experimentar con los nuevos interfaces cerebro-máquina, para controlar un robot de tele-presencia con la mente, o conocer las posibilidades que el Internet de las Cosas y las técnicas de Inteligencia Artificial ofrecerán a las fábricas del futuro. (Fuente: Altran/UPV)</p>2017-02-06T14:58:21+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/188Tecnología: Hacer que un material se pegue o despegue mediante luz2017-02-06T00:00:00+00:00Gestión Ingenio y Sociedad<p>Los mecanismos adhesivos en el mundo natural, como los que usan los gecos y otros animales cuando andan cabeza abajo por el techo, tienen muchas ventajas: son siempre fuertemente adhesivos, no necesitan pegamentos y no dejan residuos.</p><p>Unos científicos de la Universidad de Kiel en Alemania están investigando cómo se podrían crear artificialmente estos mecanismos. Este equipo interdisciplinario de ciencia de los materiales, química y biología ha conseguido ahora desarrollar un material adhesivo bioinspirado que puede ser controlado remotamente usando luz ultravioleta. De este modo es posible lograr la adherencia de un objeto a una superficie y además transportarlo por ella con gran precisión. Este avance podría tener importantes aplicaciones en robótica, tecnología médica y diversos campos industriales.</p><p><img src="/public/site/images/mikhail/Nuevo_Material1.JPG" alt="" /></p><p>El equipo de Emre Kizilkan desarrolló primero un material poroso elástico (LCE, o elastómero de cristal líquido) que se dobla cuando es iluminado con luz ultravioleta, debido a su estructura molecular especial. Mientras hacían eso, se dieron cuenta de que, cuanto más poroso era el material, más se doblaba. Así que los investigadores aprovecharon este hecho. Debido a sus estructuras, los materiales porosos pueden ser fácilmente incorporados a otros materiales. De modo que Kizilkan y sus colegas ensayaron lo que pasaba al combinar el material elástico que reacciona mucho a la luz, con un material que posee buenas propiedades adhesivas y que está inspirado en una clase de estructuras biológicas naturales.</p><p>El resultado es un material adhesivo compuesto “inteligente” al que se puede controlar con luz. La superficie consiste en microestructuras adhesivas en forma de hongo, parecidas a las existentes en las patas de algunas especies de escarabajos. Cuando se ilumina con luz ultravioleta el material compuesto, se dobla. Debido a que la superficie del material se dobla también, cada vez más elementos adhesivos se sueltan de la superficie a la cual el objeto se había adherido, hasta poder desprenderse, moverse un poco más hacia la dirección deseada si es el caso, y reanudar de nuevo el ciclo de adhesión y liberación.</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/22906/hacer-que-un-material-se-pegue-o-despegue-mediante-luz/" target="_blank">NCYT</a></p>2017-02-06T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/187Ciencia: Un lago africano aporta nuevas pistas sobre la vida marina primitiva2017-02-01T20:14:20+00:00Gestión Ingenio y Sociedad<p>Una investigación con participación de la UAB (Catalunya, España) muestra que en los océanos primitivos -entre 1 y 2 mil millones de años-, la concentración de nitrógeno era más elevada de lo que se creía, lo que habría permitido la proliferación de organismos marinos durante la primera aparición de la multicelularidad y la vida eucariótica.</p><p>La investigación, liderada por miembros de la University of British Columbia de Canadá (UBC) y con participación del investigador del Departamento de Genética y Microbiología de la UAB Marc Llirós, han trabajado en el lago Kivu (República Democrática del Congo), que presenta grandes similitudes a nivel químico con los océanos Proterozoicos, hace entre 2.3 y 0.5 mil millones de años. Las aguas profundas de este lago no tienen oxígeno, pero sí grandes cantidades de hierro disuelto, lo que representa una rareza actualmente a la Tierra.</p><p>“Esta es la primera vez que hemos observado microorganismos reciclando el Nitrógeno mediante reacciones químicas acopladas al Hierro en una masa de agua” apunta Céline Michiels, autora principal del trabajo y estudiante de doctorado de la UBC. “A pesar de que estas reacciones se han descrito en el laboratorio, su detección en el lago Kivu nos da evidencias de que pueden jugar un papel importante en los ecosistemas naturales y nos permite modelizar matemáticamente estas reacciones en los océanos primitivos de la Tierra”.</p><p>Michiels y sus colaboradores encontraron que cuando algunos de los microorganismos del lago Kivu hacían reaccionar el hierro y el nitrógeno en forma de nitrato, parte del nitrógeno se convertía en nitrógeno gas (y, por lo tanto, se perdía en la atmósfera), pero el resto del nitrógeno era reciclado en forma de amonio. Este amonio permanecía disuelto y disponible como nutriente para los diferentes microorganismos presentes en el lago.</p><p>El trabajo, publicado en Nature Geoscience, ha utilizado modelos matemáticos a partir de datos reales recogidos en el lago Kivu, para conocer cómo este reciclaje de nitrógeno podría haber afectado la vida en los océanos primitivos durante el Proterozoico. Los investigadores han visto que la actividad biológica no estaba limitada por la disponibilidad de nitrógeno, tal y cómo se pensaba anteriormente, sino por otro nutriente importante para la vida, como es el fósforo. La limitación de nutrientes habría jugado un papel importante, condicionando la naturaleza y actividad de las formas de vida en los océanos de este periodo de tiempo y, por tanto, asentando las condiciones para el desarrollo de la vida multicelular y de los organismos eucariotas.</p><p>“El lago Kivu, su fisicoquímica, los organismos presentes y su metabolismo es una ventana al pasado primitivo de la Tierra, un fósil viviente excepcional que permite aportar evidencias de la historia de la Tierra y diseñar modelos matemáticos para reconstruir la química y la biología de hace casi dos mil millones de años”, comenta Marc Llirós.</p><p>“Con la ayuda de estos modelos y registros fósiles, estamos aprendiendo cada vez más sobre cómo la evolución de la vida en los océanos primitivos modeló la química de la superficie terrestre durante largos periodos de la historia primitiva de la Tierra”, concluye el investigador responsable de la investigación, Sean Crowe.</p><p>Este trabajo forma parte del proyecto East African Great Lakes Ecosystem Sensitivity tono changes, una iniciativa para estudiar la ecología microbiana en los gran lagos africanos liderada por investigadores belgas de las universidades de Lieja y de Namur. (Fuente: UAB)</p>2017-02-01T20:14:20+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/186Tecnología: Cómo mejorar la gestión de datos en los superordenadores del futuro2017-02-01T20:11:30+00:00Gestión Ingenio y Sociedad<p>La Universidad Carlos III de Madrid (UC3M), en España, investiga cómo sentar las nuevas bases de la gestión de datos en los grandes sistemas de supercomputación del futuro. Y lo hace junto con uno de los centros científicos punteros en este área, el Laboratorio Nacional de Argonne (EEUU), en el marco del proyecto europeo CLARISSE. Esta tecnología podría aplicarse para aumentar el rendimiento, escalabilidad y fiabilidad de los superordenadores del futuro, ubicados en grandes centros de datos de todo el mundo.</p><p>En las últimas décadas, muchos descubrimientos científicos han dependido del análisis de un ingente volumen de datos, lo que se realiza fundamentalmente a través de simulaciones computacionales ejecutadas a gran escala en superordenadores. Este tipo de máquinas se emplean para el estudio de modelos climáticos, el desarrollo de nuevos materiales, investigaciones sobre el origen del universo, el genoma humano o nuevas aplicaciones de bioingeniería.</p><p>En la actualidad, a medida que se recaba y almacena cada vez más información, la gestión de datos científicos se enfrenta a un problema: el software que gestiona los superordenadores de última generación no ha sido diseñado para los requisitos de escalabilidad que se esperan en los próximos años. De hecho, en menos de una década estas infraestructuras van a ser dos órdenes de magnitud más rápidas que los supercomputadores de hoy.</p><p>“En la actualidad, estas aplicaciones experimentan grandes problemas de rendimiento y escalabilidad debido al aumento exponencial de datos por el empleo de mejores instrumentos, la creciente ubicuidad de sensores y la mayor conectividad entre dispositivos”, explica el profesor Florin Isaila, del grupo ARCOS del departamento de Informática de la UC3M. “Hoy en día es necesario un rediseño radical de las infraestructuras computacionales y del software de gestión para adecuarlos al nuevo paradigma de ciencia basada en procesamiento masivo de datos”, concluye.</p><p>El objetivo del proyecto CLARISSE (Cross-Layer Abstractions and Run-time for I/O Software Stack of Extreme-scale systems) es precisamente ese: aumentar el rendimiento, escalabilidad, programabilidad y fiabilidad de la gestión de datos de aplicaciones científicas con el fin de ofrecer soporte al diseño de los superordenadores de la próxima generación. Para ello, este proyecto coordinado por la UC3M cuenta con financiación del Séptimo Programa Marco de la Unión Europea (FP7/2007-2013, bajo el acuerdo de subvención número 328582), además de la colaboración del Laboratorio Nacional de Argonne (EEUU), uno de los principales actores a nivel mundial en I+D de software de sistemas para supercomputadores de gran escala.</p><p>Históricamente, el desarrollo de software de gestión de datos se ha realizado en capas con poca coordinación en la gestión global de recursos. “Hoy en día, esta falta de coordinación representa uno de los mayores obstáculos para el aumento de la escalabilidad de los sistemas actuales. En este sentido, en CLARISSE investigamos soluciones a estos problemas a través del diseño de nuevos mecanismos para coordinar la gestión de datos de las diferentes capas”, comenta el profesor Isaila.</p><p> </p><p>“En la actualidad ARCOS está muy involucrado en varias iniciativas a nivel mundial para reformar el software de gestión de los futuros supercomputadores, incluyendo la coordinación tanto del proyecto CLARISSE como de la red de colaboración de investigación NESUS. Las sinergias resultantes de estos esfuerzos van a contribuir de forma sustancial a acelerar los descubrimientos científicos de las próximas décadas”, explica el investigador principal del proyecto, Jesús Carretero, catedrático de la UC3M y responsable de ARCOS. (Fuente: UC3M)</p>2017-02-01T20:11:30+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/185Medio Ambiente: La verdadera causa de la tormenta gigante de polvo que azotó Oriente Medio en 20152017-01-23T22:28:22+00:00Gestión Ingenio y Sociedad<p>En agosto de 2015, una tormenta de polvo cubrió grandes áreas de siete naciones de Oriente Medio con una neblina de polvo y arena lo bastante densa como para ocultarlos de la vista de los satélites. La tormenta provocó varias muertes, miles de casos de lesiones y dolencias respiratorias, y ocasionó la cancelación de vuelos de aviones así como el cierre de aeropuertos.</p><p><img src="/public/site/images/mikhail/Tormenta_de_arena.JPG" alt="" /></p><p>En ese momento, la inusual gravedad de la tormenta fue atribuida por los medios periodísticos de Oriente Medio, Europa y Estados Unidos a la guerra civil en Siria. Circularon informes en los que se culpaba de la tormenta a cambios, promovidos por el conflicto, en el uso del terreno y en su cubierta vegetal, así como a ciertas actividades, como un mayor tráfico militar sobre superficies sin pavimentar y un uso menor de agua para regadío agrícola o el cese total de este por el abandono de los campos. Todo esto habría creado cantidades extremas de polvo que habrían alimentado la tormenta.</p><p>Ahora, el equipo de Elie Bou-Zeid, de la Universidad de Princeton en Estados Unidos, quien vivió la tormenta mientras se encontraba en el Líbano, ha encontrado una causa más probable para esta tormenta sin precedentes: no fue el conflicto humano, sino una combinación de factores climáticos y meteorología inusual.</p><p>Si bien una menor cubierta vegetal y una perturbación del suelo pueden proporcionar más sedimento disponible para ser emitido en las tormentas de polvo, los investigadores argumentan que el vínculo tan ampliamente difundido entre la tormenta y las luchas en Siria no fue debidamente examinado y por tanto carecía de apoyo empírico.</p><p>La combinación de condiciones antes de la tormenta fue muy inusual. En primer lugar, la tormenta fue precedida por un período muy cálido, así que la tierra que no estaba cubierta con vegetación estaría más seca y sería más fácil que desprendiera granos de arena.</p><p>Las condiciones extremadamente áridas aumentaron la cantidad de polvo disponible y disminuyeron el umbral a partir del cual se produce la erosión, haciendo más probable que el polvo resultante se desprendiera hacia la atmósfera.</p><p>El otro factor que ayudó a generar la tormenta, según los investigadores, fue un patrón de vientos inusual.</p><p> </p>2017-01-23T22:28:22+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/184Tecnología: Nanocohetes con frenos y timón para navegar dentro del cuerpo humano2017-01-23T22:06:50+00:00Gestión Ingenio y Sociedad<p>Unas diminutas máquinas, a las que se puede describir como nanocohetes, son candidatas ideales para liberar fármacos en puntos muy precisos del interior del cuerpo humano. Unos químicos han demostrado ahora por vez primera la capacidad de controlar por completo el movimiento de un nanocohete. Esta capacidad se consigue gracias a dotar a dichos nanocohetes de frenos que responden a la temperatura. Se trata de una característica interesante para aplicaciones prácticas, dado que la sensibilidad a la temperatura permite al nanocohete detenerse en tejidos enfermos, donde esta es más alta.</p><p><img src="/public/site/images/mikhail/nanocohetes1.JPG" alt="" /> </p><p>Los nanosistemas blandos con los que trabaja el equipo de Daniela Wilson, jefa del departamento de química bioorgánica en la Universidad Radboud, en la ciudad neerlandesa de Nimega, se autoensamblan, lo que significa que forman unidades funcionales de manera espontánea. Esto permite que los nanocohetes puedan tener formas muy variadas, lo cual los hace candidatos ideales para contener carga, como por ejemplo medicamentos.</p><p> </p><p>El sistema de frenado de los nanocohetes consiste en escobillas hechas de polímeros (cadenas largas de unidades sensibles) que se forman sobre la superficie de los nanocohetes. Estas escobillas se hinchan o se deshinchan en respuesta a la temperatura ambiental y de esta forma regulan el acceso del cohete al combustible; en este caso, H2O2, peróxido de hidrógeno. Su sensibilidad es alta, como se aprecia por el hecho de que se deshinchan de inmediato a una temperatura de 35 grados centígrados o superior, haciendo que se pare la máquina.</p><p>Wilson y sus colegas también han ideado una manera de que los campos magnéticos pequeños puedan actuar como timón para los nanocohetes. Provocando la formación de cierto material metálico magnético en el núcleo de los cohetes, se puede usar el campo magnético para guiarlos hacia las direcciones deseadas.</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/22518/nanocohetes-con-frenos-y-timon-para-navegar-dentro-del-cuerpo-humano/" target="_blank">NCYT </a></p><p><a href="http://www.nature.com/nchem/journal/vaop/ncurrent/full/nchem.2674.html">Información adicional</a></p>2017-01-23T22:06:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/183Tecnología: Científicos españoles crean una bioimpresora 3D de piel humana2017-01-23T21:55:31+00:00Gestión Ingenio y Sociedad<p>Científicos de la Universidad Carlos III de Madrid (UC3M), del CIEMAT (Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas), del Hospital General Universitario Gregorio Marañón y en colaboración con la empresa BioDan Group, en España, presentan un prototipo de bioimpresora 3D capaz de crear piel humana totalmente funcional. Esta piel es apta para ser trasplantada a pacientes o para la investigación y prueba de productos cosméticos, químicos y farmacéuticos.</p><p>Esta investigación ha sido publicada recientemente en la versión electrónica de la revista científica Biofabrication. En el artículo, el equipo de investigadores ha demostrado, por primera vez, que a través de las nuevas técnicas de impresión en tres dimensiones se puede producir piel humana. Uno de sus autores, José Luis Jorcano, profesor del departamento de Bioingeniería e Ingeniería Aeroespacial de la UC3M y jefe de la Unidad Mixta CIEMAT/UC3M de Ingeniería Biomédica, señala que esta piel “puede ser trasplantada a pacientes o puede ser utilizada desde el punto de vista empresarial en el testeo de productos químicos, cosméticos o farmacéuticas ya que es producida en cantidades, tiempos y precio perfectamente compatibles para estos usos”.</p><p>Esta nueva piel humana es uno de los primeros órganos humanos vivos creados por bioimpresión que accede al mercado y replica la estructura natural de la piel, con una primera capa externa, la epidermis con su estrato córneo, que protege contra el medio ambiente exterior, junto a otra más profunda y gruesa, la dermis. Esta última capa está integrada por fibroblastos que producen colágeno, la proteína que da elasticidad y resistencia mecánica a la piel.</p><p>En la bioimpresión 3D, la clave, según los expertos, son las biotintas. En la tecnología de creación de piel en lugar de cartuchos con tintas de colores, se utilizan jeringas con distintos componentes. En palabras de Juan Francisco Cañizo, investigador del Hospital General Universitario Gregorio Marañón y de la Universidad Complutense de Madrid, “saber cómo mezclar lo componentes biológicos, en qué condiciones manejarlos para que no se deterioren las células y cómo realizar la deposición adecuada es la parte crítica del sistema”. La deposición de estas biotintas, patentadas por el CIEMAT y bajo licencia de la empresa BioDan Group, está controlada por ordenador y se realiza de manera ordenada en una placa para ir produciendo la piel.</p><p><img src="/public/site/images/mikhail/Bimpresora_en_3_d.JPG" alt="" /></p><p>El proceso de producción de estos tejidos se puede realizar de dos maneras: piel alogénica, a partir de un stock de células a gran escala, para procesos industriales; y piel autóloga, creada caso a caso a partir de células del propio paciente, para usos terapéuticos como quemaduras graves. “Utilizamos únicamente células y componentes humanos para producir una piel bioactiva y que genere su propio colágeno humano, evitando el uso de colágeno animal como hacen otros métodos”, señalan los científicos. Y no solo eso, porque actualmente ya están investigando cómo imprimir otros tejidos humanos.</p><p>Las ventajas de esta nueva tecnología son diversas: “Este método de bioimpresión permite generar la piel de manera automatizada y estandarizada, y abarata el proceso respecto a la producción manual”, señala Alfredo Brisac, consejero delegado de BioDan Group, la empresa española de bioingeniería especializada en medicina regenerativa que colabora en la investigación y que comercializa esta tecnología.</p><p>Actualmente, este desarrollo se encuentra en fase de aprobación por diferentes entidades regulatorias europeas para garantizar que la piel producida sea apta para su utilización en trasplantes a pacientes con quemaduras y otros problemas en la piel. Además, estos tejidos se pueden emplear para el testeo de productos farmacéuticos así como cosméticos y químicos de gran consumo, donde la regulación actual exige el testeo sin animales. (Fuente: UC3M)</p>2017-01-23T21:55:31+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/182Ciencia: La anorgasmia sigue afectando a un 25% de mujeres2017-01-23T21:50:08+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>La anorgasmia sigue siendo, hoy por hoy, una disfunción sexual muy extendida en el ámbito femenino. Se cree, aunque no se sabe con certeza, que el 25% de las mujeres a nivel mundial la padecen y en torno a un 60% de las mujeres afirman no tener orgasmos durante el coito, pero sí a través de otras técnicas sexuales.</p><p>Todas ellas están de acuerdo en que esta situación provoca muchos sentimientos y percepciones diferentes acerca del sexo, pero si hay que definir la anorgasmia con una sola palabra esa sería, sin ninguna duda, la frustración.</p><p>La mayoría de los casos de anorgasmia femenina se originan por un factor psicológico y un escaso conocimiento del propio cuerpo y del de la pareja. De ahí que los sexólogos especialistas afirmen que resulta indispensable explorar y conocer de lleno la respuesta sexual del propio cuerpo para así poder disfrutarlo junto a otra persona, alcanzar el orgasmo y olvidar esta disfunción tan extendida.</p><h2>La solución pasa por la autoexploración</h2><p>Y cuando hablamos de autoexploración no nos referimos solo al tacto manual propio, sino al amplio catálogo de productos<strong> eróticos</strong> y juguetes sexuales que pueden adquirirse en cualquier sex shop. Un <strong>vibrador</strong> o un <a href="https://miorgasmo.com/juguetes-eroticos/vibradores/conejito-rampante.html">conejito rampante</a> puede ser un juguete perfecto para comenzar a sentir diferentes sensaciones placenteras que lleven al orgasmo.</p><p>Pero dejando a un lado los juguetes sexuales, la mujer que padece anorgasmia debe comenzar a conocerse a sí misma mediante diferentes trucos y técnicas que le permitan ver y sentir con claridad qué tipo de caricias le resultan más placenteras y cuáles no. Además de las propias manos, plumas, juguetes sexuales, vibradores y otros objetos, puede utilizarse literatura erótica, cine erótico e incluso un espejo. Lo importante es no forzar la situación e intentar combinar cuerpo y cerebro para dejarse llevar hasta un punto de placer nunca antes vivido.</p><p>Es clave conocer el propio cuerpo y cómo darle placer de diferentes formas para mostrarle a la propia pareja cómo queremos llegar al orgasmo y cómo realmente podemos conseguirlo. En este sentido, las mujeres con anorgasmia que tienen una pareja estable deben necesariamente aumentar la comunicación e intentar resolver el problema juntos: primero, con el autoconocimiento de su cuerpo, y después con su pareja.</p><p>Es más, muchas de las mujeres que sufren anorgasmia afirman que sí son capaces de alcanzar el orgasmo por sí solas, a través de diferentes prácticas sexuales que no incluyen la penetración masculina. Eso significa que el nivel de anorgasmia puede clasificarse en tres tipos: mujeres que nunca han tenido un orgasmo, mujeres que alcanzan el orgasmo solo en determinadas situaciones como la masturbación a solas y, por último, las mujeres que han tenido orgasmos, pero han dejado de tenerlos a partir de cierto momento o situación.</p><p>Por todo ello, es importante acudir al especialista para determinar qué tipo de anorgasmia se padece y qué tipo de tratamiento puede resultar más beneficioso para comenzar a disfrutar del propio cuerpo, sola o en compañía de la pareja. En este sentido, los juguetes sexuales, vibradores, plumas y otros objetos especialmente diseñados para dar placer suelen ser uno de los factores más importantes para experimentar y conocer el propio cuerpo. Dado que pueden utilizarse en soledad o en compañía de otra persona, forman parte de la mayoría de tratamientos para resolver el problema de anorgasmia femenino. Además, la gran variedad de juguetes sexuales que existe en la actualidad y la posibilidad de comprarlos a través de cualquier sex shop online como MiOrgasmo.com, con la máxima discreción, ha facilitado la tarea de todas esas personas que tienen ese miedo o vergüenza respecto de todo lo que está relacionado con la sexualidad.</p><p>En definitiva, solucionar un problema de anorgasmia femenino pasa necesariamente por el autoconocimiento sexual, la satisfacción en las relaciones y la auto estimulación propia y de la pareja, en caso de tenerla. En la gran mayoría de los casos puede ser necesario acudir a un psicólogo o sexólogo experto para que ayude a la mujer con anorgasmia a dar los pasos para eliminar ese miedo al sexo en pareja y alcanzar el orgasmo sin ningún tipo de preocupación.</p></div>2017-01-23T21:50:08+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/181Tecnología: Mejoran las propiedades de materiales moleculares magnéticos con técnicas de alta presión2017-01-19T15:27:45+00:00Gestión Ingenio y Sociedad<p>Investigadores del Instituto de Ciencia Molecular (ICMol),en España, han demostrado que la alta presión puede ser una herramienta para controlar el orden magnético y mejorar las propiedades de algunos imanes moleculares. El trabajo, publicado en Nature Communications, supone un paso adelante hacia la futura aplicación de estos sistemas.</p><p>La investigación de imanes moleculares suscita gran interés entre la comunidad científica por sus potenciales aplicaciones, tales como el almacenamiento de información, la computación cuántica, la espintrónica molecular o la biomedicina, entre otras. No obstante, un hándicap de muchos imanes de base molecular es que tan solo se comportan como tales a muy bajas temperaturas, lo que complica el uso tecnológico a nivel industrial por las dificultades que entraña el propio proceso de enfriamiento fuera del laboratorio. Conseguir orden magnético a temperatura ambiente es uno de los retos que se plantea los investigadores en el campo del magnetismo molecular.</p><p>Francisco José Martínez Lillo y Joan Cano, investigadores en el Grupo de Química de Coordinación del ICMol (Parc Científic de la Universitat de València), han demostrado que es posible controlar la temperatura del orden magnético mediante técnicas de alta presión, y conseguir mejoras sustanciales en las posibilidades de uso tecnológico de tales sistemas.</p><p>El estudio, llevado a cabo en colaboración con científicos del Reino Unido –Euan K. Brechin y Konstatin V. Kamenev – muestra cómo la aplicación de una presión externa modifica de forma controlada la temperatura del orden magnético en complejos de Renio(IV), el ión metálico utilizado en el estudio. El proceso es perfectamente controlable y reversible, de manera que éste vuelve a mostrar el comportamiento magnético original al retirar la presión.</p><p>Se trata de la primera vez que se utiliza la alta presión para elevar la temperatura del orden magnético a nivel molecular. Hasta hoy, no se habían utilizado técnicas de alta presión en cristalografía y magnetismo de manera combinada, como en este caso. Los científicos del ICMol han estudiado dicho efecto mediante técnicas de alta presión aplicadas sobre difracción de rayos X de monocristal y sobre magnetometría SQUID (Superconducting Quantum Interference Device). Con la ayuda de cálculos teóricos y dinámicas moleculares en sólido, se ha correlacionado la evolución de los cambios estructurales provocados por la presión hidrostática con el comportamiento magnético resultante.</p><p>El trabajo, titulado Pressure induced enhancement of the magnetic ordering temperature in rhenium(IV) monomers, aparece publicado en el último número de la prestigiosa revista Nature Communications (DOI: 10.1038/ncomms13870) y es parte de una nueva línea de investigación abierta por estos dos científicos en el Instituto de Ciencia Molecular de la Universitat de València. (Fuente: U. València)</p>2017-01-19T15:27:45+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/180Tecnología: Gran aumento de eficiencia en paneles solares gracias a la nanotecnología2017-01-19T15:21:30+00:00Gestión Ingenio y Sociedad<p>Las células solares transforman luz en electricidad. Sin embargo, no convierten toda la luz en electricidad por igual, lo que ha motivado una colaboración entre industria y universidad para desarrollar una solución que podría solucionar el problema de manera lo bastante satisfactoria.</p><p>Las actuales células solares no son buenas en la conversión de la luz visible en energía eléctrica. La mejor eficiencia se halla solo en torno al 20%, tal como indica Takashi Asano, de la Universidad japonesa de Kioto, quien trabaja en el desarrollo de tecnologías ópticas para mejorar la producción de energía eléctrica.</p><p>Las temperaturas más altas provocan la emisión de luz con longitudes de onda más cortas, siendo esta la razón por la que la llama de un quemador de gas se desplaza del rojo al azul a medida que se incrementa el calor. Un calor superior ofrece más energía, lo que convierte a las longitudes de onda cortas en un objetivo importante en el diseño de células solares.</p><p>El problema es que el calor provoca la emisión de luz en un rango muy amplio de longitudes de onda, mientras que una célula solar solo funciona en un estrecho rango.</p><p>Para resolver esto, el equipo de Asano construyó un nuevo semiconductor de tamaño nanométrico que estrecha el ancho de banda de la longitud de onda para concentrar la energía.</p><p>Usando este material nanoestructurado, el equipo ha mostrado que su semiconductor trabajado a escala nanométrica eleva la tasa de conversión de energía de las células solares hasta al menos un 40% más.</p><p>La nueva tecnología posee dos importantes beneficios. En primer lugar la eficiencia energética: es posible convertir calor en electricidad de forma mucho más eficiente que antes. En segundo lugar, el diseño: es factible crear transductores mucho más pequeños y robustos, lo que será útil para una amplia gama de aplicaciones.</p><p> </p>2017-01-19T15:21:30+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/179Ciencia: La Luna es más vieja de lo que se creía2017-01-18T15:55:22+00:00Gestión Ingenio y Sociedad<p>Los resultados de un análisis reciente indican que la Luna se formó hace 4.510 millones de años, unos cuantos millones de años antes de lo que se creía previamente.</p><p>El equipo de la geoquímica Mélanie Barboni, de la Universidad de California en Los Ángeles (UCLA), Estados Unidos, ha averiguado que, efectivamente, la Luna es al menos entre 40 y 140 millones de años más vieja que lo pensado hasta ahora por los científicos.</p><p>El sofisticado análisis se ha llevado a cabo en muestras de minerales de la Luna llamados zircones y que fueron traídos a la Tierra por la misión Apolo-14, en 1971.</p><p>La edad de la Luna ha sido un tema muy debatido, a pesar de que los científicos han intentado aclarar la cuestión durante muchos años y han usado una amplia gama de técnicas de investigación.</p><p>Finalmente, parece que el debate va a terminar, al menos en lo referente a la edad mínima de la Luna.</p><p>Esta se formó durante una colisión violenta y frontal entre la Tierra primitiva y un “embrión planetario” llamado Theia, según la conclusión de una investigación realizada por un equipo dirigido por geoquímicos de la UCLA y cuyos resultados se presentaron públicamente en 2016.</p><p><img src="/public/site/images/mikhail/Imagen_de_la_luna1.JPG" alt="" /></p><p>Las conclusiones a las que se ha llegado en la nueva investigación implicarían que la Luna se formó tan "pronto" como unos 60 millones de años después del nacimiento del sistema solar. Este punto de la cronología es importante porque si, tal como parece, es cierto, proporcionaría información esencial para los científicos que buscan averiguar cómo fue exactamente la evolución temprana de nuestro planeta y del sistema solar.</p>2017-01-18T15:55:22+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/178Ciencia: Un paso más hacia un gasóleo renovable y barato2017-01-18T15:44:38+00:00Gestión Ingenio y Sociedad<p>Unos ingenieros químicos han reprogramado genéticamente una cepa de levadura para que convierta mucho más eficientemente azúcares en grasas, un avance que podría hacer posible con un coste aceptable la producción renovable de gasóleo (diésel) y otros combustibles de alta energía.</p><p>El equipo de Gregory Stephanopoulos, profesor de Ingeniería Química y Biotecnología en el Instituto Tecnológico de Massachusetts (MIT), de Cambridge, Estados Unidos, modificó las vías metabólicas de la levadura que producen de forma natural grandes cantidades de lípidos, para volverlas un 30 por ciento más eficientes.</p><p>Esta mejora podría convertir en económicamente viable la producción de combustibles renovables de alta energía, y el equipo del MIT está ahora trabajando en otras mejoras adicionales que ayudarían a acercarse aún más a ese objetivo.</p><p>Lo que han hecho Stephanopoulos, Kangjian Qiao y el resto de miembros del equipo es alcanzar cerca del 75 por ciento del potencial de esta levadura, quedando pendiente un 25 por ciento del que se ocuparán en posteriores trabajos.</p><p>Los combustibles renovables como el etanol, hecho a partir de cereales, son útiles como aditivos de la gasolina para automóviles, pero para grandes vehículos como aviones, camiones y barcos, se necesitan combustibles más potentes, como el diésel. Este último es el combustible preferido debido a su alta densidad de energía y la alta eficiencia de los motores que funcionan con él. El problema con el diésel es que por ahora el comúnmente disponible está hecho en su totalidad de combustibles fósiles.</p><p>Ha habido un cierto éxito en el desarrollo de motores capaces de funcionar con biodiésel hecho a partir de aceites de cocina usados, pero estos son una fuente relativamente escasa y cara. Los almidones, como la caña de azúcar y los cereales, son más baratos y más abundantes, pero estos carbohidratos deben ser primero transformados en lípidos, que después pueden ser convertidos en combustibles de alta densidad energética, como el diésel.</p><p>Para superar estos obstáculos, Stephanopoulos y sus colegas empezaron a trabajar con una levadura conocida como Yarrowia lipolytica, que produce de forma natural grandes cantidades de lípidos. Se centraron en utilizar por completo los electrones generados por la descomposición de la glucosa. Esto lo consiguieron realizando modificaciones en la Yarrowia, incluyendo la agregación de vías sintéticas que convierten el NADH sobrante, un producto de la descomposición de la glucosa, en NADPH, que se puede utilizar para sintetizar lípidos. Acabaron poniendo a prueba más de una docena de vías sintéticas.</p><p>Resultó que la combinación de dos de estas vías proporcionó al equipo de Stephanopoulos los mejores resultados. El mecanismo concreto por el cual dicho par de vías funciona mucho mejor que las otras no se conoce aún bien.</p><p>Usando esta combinación tan eficaz de vías, las células de levadura solo requieren dos tercios de la cantidad de glucosa que necesitan las células de levadura no modificada para producir la misma cantidad de aceite.</p>2017-01-18T15:44:38+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/177Sociedad: Los primeros humanos de América llegaron al continente mucho antes de lo creído2017-01-18T15:34:46+00:00Gestión Ingenio y Sociedad<p>La primera entrada de humanos en Norteamérica a través del Estrecho de Bering ocurrió 10.000 años antes de lo creído hasta ahora. Este retroceso en la cronología de la presencia humana en América parece haber sido demostrado más allá de toda duda por Ariane Burke y Lauriane Bourgeon, de la Universidad de Montreal en Canadá, con la ayuda de Thomas Higham, de la Universidad de Oxford en el Reino Unido.</p><p>La fecha del asentamiento humano más temprano en Norteamérica, estimada hasta ahora en hace 14.000 años, según los yacimientos arqueológicos más antiguos datados, se estima ahora en hace unos 24.000 años, o sea en el punto álgido de la última edad del hielo o Último Máximo Glacial.</p><p>El equipo de investigación realizó su descubrimiento valiéndose de objetos provenientes del yacimiento arqueológico de las Bluefish Caves, cuevas situadas en las orillas del río Bluefish en el norte del Yukón, cerca de la frontera de Alaska. El yacimiento fue excavado por el arqueólogo Jacques Cinq-Mars entre 1977 y 1987. Basándose en la datación por radiocarbono de huesos de animales, el investigador enunció la hipótesis de que los asentamientos humanos en la región se remontaban a hasta hace 30.000 años.</p><p>En ausencia de otros yacimientos de edad similar, la hipótesis de Cinq-Mars permaneció como altamente controvertida para la comunidad científica. Además, no había pruebas de que la presencia de huesos de caballos, mamuts, bisontes y caribúes en las Bluefish Caves fuera debido a la actividad humana.</p><p>Para aclarar el enigma de una vez por todas, Bourgeon examinó los aproximadamente 36.000 fragmentos óseos extraídos del yacimiento y conservados en el Museo Canadiense de Historia en Gatineau, un esfuerzo enorme que le llevó dos años completar. Un análisis detallado de ciertas piezas en el Laboratorio de Ecomorfología y Paleoantropología de la Universidad de Montreal puso de manifiesto rastros innegables de actividad humana en 15 huesos. Alrededor de otros 20 fragmentos mostraron también rastros probables del mismo tipo de actividad.</p><p>Los resultados del estudio se han hecho públicos a través de la revista académica PLoS ONE. La referencia del trabajo es la siguiente: Bourgeon L, Burke A, Higham T (2017) Earliest Human Presence in North America Dated to the Last Glacial Maximum: New Radiocarbon Dates from Bluefish Caves, Canada. PLoS ONE 12(1): e0169486. doi:10.1371/journal.pone.0169486.</p>2017-01-18T15:34:46+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/176Tecnología: Proteínas bioluminiscentes dan color a pantallas ecológicas y baratas2017-01-16T20:21:13+00:00Gestión Ingenio y Sociedad<p>El éxito de las pantallas de cristal líquido (LCD) que incorporan multitud de dispositivos portátiles –como teléfonos, ordenadores y televisores– se debe en gran parte al uso de los LED o diodos inorgánicos emisores de luz blanca, que ofrecen una imagen de gran calidad con un consumo energético bajo.</p><p><img src="/public/site/images/mikhail/Proteínas_luminicentes.JPG" alt="" /></p><p>Sin embargo, estas pantallas presentan varios inconvenientes: el elevado coste de los filtros de color, la existencia de unos límites en el contraste y brillo alcanzados, y lo difícil que resulta reciclar sus materiales.</p><p>Para resolver estos problemas, un equipo de científicos de la Universidad Erlangen-Nürnberg (Alemania) liderados por el español Rubén D. Costa, ha desarrollado una nueva pantalla basada en elementos naturales: las proteínas, “lo que permitirá en un futuro no muy lejano la fabricación de estos dispositivos de forma ecológica y a bajo coste”.</p><p>Los investigadores utilizan las proteínas en dos partes de la pantalla. Por un lado, en el sistema de retroiluminación, donde proponen usar un BioLED de luz blanca con proteínas luminiscentes de diversos colores. Esta tecnología, cuyos detalles publicaron el año pasado, permite sustituir el fosforo inorgánico –un material caro y escaso– que llevan los LED tradicionales, además de representar un nuevo diseño en la retroiluminación de las pantallas.</p><p>“El rendimiento cuántico de emisión de las proteínas es superior al 75%, lo que asegura una alta eficiencia –destaca Costa–. Además, el ancho de banda de emisión es muy pequeño (30-50 nm), lo que implica una alta calidad de color; y su degradación no produce cambios de color significativos”.</p><p>Ahora los científicos publican en la revista Advanced Functional Materials los detalles del otro componente proteico de la pantalla: el filtro de color, donde las proteínas se depositan en una matriz polimérica con una resolución micrométrica gracias al uso de técnicas de impresión 3D, manteniendo las propiedades luminescentes de las proteínas y una estabilidad óptima.</p><p>“Este filtro de color cumple con los requisitos necesarios para mejorar las pantallas actualmente en uso en lo que al contraste de color y al brillo se refiere, y dentro de los parámetros de calidad exigidos para su comercialización”, destaca Costa, que concluye: “El nuevo material puede permitir en un futuro no muy lejano el desarrollo de biopantallas de bajo consumo para televisiones o teléfonos móviles, con bajo coste de producción, una alta calidad de imagen y ecológicamente sostenibles”. Además, estos filtros no son rígidos, lo que permitiría su uso en dispositivos flexibles y ligeros. (Fuente: <a href="http://www.agenciasinc.es/">SINC</a>)</p>2017-01-16T20:21:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/174Ciencia: Los lactógenos de la placenta provocan agresividad maternal antes del parto2017-01-16T20:13:53+00:00Gestión Ingenio y Sociedad<p>Una investigación desarrollada por el grupo de Neuroanatomía Funcional (NeuroFun) de la Facultad de Ciencias de la Salud de la Universitat Jaume I de Castelló (UJI), en España, ha demostrado que la hormona prolactina y los lactógenos placentarios, hormonas parecidas a la prolactina producidas por la placenta, actúan sobre el cerebro femenino durante la gestación provocando cambios en el comportamiento y en la función mental de las madres, entre ellas, la agresividad o la motivación para cuidar a las crías. Las conclusiones de este trabajo se han publicado en la revista Brain Structure and Function.</p><p>El hallazgo científico del equipo de investigadores liderados por el catedrático de Biología Celular Ferran Martínez-García revela que la agresividad maternal «no es producida por la interacción entre la madre y las crías, como se pensaba, sino por las hormonas que actúan sobre el cerebro antes del parto», asegura el investigador.</p><p>Además, el estudio es relevante porque demuestra la acción directa de estas hormonas sobre el llamado cerebro sociosexual, lo que incrementaría una tendencia instintiva a cuidar a los hijos y a protegerlos. De hecho, conocer el lugar donde estas hormonas influyen en la actividad cerebral es el primer paso necesario para entender posibles procesos patológicos relacionados con la maternidad y, eventualmente, poder tratarlos.</p><p>Los científicos de la UJI han utilizado hembras de ratón para cartografiar las regiones del encéfalo sensibles a la prolactina y los lactógenos placentarios durante todo el ciclo reproductivo, en especial durante los periodos de gestación y lactancia. A la vez, también han replicado el estudio en hembras vírgenes para comprobar las diferencias en la reacción.</p><p>«Para llevar a cabo esta cartografía hemos usado una técnica que detecta las células que responden con éxito a hormonas como la prolactina, que es clave para desencadenar todos los procesos vinculados con la maternidad», explica Hugo Salais López, primer autor del trabajo, que forma parte de su tesis doctoral, realizada bajo la codirección de los profesores Ferran Martínez-García y Carmen Agustín Pavón.</p><p>Los resultados de esta investigación indican que la mayor parte de los centros del cerebro sociosexual son hiperactivados por los lactógenos placentarios ya durante la gestación, de forma que en el momento del parto la función cerebral de la hembra está modificada para facilitar una actitud y un comportamiento exacerbadamente maternales. Los estudios del grupo NeuroFun de la UJI indican que esto se traduce en una hiperagresividad para defender a las crías de posibles intrusos peligrosos y una elevada motivación para mantener contacto con ellas, limpiarlas, abrigarlas y amamantarlas.</p><p>Además de aportar luz sobre la neurobiología del comportamiento maternal, este tipo de estudios tiene mucho interés y una posible aplicabilidad futura. La tormenta hormonal que se produce durante el embarazo «puede hacer que las hormonas actúen desordenadamente, generando alteraciones del estado de ánimo vinculadas a estados depresivos preparto y postparto», añade Martínez-García, también profesor del Máster de Investigación en Cerebro y Conducta de la UJI y miembro de la Unidad Departamental de Medicina.</p><p>Este estudio se integra en una de las líneas de trabajo del grupo NeuroFun de la UJI centrado en el análisis de los circuitos del cerebro responsables de la expresión de conductas instintivas con una fuerte carga emocional como, por ejemplo, los comportamientos sociales. El laboratorio NeuroFun ha contribuido a aclarar los circuitos y neurotransmisores relacionados con la atracción sexual intermediada por feromonas usando ratones como animales experimentales y aplicando técnicas de análisis del comportamiento y de evaluación de la función, neuroquímica y estructura del cerebro.</p><p>En la actualidad, los miembros de NeuroFun investigan el papel de la amígdala, un centro antiguo del cerebro, en la respuesta de las hembras a estímulos de crías y de individuos adultos, antes y después de la gestación. En este sentido, los investigadores están interesados en entender el papel que juegan las hormonas en los cambios que se producen en estas respuestas de las hembras durante la gestación, parto y lactancia. (Fuente: UJI/DICYT)</p>2017-01-16T20:13:53+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/173Ciencia: Cómo diseñar por ordenador proteínas artificiales para nuevas aplicaciones2017-01-16T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de científicos, liderado por la Universidad de Washington en Seattle (EE UU), ha descifrado las reglas clave que dirigen cómo las proteínas forman estructuras con cavidades (parecidos a bolsillos) que son esenciales para muchas de sus funciones clave.</p><p>El descubrimiento permite que los investigadores diseñen a medida proteínas que pueden imitar las acciones de proteínas naturales, así como crear proteínas desde cero, diferentes a cualquiera que se encuentre en la naturaleza, capaces de realizar funciones totalmente nuevas. Los resultados se han publicado en la revista Science.</p><p><img src="/public/site/images/mikhail/Proteínas.JPG" alt="" /></p><p>En la actualidad, los científicos que tratan de diseñar una nueva proteína para actuar sobre una molécula particular suelen reutilizar proteínas naturales, pero esta estrategia tiene varias limitaciones.</p><p>"Esta nueva estrategia nos permitirá depender menos de las proteínas naturales y diseñar proteínas con potencialidad para desarrollar nuevas pruebas de diagnóstico y tratamientos, o para propósitos biotecnológicos, como catalizar reacciones para conseguir procesos industriales más eficientes", explica Enrique Marcos, primer autor del trabajo y que actualmente trabaja en el laboratorio de Modesto Orozco del Instituto de Investigación Biomédica (IRB Barcelona).</p><p>Para David Baker, director del Instituto de Diseño de Proteínas de la universidad estadounidense, y director de la investigación, "este enfoque permitirá afinar el tamaño y la forma de estas cavidades o bolsillos para que las proteínas diseñadas a medida se puedan unir y actuar sobre una molécula específica, un proceso llamado unión de ligando”.</p><p>Las proteínas están formadas de cadenas de aminoácidos que se pliegan en una forma compacta que determina su función. El equipo estudió las estructuras que se forman cuando cadenas dentro de la misma proteína se alinean una junto a otra para crear unas estructuras laminares, llamadas hojas beta (hojas β). En muchas proteínas naturales, estas hojas se doblan para formar cavidades que se unen a las moléculas diana implicadas en muchos procesos celulares.</p><p>Para desarrollar la nueva estrategia, los científicos identificaron las propiedades clave en la secuencia y orientación de los aminoácidos que determinan cómo las hojas β se pliegan y se curvan. Una vez identificadas estas características, los investigadores muestran que es posible diseñar de manera computacional estructuras de proteínas y producirlas experimentalmente con alta precisión respecto del modelo computacional. Estas proteínas forman cavidades con una variedad de formas y tamaños y además demuestran que son altamente estables y toleran altas temperaturas, lo que es esencial para la ingeniería de nuevas funciones. (Fuente: IRB Barcelona)</p>2017-01-16T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/172Tecnología: ¿Hacia un nuevo concepto de reactor de fusión nuclear?2016-12-22T16:51:48+00:00Gestión Ingenio y Sociedad<p>El Wendelstein 7-X (W7-X), un aparato del tipo conocido como Stellarator, diseñado para producir campos magnéticos capaces de confinar debidamente el plasma en un reactor de fusión nuclear, ha logrado resultados muy prometedores en las últimas pruebas, realizadas en Greifswald, Alemania.</p><p>La desviación respecto a la configuración deseada ha resultado ser de menos de una parte entre 100.000. Tales resultados podrían suponer un paso clave hacia la verificación de la viabilidad de los sistemas de tipo Stellarator como modelos para futuros reactores de fusión nuclear.</p><p>W7-X es el mayor y más sofisticado stellarator del mundo. Construido por el Instituto Max Planck para la Física del Plasma en Greifswald, Alemania, fue completado en 2015 como la vanguardia del diseño de los sistemas de tipo Stellarator.</p><p>El colaborador principal estadounidense para el W7-X es el Laboratorio de Física del Plasma de Princeton, un centro dependiente del gobierno estadounidense.</p><p>Los sistemas de tipo Stellarator confinan el gas caliente y cargado (conocido como plasma) que alimenta las reacciones de fusión nuclear, en campos magnéticos sinuosos (3D), a diferencia de los sistemas de tipo tokamak que lo hacen en campos simétricos (2D). Los reactores de fusión nuclear de la clase tokamak son los más utilizados. El término tokamak proviene del nombre ruso del primer reactor de esta clase, desarrollado en Rusia en la década de 1960.</p><p>La configuración sinuosa permite a los sistemas de tipo Stellarator controlar el plasma sin necesidad de la corriente que los tokamaks deben inducir en el gas para completar el campo magnético. Los plasmas de los stellarators corren por tanto un escaso riesgo de sufrir alteraciones indeseadas, como sí puede pasar en los tokamaks. Una alteración indeseada causa que se detenga abruptamente la corriente interna y que se paren las reacciones de fusión.</p>2016-12-22T16:51:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/171Ciencia: Pruebas de casos de paludismo de hace dos mil años2016-12-16T15:44:20+00:00Gestión Ingenio y Sociedad<p>Un análisis de restos humanos de hace 2.000 años procedentes de varias regiones de la península italiana ha confirmado la presencia de paludismo (malaria) en el Imperio Romano. El hallazgo podría aportar argumentos definitivos para el largo debate acerca de la existencia de la enfermedad en esta antigua civilización.</p><p>La clave está en muestras del genoma mitocondrial de la malaria, extraídas de los dientes de calaveras enterradas en tres cementerios italianos, que se remontan al período Imperial de los siglos primero a tercero de nuestra era.</p><p>Los datos genómicos son importantes porque sirven como punto de referencia esencial sobre cuándo y dónde existió en humanos el parásito culpable del paludismo, y proporcionan más información sobre la evolución de la enfermedad en el Ser Humano.</p><p>La malaria fue probablemente un patógeno histórico notable que ocasionó muchas muertes en la antigua Roma. Así lo cree el genetista evolutivo Hendrik Poinar, director del Centro de ADN Antiguo de la Universidad McMaster en Canadá, donde se llevó a cabo el trabajo.</p><p>La malaria, provocada por el parásito Plasmodium falciparum, es una enfermedad infecciosa grave y a veces fatal que se propaga por mosquitos infectados. La dolencia es responsable de casi 450.000 muertos al año, la mayoría de ellos niños de menos de 5 años de edad.</p><p>xisten muchos documentos escritos antiguos describiendo fiebres con síntomas como los de la malaria en las antiguas Grecia y Roma, pero se desconoce la especie de específica del parásito culpable. Las evidencias obtenidas recientemente por el equipo de Poinar y Stephanie Marciniak (ahora en la Universidad Estatal de Pensilvania en Estados Unidos) confirman que la especie fue probablemente la Plasmodium falciparum, y que afectó a personas en diferentes entornos ecológicos y culturales. Estos resultados plantean nuevas preguntas a las que habrá que buscar respuestas, en particular ¿cuán extendido estaba este parásito? y ¿qué lastre supuso para las comunidades de la Italia del Imperio Romano?</p>2016-12-16T15:44:20+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/170Tecnología: Galileo, ya disponible para el mundo2016-12-16T15:27:47+00:00Gestión Ingenio y Sociedad<p>El sistema europeo de navegación por satélite Galileo ha comenzado sus operaciones y sus satélites ya están en el espacio enviando información de posicionamiento, navegación y determinación de la hora a usuarios de todo el mundo.</p><p>La Comisión Europea, propietaria del sistema, ha anunciado formalmente el comienzo de los servicios iniciales de Galileo, lo que constituye el primer paso hacia su operatividad total.</p><p>Nuevos lanzamientos seguirán ampliando la capacidad de la constelación, con lo que mejorarán tanto el rendimiento como la disponibilidad del sistema en todo el planeta.</p><p>La ESA ha supervisado el diseño y el despliegue de Galileo en nombre de la Comisión hasta que, el año que viene, ceda las operaciones del sistema y la provisión de servicios a la Agencia Europea del Sistema Global de Navegación por Satélite (GSA).</p><p>Tras cinco años de lanzamientos, actualmente hay 18 satélites en órbita. Los últimos cuatro, lanzados el mes pasado, están siendo sometidos a pruebas antes de unirse al resto de la constelación en la próxima primavera.</p><p>La constelación completa de Galileo estará formada por 24 satélites, además de los de reserva orbital, con el fin de evitar cualquier interrupción en el servicio.</p><p>“Para la ESA, este es un momento de gran importancia en el programa. Sabemos que el rendimiento del sistema es excelente”, afirma el director general de la ESA, Jan Woerner.</p><p> “Con el anuncio de los primeros servicios se reconoce que el esfuerzo, el tiempo y el dinero invertidos por la ESA y la Comisión han dado frutos, que el trabajo de nuestros ingenieros y el resto del personal ha merecido la pena, y que la industria europea puede estar orgullosa de haber creado este fantástico sistema”.</p>2016-12-16T15:27:47+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/169Tecnología: Tecnología UPC para el diseño de una barrera protectora para carreteras que reduce el impacto de los accidentes y el coste de mantenimiento2016-12-15T00:00:00+00:00Gestión Ingenio y Sociedad<p>Investigadores del grupo de Tecnología de Estructuras de Hormigón de la Universitat Politècnica de Catalunya (UPC), junto con las empresas GIVASA, SERVIÀ CANTÓ, EIFFAGE INFRAESTRUCTURAS y Applus+ IDIADA, en España, han diseñado y construido un prototipo de barrera protectora de hormigón para vías interurbanas que, en comparación con las de hormigón in situ instaladas hasta ahora, reduce el grado de severidad del impacto de los vehículos en caso de accidente y, por tanto, las lesiones que puedan padecer las víctimas. Además de mejorar la seguridad de los ocupantes del vehículo, el nuevo modelo de barrera, pionero en Europa, es más económico y respetuoso con el medio ambiente que las soluciones existentes, ya que permite reducir hasta un 10% el consumo de hormigón y evitar la emisión de hasta 6,6 toneladas de CO2 por kilómetro de barrera construida.</p><p>Otro punto favorable de la nueva barrera de hormigón de fabricación in situ es que, comparada con otros sistemas de contención de vehículos, y gracias a la alta resistencia ante un impacto, reduce el coste de mantenimiento durante su vida útil, estimada en cien años. Este modelo de barrera ya se ha instalado en las autopistas C-33 (en Mollet del Vallès) y AP-7 (en el Nudo del Papiol), en la autovía A-14 (en Lleida), en la carretera C-58 (en Vacarisses y Castellbell y el Vilar), así como en el puente Fernando Reig en la carretera N-340 (en Alcoy, Alicante) y en la M-506 (Chapinería, Madrid). En el 2017 está previsto que se instalen en las carreteras C-55 (en Collbató), N-IIz (en Castellolí), B-112 (en Collbató) y BV-4025 (en Cercs).</p><p>Las salidas de la vía son los accidentes en carretera más habituales y con consecuencias más graves. En el año 2015 se registraron 1.126 víctimas mortales y 4.843 personas heridas en vías interurbanas de España. En este tipo de carreteras, el porcentaje más elevado de muertes, el 40%, se produjo a raíz de accidentes en los que el vehículo se salió de la vía, según datos de la Dirección General de Tráfico. En el caso de Cataluña, en el mismo año, se contabilizaron 176 víctimas mortales y 891 personas heridas graves en vías interurbanas. En este tipo de vías, el 36% de las muertes fueron debidas a salidas de vía de circulación, según datos del Servicio Catalán de Tráfico.</p><p><img src="/public/site/images/mikhail/barrera.JPG" alt="" /></p><p>Para poder minimizar esta clase de accidentes se dispone actualmente de varios tipos de barreras o sistemas de contención, como por ejemplo las barreras metálicas, las de hormigón prefabricadas o realizadas in situ, las de mampostería e, incluso, las barreras de madera. Estos sistemas hacen la función de contención (evitar que el vehículo invada el carril contrario), de amortiguamiento del impacto y de redirección del vehículo.</p><p>Hasta ahora, las barreras de tipo metálico y las de hormigón prefabricado son las únicas que han conseguido llegar al índice de severidad de impacto del vehículo que establece la norma europea (EN 1317), que diferencia tres tipos (A, B y C). En España, sólo se permite la instalación de sistemas de contención de vehículos de clase A o B, según la Orden Circular 35/2014. Pero este tipo de barreras metálicas presenta todavía algunos inconvenientes, como por ejemplo la necesidad de reparación después del siniestro, con las consecuentes afectaciones en el tráfico y los costes de mantenimiento elevados que comportan.</p><p> </p><p>Por este motivo, en el marco del proyecto BAHORIS, financiado por el Centro para el Desarrollo Tecnológico Industrial (CDTI), el grupo de Tecnología de Estructuras de Hormigón de la UPC y las empresas GIVASA, SERVIÀ CANTÓ, EIFFAGE INFRAESTRUCTURAS y Applus+ IDIADA, han diseñado una nueva barrera de hormigón in situ continua, con una doble finalidad: garantizar el índice de severidad clase B y, por tanto, reducir las consecuencias sobre el conductor ante un impacto del vehículo; y construirla desde un punto de vista más sostenible, disminuyendo el consumo de material, mejorando la respuesta estructural y facilitando el mantenimiento una vez instalada en la carretera o bien en las tareas de reposición en caso de accidente.</p><p> </p><p>Con la solución desarrollada, certificada con el nivel B de severidad, según los investigadores de la Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos de Barcelona, se han conseguido los objetivos iniciales. Concretamente, se ha creado una barrera que permite reducir el grado de las lesiones en las víctimas de los accidentes tras impactar contra la barrera, en comparación con las de hormigón que existen actualmente. Esta mejora se ha obtenido a través de diversos factores: por un lado, optimizando la distancia entre las juntas de retracción (es decir, los cortes parciales de la barrera); por otro, mediante la configuración del material (hormigón reforzado) y adecuando el contacto directo o fricción con el suelo. Además, se ha mejorado la forma del perfil de la barrera y ahora se garantiza que el vehículo se pueda redireccionar, de manera gradual y suave, para evitar que se pierda el control de la conducción o la invasión del carril contrario y de los adyacentes que van en la misma dirección.</p><p> </p><p>En cuanto al material, este nuevo modelo de barrera permite reducir entre el 3% y el 10% el consumo de hormigón respecto a alternativas similares. Esto comporta disminuir entre 13 y 55 toneladas de hormigón por kilómetro de barrera construida y evitar la emisión de entre 1,60 a 6,6 toneladas de CO2 por kilómetro de barrera construida.</p><p> </p><p>Desde el punto de vista económico, la nueva barrera es más competitiva que las de hormigón prefabricadas. Asimismo, requiere un mantenimiento prácticamente nulo, ya que no hace falta desinstalar ningún tramo después del siniestro de un turismo, con lo cual se minimizan las afectaciones del tráfico en caso de reparación, a diferencia de lo que ocurre con las barreras metálicas. Precisamente, el 10% de los problemas de congestión en las carreteras están directamente relacionados con las tareas de mantenimiento y reposición de las barreras, según estima la Federal Highway Agency (FHWA) de Estados Unidos.</p><p> </p><p>El trabajo realizado ha sido recogido en la tesis doctoral de Jordi Cañas, doctor ingeniero de Caminos, dirigida por los profesores Antonio Aguado y Albert de la Fuente, del Departamento de Ingeniería Civil y Ambiental de la UPC.</p><p>En el contexto del proyecto, en las instalaciones de Applus+ IDIADA se han realizado ensayos de impacto normalizado con diversos perfiles de barrera, previamente simulados con modelos numéricos avanzados. Este proceso ha permitido reducir el número de ensayos a escala real, ya que las variables geométricas y mecánicas se han analizado previamente a través de los resultados de simulación.</p><p>Igualmente, se han llevado a cabo ensayos de impacto de autobuses y camiones pesados para verificar que la barrera tiene suficiente capacidad de contención, y los primeros resultados son excelentes. El proyecto ha contado con el apoyo del RACC. (Fuente: UPC)</p>2016-12-15T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/168Tecnología: Sutiles emanaciones de helio como señal predictiva de un terremoto inminente2016-12-15T20:10:51+00:00Gestión Ingenio y Sociedad<p>Unos investigadores japoneses han comprobado que, tal como algunos sospechaban, hay una relación entre los niveles de helio en el agua subterránea y la cantidad de tensión ejercida sobre las capas de roca interiores de la Tierra. Esto se ha visto en localidades cercanas al epicentro del terremoto de Kumamoto de 2016. Los científicos esperan que el hallazgo lleve al desarrollo de un sistema de vigilancia capaz de detectar cambios de tensión que podrían hacer presagiar un gran terremoto.</p><p>Varios estudios, incluyendo algunos sobre el gran terremoto de Kobe, en Japón, en 1995, han indicado que podrían producirse cambios en la composición química del agua subterránea con anterioridad a los movimientos sísmicos. Sin embargo, los investigadores aún necesitaban acumular pruebas para vincular con suficiente certeza la aparición de terremotos con tales cambios químicos.</p><p>Un equipo de investigadores de la Universidad de Tokio en Japón y sus colaboradores encontraron que cuando la tensión ejercida sobre la corteza de la tierra era alto, también lo eran los niveles de un isótopo del helio, el helio-4, liberado en el agua subterránea en lugares próximos al epicentro del terremoto de Kumamoto, de magnitud 7,3, en el sudoeste de Japón, que causó 50 fallecimientos y graves daños materiales.</p><p>Yuji Sano y sus colegas utilizaron una bomba sumergible en pozos profundos para obtener muestras de agua subterránea a profundidades de 1.300 metros, de siete lugares situados en las zonas de falla en torno al epicentro, 11 días después del terremoto, en abril de 2016.</p><p>Unos investigadores japoneses han comprobado que, tal como algunos sospechaban, hay una relación entre los niveles de helio en el agua subterránea y la cantidad de tensión ejercida sobre las capas de roca interiores de la Tierra. Esto se ha visto en localidades cercanas al epicentro del terremoto de Kumamoto de 2016. Los científicos esperan que el hallazgo lleve al desarrollo de un sistema de vigilancia capaz de detectar cambios de tensión que podrían hacer presagiar un gran terremoto.</p><p>Varios estudios, incluyendo algunos sobre el gran terremoto de Kobe, en Japón, en 1995, han indicado que podrían producirse cambios en la composición química del agua subterránea con anterioridad a los movimientos sísmicos. Sin embargo, los investigadores aún necesitaban acumular pruebas para vincular con suficiente certeza la aparición de terremotos con tales cambios químicos.</p><p>Un equipo de investigadores de la Universidad de Tokio en Japón y sus colaboradores encontraron que cuando la tensión ejercida sobre la corteza de la tierra era alto, también lo eran los niveles de un isótopo del helio, el helio-4, liberado en el agua subterránea en lugares próximos al epicentro del terremoto de Kumamoto, de magnitud 7,3, en el sudoeste de Japón, que causó 50 fallecimientos y graves daños materiales.</p><p>Yuji Sano y sus colegas utilizaron una bomba sumergible en pozos profundos para obtener muestras de agua subterránea a profundidades de 1.300 metros, de siete lugares situados en las zonas de falla en torno al epicentro, 11 días después del terremoto, en abril de 2016.</p>2016-12-15T20:10:51+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/167Medio Ambiente: ¿Cómo afecta el cambio climático a los glaciares de la Isla Livingston?2016-12-07T15:21:27+00:00Gestión Ingenio y Sociedad<p>Aunque el calentamiento global ha provocado en las últimas décadas una pérdida generalizada de masa de los glaciares y ha contribuido al incremento del nivel mar, en los últimos años la tendencia se ha ralentizado en los glaciares de la periferia de la península antártica. Los datos más recientes muestran una recuperación de la superficie de parte de los glaciares de esta región.</p><p> </p><p>Un equipo de investigadores de la Universidad Politécnica de Madrid (UPM), en España, trabajará los próximos meses en la Isla Livingston para evaluar la tendencia actual y cómo los cambios del clima influyen en el estado de los glaciares. Mediante el empleo de mediciones con georradar por tierra y aire, tanto desde la superficie del glaciar como desde helicóptero, investigadores del Grupo de Simulación Numérica en Ciencias e Ingeniería de la ETSI de Telecomunicación de la UPM estudiarán la velocidad del hielo y los procesos de acumulación–ablación en la superficie del glaciar.</p><p>Durante la primera parte de la campaña, los científicos se centrarán en realizar mediciones para determinar el espesor de hielo de los glaciares. “Se llevarán a cabo en zonas de la isla alejadas de la Base Antártica Española Juan Carlos I, para lo que se realizarán expediciones con un convoy de motos de nieve que arrastran trineos que transportan los sistemas emisor y receptor del georradar, así como material para acampadas”, explica Francisco Navarro, investigador principal del proyecto.</p><p>Dado que la presencia de grandes grietas en las zonas terminales de los glaciares impide realizar las medicines desde la superficie, los investigadores de la UPM utilizarán un helicóptero para acceder a las mismas. Para ello, se instalará el georradar en una estructura de madera que se transporta suspendida desde un helicóptero y los expertos operarán con él desde el interior de la cabina usando un sistema de control remoto.</p><p> “Estas medidas en las zonas próximas a los frentes glaciares son de especial relevancia, ya que son esenciales para las estimaciones de la descarga de hielo al océano en forma de icebergs y el estudio de la contribución de esta descarga de hielo glaciar al aumento del nivel del mar”, señala Navarro.</p><p><img src="/public/site/images/mikhail/Glaciares_de_las_Islas_Livistong.JPG" alt="" /></p><p>Durante la estancia en la isla de los investigadores también se realizarán tareas de monitorización del balance de masa de los glaciares Johnsons y Hurd, que forman parte de la red del World Glacier Monitoring Service. El balance de masa es el resultado neto de las ganancias de masa por precipitación en forma de nieve y las pérdidas de masa glaciar por la fusión del hielo y la nieve y el desprendimiento de icebergs.</p><p>Estos trabajos cobran especial interés puesto que el enfriamiento detectado durante la última década en la región de la península antártica, junto con el aumento de precipitaciones por la intensificación en esta zona de los ciclones que se desplazan de oeste a este alrededor de la Antártida, han hecho que el balance de masa reciente en la superficie de estos glaciares pase a ser positivo.</p><p>“Estos glaciares están ganando masa en su superficie, aunque todavía tienen una pérdida neta de masa debido precisamente a la descarga de hielo al océano en forma de icebergs, junto con la fusión submarina en los frentes glaciares. Todo ello, refuerza el interés de las medidas de descarga glaciar que llevaremos a cabo en esta campaña porque nuestros estudios contribuirán a mejorar el conocimiento de la respuesta de los glaciares al cambio climático”, aseguran los investigadores. (Fuente: UPM)</p>2016-12-07T15:21:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/166Tecnología: Nuevo récord de eficiencia en células solares de tipo perovskita2016-12-07T15:17:13+00:00Gestión Ingenio y Sociedad<p>Son flexibles, baratas y simples de fabricar, razones por las cuales los materiales basados en la perovskita son los más atractivos en el diseño de células solares. Y ahora, unos ingenieros de la Universidad de Nueva Gales del Sur en Sídney, Australia, han batido el récord de eficiencia mundial del nuevo compuesto de moda.</p><p>El equipo de Anita Ho-Baillie, de la citada universidad y del Centro Australiano para la Fotovoltaica Avanzada (ACAP, por sus siglas en inglés), ha logrado la más alta puntuación de eficiencia con las mayores células solares de tipo perovskita hasta la fecha.</p><p>El índice de eficiencia del 12,1 por ciento correspondió a una célula solar de 16 centímetros cuadrados, la mayor célula fotovoltaica individual de tipo perovskita certificada con la más alta eficiencia de conversión de energía, y esto fue confirmado con imparcialidad por el centro de pruebas internacional de Newport Corp., en Bozeman, Montana, Estados Unidos. La nueva célula es al menos 10 veces más grande que las actuales células solares de perovskita de alta eficiencia certificadas y registradas.</p><p>El equipo de Ho-Baillie ha alcanzado también un índice de eficiencia del 18 por ciento en una célula solar individual de tipo perovskita de 1,2 centímetros cuadrados, y un 11,5 por ciento para un minimódulo de cuatro células de tipo perovskita de 16 centímetros cuadrados, en ambos casos certificado de manera imparcial por Newport.</p><p>Las primeras células solares de tipo perovskita tenían una eficiencia de tan solo el 3,8 por ciento, y desde entonces esta ha ido creciendo con suma rapidez. De hecho, Ho-Baillie está convencida de que ella y sus colaboradores pueden llegar al 24 por ciento en un plazo aproximado de un año.</p><p>No se puede negar que las células solares de esta clase son la tecnología solar con avances más rápidos hasta la fecha, y a ello hay que añadir su gran atractivo por lo barato de sus materias primas, la sencillez de su fabricación (lo cual se traduce también en un bajo costo de fabricación) y su facilidad de aplicación, ya que el material puede incluso ser rociado sobre superficies, a modo de pintura.</p><p>La diversidad de las composiciones químicas de estas prometedoras células solares también permite que estas sean transparentes para los ojos humanos, o que puedan tener diferentes colores.</p><p>La mayoría de las células solares comerciales en el mundo están hechas de cristal de silicio refinado y muy purificado y, como la mayoría de las células de silicio comerciales más eficientes, su proceso de fabricación implica temperaturas por encima de los 800 grados centígrados. En cambio, los materiales basados en la perovskita se fabrican a bajas temperaturas y además permiten células solares 200 veces más delgadas que las de silicio.</p><div> </div>2016-12-07T15:17:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/165Otros artículos: Qué dicen las probabilidades sobre los accidentes de aviones2016-12-06T16:11:57+00:00Gestión Ingenio y Sociedad<div class="CONTENIDO "><div class="contenido_real"><div class="NOTICIA"><div class="ENTRADA html"><img src="/public/site/images/mikhail/Accidentes_de_aviones.JPG" alt="" /></div><div class="ENTRADA html">Esta semana conmocionó al mundo la noticia de la caída del avión que transportaba al equipo brasilero Chapecoense y surgieron nuevamente las estadísticas sobre los accidentes aéreos y la seguridad. Un especialista de la Universidad Nacional del Litoral (UNL), en Argentina, explica qué dicen las probabilidades sobre el transporte catalogado como el más seguro de todos.</div><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Según Roberto Meyer, titular de Estadística de la Facultad de Ciencias Económicas (FCE) de la UNL, la idea de que los aviones son el tipo de movilidad más seguro se fundamenta en lo que se conoce como “cálculo accidentológico por tipo de medio de transporte”, que se realiza sobre la base de varios factores: “Los más sobresalientes son la cantidad de accidentes por distancia recorrida, cantidad total de transportes, cantidad de pasajeros transportados total y accidentes en ruta, es decir, una vez que se comienza el viaje. De acuerdo con esas variables de referencia el transporte aéreo resulta en menor proporción de accidentes. Lo que no dice este indicador -se trata de un indicador y como tal es una reducción de la complejidad del fenómeno que intenta describir- es que cada vez que se produce un accidente aéreo la cantidad de víctimas suele ser marcadamente mayor que, por ejemplo, un accidente vial de un bus, por citar un medio de transporte masivo”, explicó.</p><p>En todo este asunto interviene la probabilidad que, según Meyer, es una frecuencia teórica proveniente de un modelo matemático probabilístico. En el caso de los accidentes de aviones se trata de una frecuencia empírica, ya que se basa en los eventos que han ocurrido sobre la cantidad total de eventos posibles, es decir, de accidentes y viajes. “Cuando una frecuencia empírica se interpreta como una probabilidad se debe tener en cuenta que cada uno de los eventos deben ser equiprobables (de igual probabilidad individual) y esta es la clave para comprender algunas situaciones”, comentó.</p><p>“Es así puesto que, interpretando ahora lo sucedido, todos los aviones y todas las empresas deberían respetar a rajatabla los procedimientos de aseguramiento de la calidad del vehículo, el avión. No debería haber posibilidad de error humano, no debería haber posibilidad de interacción con otros eventos que puedan afectar la condición del transporte (ataque aéreo por ejemplo), lo cual es prácticamente imposible. Por lo tanto, la realidad es que estas probabilidades difícilmente son las que deban tenerse en cuenta a la hora de viajar, ya que cuando el accidente, sea aéreo o terrestre, se produce es porque ha habido un error humano, una falla mecánica o ha intervenido un factor externo, todas cuestiones que están fuera del protocolo previo”, argumentó Meyer, que también dirige el Observatorio Social de la UNL.</p><p>Es por eso que las probabilidades que deberían tenerse en cuenta al momento de analizar los accidentes son las denominadas “probabilidades condicionales o condicionadas”, aclaró. “Es algo así como responderse a la pregunta 'dado que un avión se queda sin combustible por falla humana o mecánica, ¿cuál es la proporción, frecuencia o probabilidad histórica de que se produzca un accidente?'. Si tuviéramos el conocimiento de esa probabilidad, seguramente sería más alta que la probabilidad simple mencionada como referencia”, continuó.</p><p>Hace unos años desarrolladores londinenses habían creado una aplicación para celulares que podía estimar las posibilidades de accidente de un avión si se incluían datos como empresa aérea, salida, destino y línea aérea. Según la app, en un vuelo desde Santiago de Compostela a Madrid, por ejemplo, las probabilidades de accidente eran tales que había que tomar el mismo vuelo una vez al día durante 10 mil años para sufrir uno. ¿Quiere decir que si hoy cae un avión, mañana es seguro que no caerá otro? Para Meyer, este es un razonamiento incorrecto.</p><p>“No es un razonamiento correcto puesto que las probabilidades simples antes mencionadas nada tienen que ver con las denominadas probabilidades de rachas. Las rachas -secuencia de eventos- son eventos compuestos por una sucesión de resultados de eventos: se cae, no se cae, se cae. Entonces sería un tipo de racha que se podría interpretar como 'hoy se cae un avión, mañana no se cae y pasado se cae otro'. Esta racha tendrá una probabilidad que corresponde a un evento compuesto y no a un evento simple como el que se informa tradicionalmente 'probabilidad de que hoy caiga un avión'”, aseveró.</p><p>En este sentido, el especialista aclaró que el hecho de que haya una probabilidad en 10 mil vuelos de que un avión caiga sólo nos indica una frecuencia y no cuándo se dará el evento de interés (en el primer vuelo, el segundo o en el milésimo). “Es simplemente una proporción. Podría suceder que la semana que viene se produzcan cinco eventos (accidentes) y luego no se produzca ninguno en los próximos 30 millones de viajes, por citar un número, pero aún así la proporción sería 1/10 mil. Esta característica de los fenómenos aleatorios se denomina 'regularidad estadística' y significa que cuanto más se repita el proceso aleatorio, más cercana estará la frecuencia de resultados de eventos de interés a ese número entre cero y uno que denominamos probabilidad o frecuencia teórica”, finalizó. (Fuente: UNL/DICYT)</p></div></div></div></div>2016-12-06T16:11:57+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/164Ciencia: El origen del párkinson puede estar en el intestino2016-12-06T15:57:32+00:00Gestión Ingenio y Sociedad<p>Los enfermos de párkinson suelen tener problemas digestivos años antes de sufrir los primeros síntomas de su enfermedad. Se ha especulado con que esta dolencia neurodegenerativa nazca en las tripas y viaje más tarde al cerebro, pero nadie ha conseguido una prueba fehaciente de este extraño vínculo. Hasta hoy, cuando un equipo de investigadores estadounidenses ha dado a conocer en la revista Cell los resultados de su trabajo. Según han comprobado en ratones genéticamente predispuestos a la enfermedad de Parkinson, los microbios intestinales pueden desempeñar un papel esencial en los trastornos del movimiento típicos de esta dolencia.</p><p>En sus ensayos con roedores que sirven de modelo para la enfermedad, el tratamiento con antibióticos redujo los déficits motores y las características moleculares de la patología, mientras que el trasplante de microbios intestinales de pacientes enfermos exacerbó sus síntomas.</p><p>Los científicos, investigadores del Instituto de Tecnología de California (EE UU), consideran que estos hallazgos podrían conducir a nuevas estrategias de tratamiento para la segunda enfermedad neurodegenerativa más común en el país norteamericano.</p><p>“Por primera vez hemos descubierto un vínculo entre el microbioma intestinal y el párkinson”, explica Sarkis Mazmanian, uno de los autores del trabajo, que insiste en que las enfermedades neurodegenerativas podrían tener su origen en el intestino y no solo en el cerebro.</p><p>“El descubrimiento de que los cambios en el microbioma pueden estar involucrados en la enfermedad de Parkinson es un cambio de paradigma y abre nuevas posibilidades para el tratamiento de los pacientes", añade.</p><p>La enfermedad de Parkinson es causada por la acumulación en las neuronas de proteínas α-sinucleína anormales, lo que ocasiona efectos particularmente tóxicos en las células que liberan dopamina en las regiones cerebrales que controlan el movimiento.</p><p>Como resultado, los pacientes experimentan temblores, rigidez muscular, lentitud de movimiento y deterioro al caminar. Las terapias actuales se centran en aumentar los niveles de dopamina en el cerebro, pero estos tratamientos pueden causar efectos secundarios graves y a menudo pierden efectividad con el tiempo.</p><p>Para abordar la necesidad de tratamientos más seguros y eficaces, los investigadores empezaron a analizar la microbiota intestinal y observaron que los pacientes poseen una flora alterada, con problemas gastrointestinales y alteraciones como estreñimiento, que con frecuencia degeneran en déficits motores en estos individuos.</p><p>Pero, aunque se ha demostrado que los microbios intestinales influyen en el desarrollo neuronal, capacidades cognitivas, ansiedad, depresión y autismo, hasta ahora la evidencia científica sobre su papel en las enfermedades neurodegenerativas ha sido escasa.</p><p>El experimento se realizó en ratones modificados genéticamente con una enfermedad de tipo párkinson que vivían en jaulas normales, no estériles o en un ambiente libre de gérmenes. Los ratones criados en las jaulas libres de gérmenes mostraron menos déficit motores y menos agregados de proteína α-sinucleína mal plegada en las regiones del cerebro involucradas en el control del movimiento.</p><p>De hecho, estos ratones mostraron un rendimiento casi normal en tareas como recorrer una viga, retirar un adhesivo de su nariz o descender por un poste. El tratamiento con antibióticos tuvo un efecto similar al ambiente libre de gérmenes en la mejora de los síntomas motores en ratones predispuestos a estos trastornos.</p><p>Por el contrario, los ratones criados en las jaulas libres de gérmenes mostraron peores síntomas motores cuando fueron tratados con metabolitos microbianos, llamados ácidos grasos de cadena corta, o recibieron trasplantes fecales de microbios intestinales de pacientes afectados.</p><p>Es importante señalar que, en este estudio, los microbios intestinales cooperan con un factor genético específico para influir en el riesgo de desarrollar la enfermedad –los investigadores utilizaron un modelo específico de ratón–. De hecho, los roedores genéticamente normales no desarrollaron síntomas motores después de recibir trasplantes fecales de pacientes.</p><p>Los resultados indican que ciertos microbios intestinales empeoran los síntomas motores al crear un ambiente que podría favorecer la acumulación de agregados de proteína mal plegados.</p><p>Sin embargo, los antibióticos o los trasplantes de microbios fecales están lejos de ser terapias viables en este momento. "El uso de antibióticos como los que utilizamos en este estudio posee riesgos para los seres humanos, como defectos en la función inmunitaria y metabólica", advierten los autores. "Todavía no tenemos datos sobre qué especies son problemáticas o beneficiosas en párkinson".</p><p>“La identificación de especies microbianas o metabolitos alterados en la enfermedad de Parkinson puede servir como biomarcador o incluso diana de posibles fármacos”, concluye el grupo de expertos. (Fuente: SINC)</p>2016-12-06T15:57:32+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/163Medio Ambiente: Cambio drástico y rápido de pluviosidad por efecto de un cambio climático2016-12-06T15:50:25+00:00Gestión Ingenio y Sociedad<p>Hace unos 14.000 años, el sudoeste de Estados Unidos era frondoso y verde, y constituía el hogar de tigres dientes de sable, mamuts y otras grandes bestias. Mientras tanto, el noroeste, junto al Pacífico, poseía principalmente prados.</p><p>Todo ello cambió a medida que finalizaba la última era glacial. Es previsible que hubiera cambios climáticos con el deshielo global, pero lo que sorprende es la rapidez con la que variaron los patrones climáticos y de precipitación. Según una nueva investigación, realizada por el equipo de Juan Lora y Aradhna Tripati, de la Universidad de California en Los Ángeles (UCLA), Estados Unidos, el colapso de una inmensa capa de hielo en lo que es hoy en día el oeste de Canadá desencadenó una reorganización de la corriente en chorro en el transcurso de apenas 100 años, un parpadeo para la escala geológica del tiempo.</p><p>Investigaciones anteriores mostraron que estos cambios habían sucedido, pero no aclararon por qué ni la velocidad con la que ocurrieron. Básicamente, el clima cambió drásticamente en el transcurso de una vida humana. Hubo una configuración muy estable y constante durante decenas de miles de años, hasta esa época en la cual cambió súbitamente, dando paso al clima que ahora conocemos</p><p>La corriente en chorro se desplazó unos 800 kilómetros al norte, llevándose con ella humedad y precipitaciones del sector adyacente al Pacífico. Eso transformó el noroeste de Norteamérica, pasando de las praderas a los grandes bosques que conocemos actualmente, mientras que el sudoeste estadounidense, antaño exuberante y verde, se secó y buena parte de él se convirtió en casi un desierto. Los grandes animales que dependían de un ecosistema frondoso, como los mamuts y los tigres dientes de sable, se extinguieron en el plazo de unos pocos miles de años.</p>2016-12-06T15:50:25+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/162Tecnología: Un nuevo dispositivo obtiene imágenes en 3D a partir de radiografías2016-12-06T15:47:38+00:00Gestión Ingenio y Sociedad<p>Un equipo de investigadores del Consejo Superior de Investigaciones Científicas (CSIC), en España, ha patentado un sistema que obtiene imágenes 3D a partir de una imagen radiográfica. El dispositivo reconstruye el cuerpo del paciente a partir de una imagen bidimensional mediante técnicas de captación del movimiento usadas en realidad aumentada. El objetivo es aplicar este sistema a los dispositivos existentes en los hospitales para realizar radiografías.</p><p> </p><p>“La realidad aumentada, utilizada en videojuegos como Pokémon Go, mejora el diagnóstico médico que se obtiene mediante una simple radiografía al unir la imagen de un entorno físico real con información externa virtual. Constituye una nueva línea de investigación para la física de partículas y permite el uso de detectores como los utilizados en el Gran Colisionador de Hadrones del CERN en otras disciplinas como la medicina”, explica el investigador del CSIC Francisco Javier Albiol, del Instituto de Física Corpuscular. Además, la reconstrucción basada en geometría proyectiva (técnica que permite establecer correspondencias entre dos imágenes como en el caso de la visión estereoscópica o entre la imagen y el contorno) posibilita la obtención de medidas exactas del cuerpo humano.</p><p> </p><p>Este método evita someter al paciente a elevadas dosis de radiación, como las que requieren otras técnicas de diagnóstico por imagen, como la Tomografía Axial Computarizada (TAC), en la que se realizan múltiples radiografías del paciente en distintos planos para reconstruir luego una imagen completa en 3D. El nuevo sistema permite extraer la información necesaria de una sola toma.</p>2016-12-06T15:47:38+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/161Ciencia: Descubren qué proteínas participan en la conversión de células adultas en células madre pluripotentes2016-11-22T16:28:23+00:00Gestión Ingenio y Sociedad<p>La Universitat de València (España) lidera un equipo de investigación que ha identificado qué proteínas participan en el inicio de la conversión de células adultas en células madre pluripotentes inducidas, a través de la fisión mitocondrial. El estudio molecular, aplicable en Medicina Regenerativa y carcinogénesis, ha sido publicado en la revista ‘Cell Cycle’, y concluye que sin estas proteínas, la reprogramación celular no podría producirse.</p><p> “Conocer este proceso puede dar lugar a que lo modifiquemos mediante compuestos químicos que alteren la función de las proteínas implicadas”, ha destacado Josema Torres, investigador del Departamento de Biología Celular de la Universitat de València.</p><p> </p><p>El trabajo ahora publicado, y en el que han participado también investigadores del Instituto de Investigación Sanitaria (INCLIVA) de Valencia y otras entidades, identifica la importancia de la fisión mitocondrial (un proceso por medio del cual se dividen las mitocondrias, orgánulos celulares responsables de la producción de energía en las células) para el proceso de reprogramación de células somáticas a células madre pluripotentes inducidas. Las primeras son las que forman los tejidos y órganos de un ser vivo, mientras que las segundas, las células madre, son las que tienen la capacidad de dividirse para regenerar las células dañadas en los tejidos, además de poder ser el origen de tumores.</p><p> </p><p>El artículo Dysfunctional mitochondrial fission impairs cell reprogramming describe la fisión mitocondrial como un proceso celular absolutamente necesario para que esta conversión celular pueda tener lugar.</p><p>Si en un estudio de este año en Nature Communications el equipo dirigido por Josema Torres, también investigador asociado del INCLIVA ya detalló que la fisión mitocondrial inducida durante el proceso de reprogramación celular en la mitocondria necesitaba de la proteína Drp1, ahora se ha identificado que las proteínas que reclutan a Drp1 en la mitocondria son Gdap1 y MiD51.</p><p>“La ausencia de cualquiera de ellas impide que se lleve a cabo la fisión mitocondrial y, por tanto, impide la reprogramación celular”, ha destacado Torres, quien apunta que hasta ahora el papel de estas proteínas en la fisión mitocondrial no era del todo conocido.</p><p>Las células madre pluripotentes son una herramienta fundamental en investigación biomédica y Medicina Regenerativa, si bien el proceso de reprogramación celular por el cual se producen es todavía desconocido. Las células madre pluripotentes inducidas (células iPS, del inglés induced-Pluripotent Stem cells) se obtienen en el laboratorio mediante manipulación genética a partir de células adultas extraídas de un organismo, como las células sanguíneas.</p><p>Otro aspecto relevante puesto de manifiesto por el equipo que firma el artículo es que cuando la mitocondria no puede fisionarse en respuesta al estímulo de crecimiento celular propiciado por el proceso de reprogramación, las células sanas frenan su crecimiento, de forma semejante a lo que ocurre en células cancerosas. Sin embargo y a diferencia de las células tumorales, este estancamiento en el desarrollo se produce sin daño en el genoma de las células. “Este freno del crecimiento celular durante la reprogramación de células sanas en ausencia de una fisión mitocondrial eficiente, sigue por tanto un mecanismo diferente al que utilizan las células tumorales”, concluye Torres.</p><p>El trabajo publicado, de ciencia básica, identifica los mecanismos moleculares que participan en un proceso biológico relevante, como es la reprogramación celular, e intenta responder a si las células sanas responden igual que las células tumorales cuando se inhibe el proceso de fisión mitocondrial, así como qué ocurre a nivel celular y molecular cuando se inhibe el proceso de fisión mitocondrial durante la reprogramación celular.</p><p>Por sus propiedades de división indefinida y pluripotencia, las células iPS constituyen una fuente ilimitada de cualquier tipo celular adulto, lo que permite obtener a partir de ellas las células afectadas en una enfermedad, que de otra manera no serían accesibles, en un número suficiente para su estudio.</p><p>De esta forma, se puede investigar en el laboratorio qué ocurre en las células enfermas de un individuo para que den lugar a la manifestación de la enfermedad. Estas cualidades las colocan en un lugar privilegiado para constituirse, en un futuro no muy lejano, como herramienta esencial en Medicina Regenerativa y en la industria farmacéutica. (Fuente: U. València)</p>2016-11-22T16:28:23+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/160Ciencia: El nuevo orbitador marciano de la ESA se prepara para su misión científica2016-11-21T00:00:00+00:00Gestión Ingenio y Sociedad<p>El Satélite para el estudio de los Gases Traza (TGO) ya se está preparando para llevar a cabo las primeras observaciones científicas de Marte durante las dos órbitas alrededor del planeta que comenzarán esta semana.</p><p>El orbitador de la misión ExoMars, fruto de la colaboración entre la ESA y Roscosmos, llegó al Planeta Rojo el 19 de octubre y entró en órbita según lo previsto, describiendo una amplia elipse que lo llevará desde una altitud entre 230 y 310 km por encima de la superficie marciana hasta una distancia de 98.000 km cada 4,2 días.</p><p>La misión científica principal comenzará una vez alcance la órbita casi circular, a unos 400 km sobre el planeta, tras un año de ‘aerofrenado’ en el que hará uso de la atmósfera para decelerar y cambiar su órbita gradualmente. Está previsto que las operaciones científicas completas comiencen en marzo de 2018.</p><p>No obstante, la semana próxima ofrecerá a los equipos científicos la oportunidad de calibrar sus instrumentos y realizar las primeras observaciones de prueba, ahora que el satélite se encuentra junto a Marte.</p><p>De hecho, el detector de neutrones ha permanecido activado durante gran parte del viaje del TGO al planeta y, en estos momentos, se encuentra recopilando datos para seguir calibrando el flujo de fondo y comprobando que nada ha cambiado desde que el módulo Schiaparelli se separó.</p><p>El detector medirá el flujo de neutrones desde superficie marciana creado por el impacto de los rayos cósmicos. La forma en que se emiten y su velocidad de llegada al TGO ofrecerán información a los científicos sobre la composición de la capa superficial.</p><p>En particular, dado que una cantidad ínfima de hidrógeno puede llegar a modificar la velocidad de los neutrones, el sensor podrá localizar los puntos en que podría existir agua o hielo hasta 1-2 m por debajo de la superficie.</p><p>Los otros tres instrumentos del orbitador tienen previsto realizar una serie de observaciones de prueba entre el 20 y el 28 de noviembre.</p><p>Durante la misión científica principal, dos conjuntos de instrumentos realizarán mediciones complementarias para inventariar de forma detallada la atmósfera y, en particular, los gases presentes en cantidades mínimas.</p><p>Resulta de especial interés el metano, que en la Tierra se produce sobre todo por actividad biológica o procesos geológicos, como ciertas reacciones hidrotermales.</p><p>Las mediciones se llevarán a cabo en distintos modos: apuntando hacia el Sol a través de la atmósfera, en el horizonte con luz solar dispersa por la atmósfera, y observando la luz solar reflejada por la superficie. Al estudiar la influencia en la luz solar, los científicos pueden analizar los componentes atmosféricos.</p><p>En las próximas órbitas, solo se podrá apuntar hacia el horizonte o directamente a la superficie. De esta forma, los equipos científicos podrá comprobar la orientación de sus instrumentos para prepararlos de cara a futuras mediciones.</p><p>También existe la posibilidad de que puedan detectar cierta luminiscencia nocturna natural: una emisión de luz en la alta atmósfera producida cuando los átomos se separan por la acción del viento solar y se reestructuran para formar moléculas, liberando energía en forma de luz.</p><p>Además, durante la segunda órbita, los científicos tienen previsto observar Phobos, la mayor de las dos lunas de Marte y la más cercana al planeta.</p><p>Por último, la cámara tomará sus primeras imágenes de prueba del planeta la semana que viene. En cada una de las dos órbitas, primero apuntará a las estrellas para autocalibrarse y medir la reflectividad superficial.</p><p>A continuación, apuntará a Marte.</p><p>Dada la actual órbita elíptica, el satélite estará al mismo tiempo más cerca y más lejos del planeta que durante su misión científica principal.</p><p>En el punto más cercano, sobrevolará la superficie a mayor velocidad que en la órbita circular final, lo que supone ciertas dificultades para determinar el momento justo en que se deberán tomar las imágenes.</p><p>La cámara está diseñada para capturar pares estéreo: primero toma una fotografía apuntando ligeramente hacia delante y, a continuación, la cámara rota para apuntar hacia atrás y tomar la segunda parte de la imagen; así, se captura la misma región de la superficie desde dos ángulos distintos. Al combinar este par de imágenes, se obtiene información sobre las alturas relativas de las formaciones en la superficie del planeta.</p><p>La semana que viene, el equipo de la cámara comprobará los tiempos internos para reprogramar los comandos con vistas a futuras observaciones científicas específicas. La alta velocidad y los cambios de altitud de la órbita elíptica harán difícil la reconstrucción estéreo, pero el equipo será capaz de probar el mecanismo de rotación estéreo y los distintos filtros de la cámara, y podrá ver cómo compensar la orientación del satélite respecto a la trayectoria en superficie.</p><p>Aunque no hay objetivos concretos que fotografiar, cerca del punto de máximo acercamiento durante la primera órbita, el satélite sobrevolará la región de Noctis Labyrinthus, donde intentará obtener un par de imágenes estéreo. En la segunda órbita, tendrá la oportunidad de capturar imágenes de Phobos.</p><p>Por último, la cámara se utilizará para capturar y analizar figuras que podrían estar relacionadas con fuentes y sumideros de gases, para así comprender mejor los distintos procesos que podrían producirlos. Las imágenes también se emplearán para buscar futuros lugares de aterrizaje.</p><p>“Estamos deseando poder probar los instrumentos en el entorno para el que fueron diseñados y obtener los primeros datos de Marte”, confiesa Håkan Svedhem, científico del proyecto TGO de la ESA.</p><p>Tras este breve periodo de demostración de los instrumentos científicos, que también servirá para probar la transmisión de estos datos a la Tierra junto con otros de los robots Curiosity y Opportunity de la NASA, todos los esfuerzos volverán a centrarse en las operaciones y preparativos necesarios para el aerofrenado que tendrá lugar el año que viene. (Fuente: ESA)</p>2016-11-21T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/159Ciencia: Analizando una mazorca de maíz de más de 5.000 años2016-11-21T14:40:38+00:00Gestión Ingenio y Sociedad<p>Unos investigadores han secuenciado el genoma de una mazorca de maíz (elote o choclo) de hace 5.310 años.</p><p>Hace alrededor de 9.000 años, en el actual México, la gente empezó a recoger y consumir teosinte, una planta silvestre. Con el transcurso de varios miles de años, la selección impulsada por los humanos ocasionó cambios físicos importantes en este vegetal, convirtiendo una planta poco productiva en el maíz moderno. El maíz, tal como lo conocemos hoy, tiene un aspecto tan diferente de su antepasado silvestre que hace un par de décadas los científicos todavía no habían alcanzado el consenso en relación con su verdadero ancestro.</p><p><img src="/public/site/images/mikhail/Mazorca_de_Maíz_de_hace_5000_años.JPG" alt="" /></p><p>Para entender mejor la historia de la domesticación de uno de los cultivos más habituales del mundo, el equipo de Nathan Wales y Jazmín Ramos-Madrigal, del Museo de Historia Natural de Dinamarca, secuenció el genoma de una mazorca de maíz de 5.310 años de antigüedad procedente del centro de México. La mazorca fue extraída de una cueva en el valle de Tehuacán, en la década de 1960, durante una gran expedición arqueológica liderada por Richard MacNeish.</p><p>Afortunadamente, el Museo Robert S. Peabody de Andover, Massachusetts, Estados Unidos, cuidó de forma excelente durante décadas del antiguo espécimen de maíz, uno de los cinco más viejos conocidos en el mundo. Wales señala que esta mazorca en particular y el ADN en su interior se han conservado inusualmente bien.</p><p>El equipo de Wales y Ramos-Madrigal ha descubierto que el maíz que se cultivaba en el centro de México unos 5.300 años atrás era genéticamente más similar al maíz moderno que a su antepasado silvestre. Por ejemplo, el maíz antiguo ya llevaba variantes genéticas responsables de hacer granos blandos, un rasgo habitual en el maíz moderno.</p><p>Lo recién descubierto ofrece una instantánea muy informativa de aquel punto de la historia evolutiva del maíz, y ayuda a reconstruir con mayor detalle su evolución a lo largo de 10.000 años, así como su domesticación. Además de aclarar cómo proporcionó el maíz un cimiento dietético para civilizaciones antiguas como la maya, los estudios como este pueden también ayudar a entender y mejorar líneas comercialmente importantes de maíz moderno.</p><p> </p>2016-11-21T14:40:38+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/158Ciencia: Un modelo matemático predice cómo se propagan las alteraciones de un sistema2016-10-26T00:00:00+00:00Gestión Ingenio y Sociedad<p>Supongamos que un individuo ingiere un medicamento y, horas más tarde, un análisis de sangre revela que la concentración de algunos metabolitos ha cambiado respecto a lo que sería habitual. Ante esta situación, el médico intenta interpretar la cadena de acontecimientos que traen estos cambios, pero se enfrenta a desafíos significativos. En primer lugar, hay miles de metabolitos y miles de reacciones bioquímicas que transforman unos metabolitos en otros.</p><p>Por otra parte, la estructura de la red metabólica se mantiene, pero las concentraciones de metabolitos han mutado por efecto de estas reacciones. En tercer lugar, el médico ignora el estado de la mayoría de los metabolitos, puesto que solo una parte de ellos, cerca del 10 %, se mide en un análisis de sangre. Con los datos que tiene a su alcance, no puede responder a preguntas como qué reacciones han provocado que la modificación metabólica se haya extendido, o cuántos metabolitos, que no se pueden medir, se han visto afectados.</p><p>Investigadores del grupo de investigación SEES:lab, del Departamento de Ingeniería Química de la URV, junto con investigadores de la Unidad de Investigación Biomédica del Departamento de Medicina y Cirugía, en España, han hecho frente a ese desafío y han comprobado los resultados en casos reales, con voluntarios que ingirieron un extracto de una planta para poner a prueba el resultado de un nuevo modelo matemático que han desarrollado.</p><p>Se trata de analizar un volumen muy elevado de información, buscar las conexiones entre los nodos y, finalmente, darles más o menos relevancia. Todo ello lo han aplicado a problemas dinámicos para poder saber por dónde se ha propagado en una red compleja una perturbación causada por factores externos. En definitiva, conocer una parte para poder prever el todo.</p><p>En contraste con lo que pasa, por ejemplo, con la propagación de una epidemia (normalmente se tiene la información completa del estado de las personas dentro de una red), las observaciones de determinadas modificaciones de una red dinámica suceden en poco tiempo, de modo que solo se puede hacer una observación parcial de ellas.</p><p> </p><p>Matemáticamente, se pueden encontrar soluciones a este problema dejando claro que las alteraciones se propagan siguiendo caminos en la red de interacciones entre las unidades del sistema (es decir, metabolitos, en el ejemplo estudiado). Un reto importante en muchas áreas, desde la biología hasta las ciencias sociales, es deducir las trayectorias de propagación de la observación de los efectos de las alteraciones.</p><p> </p><p>Según los autores, esta herramienta es capaz de prever la alteración de un red completa teniendo solo una parte de la información. Además, lo hace de forma automática y permite procesar un volumen muy elevado de información en poco tiempo. Los resultados, publicados en la revista Science Advances, sugieren que, más allá de prever las alteraciones en una serie de contextos, también se puede utilizar para guiar hipótesis y descubrimientos. Por ejemplo, ayudando en la identificación de la ramificación de puntos de los trazados de una alteración. (Fuente: Universitat Rovira i Virgili)</p>2016-10-26T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/157Tecnología: Científicos "entrenan" nanotubos de carbono para realizar tareas computacionales2016-10-21T17:57:29+00:00Gestión Ingenio y Sociedad<p>Una técnica computacional inspirada en la biología evolutiva hizo posible que nanotubos de carbono dispersos en cristal líquido se reordenasen mediante la aplicación de señales eléctricas, de manera tal que desempeñen el papel de un nanocircuito, para ejecutar tareas computacionales sencillas. Este experimento contó con la participación del físico brasileño Diogo Volpati y se dio a conocer en el artículo científico intitulado “Evolution of Electronic Circuits using Carbon Nanotube Composites”, que salió en Scientific Reports, una publicación del Grupo Springer Nature.</p><p><img src="/public/site/images/mikhail/nanotubos_de_cabón1.JPG" alt="" /></p><p>Volpati, quien actualmente es investigador de posdoctorado en la Mid Sweden University, en Suecia, participó en el estudio en el marco de su investigación intitulada “El control molecular en películas nanoestructuradas de nanotubos de carbono”, que cuenta con el apoyo de la FAPESP.</p><p>“En lugar de crear un circuito eléctrico paso por paso utilizando componentes discretos [capacitores, resistores, etc.], nosotros tomamos una cantidad de material y la ‘entrenamos’ para que desempeñase el papel del circuito y ejecutase la tarea computacional de separar conjuntos de datos. Este entrenamiento se concretó mediante el empleo de un algoritmo evolutivo, basado en conceptos de la biología”, declaró el investigador a Agência FAPESP.</p><p>En el experimento, los nanotubos se dispersaron sobre una matriz de cristal líquido. Una gota, de una magnitud de un microlitro, quedó pegada sobre un conjunto de electrodos que suministraron los inputs y outputs a la señal eléctrica. Sin esa señal, los nanotubos quedaron “desorientados”, es decir que se posicionaron en el medio de manera aleatoria. Con la aplicación de la señal, se reposicionaron moviéndose en el cristal líquido de acuerdo con las líneas de fuerza del campo eléctrico. Los investigadores probaron distintas concentraciones de nanotubos en la matriz de cristal líquido.</p><p>La figura publicada en esta página, una reproducción de la que se publicó en Scientific Reports, muestra esquemáticamente el experimento. El área gris corresponde a la gota de cristal líquido que contiene nanotubos, dispuesta sobre los electrodos (las líneas y los puntos amarillos). En el detalle del pequeño círculo, limitado por la circunferencia en línea de trazos rojos, los distintos electrodos se conectan únicamente a través de la red de nanotubos. Inicialmente, la falta de señal eléctrica deja a los nanotubos (los segmentos negros) desorientados. Las flechas en rojo apuntan hacia los electrodos que suministraron los estímulos eléctricos de entrenamiento. Los electrodos de las puntas son los encargados de realizar la tarea computacional, generada por el realineamiento de los nanotubos mediante la aplicación de los estímulos eléctricos de entrenamiento.</p><p>“Básicamente, el experimento consistió en modificar las características morfológicas y las propiedades eléctricas del material [el compuesto de nanotubos de carbono con cristal líquido] mediante el empleo de señales eléctricas. El objetivo de esta alteración fue ‘entrenar’ al material para que ejecute una tarea computacional dentro de la red de electrodos”, resumió Volpati.</p><p>La tarea computacional realizada –la separación de dos conjuntos de datos– es sumamente sencilla. Pero el objetivo del experimento no era la realización de una tarea compleja sino mostrar la prueba de principio de que podía “entrenarse” al material.</p><p>Para “entrenar” al material, las señales eléctricas destinadas a reordenar los nanotubos se aplicaron de acuerdo con un algoritmo evolutivo. “Teníamos datos mezclados pertenecientes a dos tipo distintos. Y le ‘solicitamos’ al material que los separase. Cada vez que el error en la separación aparecía en forma grande, promovíamos la ‘evolución’ del material al hacer pasar nuevamente la señal eléctrica entre diferentes electrodos. Y este proceso de entrenamiento y realización de la tarea se repitió varias veces, hasta que los errores se redujesen al mínimo aceptable”, detalló Volpati.</p><p>Tal como afirmó el investigador, no se espera que este abordaje computacional compita con las computadoras actuales, a base de silicio. Pero sí podrían fabricarse en breve dispositivos de baja potencia y bajo costo, destinados al procesamiento de señales analógicas, por ejemplo. A largo plazo, las posibilidades son inimaginables. Esta investigación definió todo un nuevo campo de estudios por explorarse.</p><p>“Nuestro abordaje demostró que una pequeña cantidad de material puede sustituir a un complejo circuito eléctrico. Basta con ‘entrenar’ al material a los efectos de que ejecute la tarea deseada. Así como un organismo biológico evoluciona y ejecuta tareas, demostramos que un material no biológico también puede evolucionar”, conjeturó el investigador. (Fuente: AGÊNCIA FAPESP/DICYT)</p>2016-10-21T17:57:29+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/156Otros artículos: Chimpancés enseñando a otros a manejar herramientas2016-10-21T17:47:50+00:00Gestión Ingenio y Sociedad<p>Se ha capturado mediante cámaras de video la primera evidencia documentada de madres chimpancé salvajes enseñando a sus crías a usar herramientas. Dichas cámaras se instalaron para registrar la actividad de uso de herramientas de los chimpancés en montículos de termitas en el Parque Nacional de Nouabalé-Ndoki, en la República del Congo.</p><p><img src="/public/site/images/mikhail/Chispaces1.JPG" alt="" /></p><p>La investigación la ha hecho el equipo de Stephanie Musgrave y Crickette Sanz, ambas de la Universidad Washington en San Luis de Misuri, Estados Unidos.</p><p>Los chimpancés en estado salvaje son unos usuarios excepcionales de herramientas, pero en contraste con los humanos, ha habido pocas pruebas hasta la fecha de que los adultos enseñen a los jóvenes a utilizarlas. La nueva investigación ha permitido ahora comprobar que las madres chimpancé en el Triángulo de Goualougo (un sector de dicho parque nacional) los enseñan transfiriendo a sus crías herramientas primitivas pero eficaces, improvisadas con ramitas cortadas, para capturar termitas. En esta población, los chimpancés seleccionan especies concretas de hierbas para fabricar sus “cañas de pescar”, y las producen con un diseño en particular. Al compartir las herramientas, las madres pueden enseñar a sus crías el material y la forma adecuados para fabricarlas.</p><p>Musgrave, Sanz y sus colegas captaron en video ejemplos de madres chimpancé salvajes pasando las herramientas de recogida de termitas a los chimpancés inmaduros y menos hábiles. Esta labor adicional, que resulta costosa para las donantes de las herramientas pero beneficiosa para los receptores de ellas, coincide con el criterio científico de qué es un acto de enseñanza.</p><p>Los chimpancés son excepcionales entre los animales por su propensión notable a hacer y usar herramientas. Dado que grupos diferentes de chimpancés usan tipos distintos de herramientas, el proceso de enseñanza podría también tener que ser adaptado para ajustarse a las condiciones locales.</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/21566/chimpances-ensenando-a-otros-a-manejar-herramientas/" target="_blank">NCYT</a></p>2016-10-21T17:47:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/155Ciencia: Identifican mecanismos biológicos conservados durante cientos de millones de años2016-10-21T17:03:43+00:00Gestión Ingenio y Sociedad<p>Investigadores del EMBL (Cambridge y Heidelberg) y de la Universidad de Washington (EE UU) presentan un análisis evolutivo de la fosforilación de proteínas de 18 especies de hongos que indica una rápida divergencia, con solo una pequeña fracción conservada durante cientos de millones de años.</p><p><img src="/public/site/images/mikhail/Hogos1.JPG" alt="" /> </p><p>El trabajo, liderado por Pedro Beltrão y Judit Villén, cuenta con la participación del grupo de investigación en Señalización Celular del departamento de Ciencias Experimentales y de la Salud (DCEXS), liderado por Eulàlia de Nadal y Francesc Posas, y publicado en la revista Science.</p><p>Las proteínas son fundamentales para la vida y la mayoría de los procesos que tienen lugar en las células los llevan a cabo estas moléculas. Para señalizar y regular las funciones de sus proteínas, los organismos han desarrollado un mecanismo rápido y versátil: la modificación o marca de las proteínas por fosforilación. Un mecanismo que, como todo proceso biológico, ha evolucionado durante cientos de millones de años.</p><p>"Este estudio trata de entender cómo funciona la evolución, que es la que nos indica cómo se adaptan las especies a los ambientes cambiantes durante muchas generaciones", comenta Beltrao. La mayoría de los estudios de evolución se centran en las diferencias en el ADN o el genoma, pero muchas de las consecuencias de estas diferencias que no son evidentes sólo mirando el ADN.</p><p> "Por ejemplo, cuando comparamos los seres humanos con los chimpancés, somos evidentemente diferentes, a pesar de una buena parte del material genético es más o menos el mismo. Nuestra tarea es averiguar cómo se genera la diversidad, por lo que podemos ver en detalle cómo evoluciona la vida", añade el científico.</p><p>Los investigadores han analizado la fosforilación de todas las proteínas de 18 especies de hongos diferentes para averiguar las diferencias y similitudes entre ellas y saber más de su conservación evolutiva. Este análisis ha descubierto que hay una rápida divergencia en las marcas de las proteínas, con solo una pequeña fracción conservada a lo largo de la evolución.</p><p>“En estos momentos en los que el análisis de los genomas se ha convertido en algo tan importante, no podemos olvidar que no basta con saber qué proteínas están presentes en una célula sino también cómo se regulan”, comentan los doctores de Nadal y Posas. “El estudio proporciona datos en este sentido. Se han descubierto marcas de regulación muy conservadas evolutivamente y por lo tanto nos enseña cómo se pueden regular estas proteínas, a la par que nos muestra cómo de rápido evolucionan posibles mecanismos reguladores a lo largo de la evolución para favorecer la adaptación”, dicen.</p><p>Exceptuando las marcas bien conservadas, los resultados del estudio muestran que la fosforilación de las proteínas a lo largo de la evolución ha sido muy dinámica, probablemente para poder contribuir a la diversidad entre especies y tener más herramientas para la adaptación a los cambios. Aquellas marcas que no han cambiado en el tiempo indican una relevancia en su función. La identificación de estas marcas tan antiguas permitirá hacer estudios funcionales, descubrir así su importancia y definir nuevas funciones conservadas en la evolución.</p><p>“Teniendo en cuenta que los hongos analizados están muy alejados desde un punto de vista evolutivo, creemos que la divergencia observada en la red de las modificaciones también se dará en otros organismos,” añaden los investigadores de la UPF. “De hecho, esta divergencia podría estar relacionada con el nicho ambiental específico de cada especie sugiriendo que es un proceso muy dinámico y responsable en parte de la diversidad que nos encontramos cuando comparamos diferentes organismos”, concluyen. (Fuente: DCEXS-UPF)</p>2016-10-21T17:03:43+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/154Tecnología: Diseñan dos vacunas universales contra el virus de la gripe2016-10-18T16:18:04+00:00Gestión Ingenio y Sociedad<p>Uno de los mayores inconvenientes en la lucha contra el virus de la gripe es que sus cepas cambian cada año, lo que obliga a formular nuevas vacunas todos los inviernos. Científicos de la Universidad de Lancaster (Reino Unido), la Universidad de Aston (Reino Unido) y la Universidad Complutense de Madrid han formulado dos vacunas, una específica para la población de los Estados Unidos y otra global, que evitarían este problema.</p><p>Según el estudio, la cobertura de la protección de la vacuna sería del 95% en la población estadounidense y de entre el 88% y el 97% en el resto del mundo. En estos momentos, los científicos están contactando con diferentes compañías farmacéuticas para que desarrollen las inoculaciones.</p><p>Las formulaciones están basadas epítopos T, pequeños fragmentos del virus reconocidos por los linfocitos T, que están validados experimentalmente. Ambas vacunas tienen el mismo componente de epítopos T CD4, pero varían en los T CD8.</p><p>Los linfocitos T son esenciales en la contención y eliminación de las infecciones virales. “Una vacuna T persigue la inducción de una memoria protectora en los linfocitos T”, destaca Pedro Reche, investigador del departamento de Microbiología I de la UCM y coautor del trabajo, publicado en Bioinformatics.</p><p>El trabajo ha utilizado herramientas de biología computacional para seleccionar los diferentes epítopos atendiendo a criterios inmunológicos, de conservación y cobertura. Todos los epitópos T seleccionados están verificados experimentalmente y son capaces de inducir una respuesta inmunitaria.</p><p>Las coberturas de ambas vacunas se han calculado utilizando frecuencias genéticas de moléculas HLA (implicadas en el reconocimiento inmunológico).</p><p><img src="/public/site/images/mikhail/Evolución_de_la_vacuna_contra_el_virus_de_la_gripe.JPG" alt="" /> </p><p>“La cobertura se corresponde con el porcentaje de la población que expresa alguna de las moléculas HLA que presentan los epítopos T incluidos en la vacuna. El cálculo es simple, lo complicado es obtener las frecuencias genéticas cuando se combinan distintas poblaciones”, mantiene Reche.</p><p>En cualquier caso, hasta que puedan ser inoculadas a la población, faltan varios años. “En invierno de 2017 dudo que podamos vacunarnos con esta formulación en concreto, aunque me consta que hay esfuerzos similares con formulaciones menos genéricas”, apunta el científico, quien también anticipa la necesidad de incorporar epítopos B que induzcan anticuerpos específicos. (Fuente: Universidad Complutense de Madrid)</p>2016-10-18T16:18:04+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/153Ciencia: Inesperado papel de la luz ultravioleta en la química cósmica que conduce a la vida2016-10-14T15:23:07+00:00Gestión Ingenio y Sociedad<p>La vida existe con una diversidad asombrosa de formas, pero si descomponemos a cualquier organismo hasta sus componentes más básicos, vemos que todo se reduce a unos pocos materiales que siempre son los mismos, esencialmente átomos de carbono conectados con otros de hidrógeno, oxígeno, nitrógeno y algunos elementos más. Pero ¿cómo se crean en el espacio estas sustancias fundamentales? Esta pregunta ha carecido de respuesta durante mucho tiempo. Y la información necesaria para contestarla se va descubriendo muy poco a poco.</p><p> <img src="/public/site/images/mikhail/Ionización_de_átomos_de_carbono1.JPG" alt="" /></p><p>Un nuevo estudio aporta datos que permitirán conocer un poco mejor cómo se forman las moléculas que son necesarias para construir otras sustancias esenciales para la vida. Gracias a los datos del Observatorio Espacial Herschel de la Agencia Espacial Europea (ESA), unos científicos han determinado que la luz ultravioleta de las estrellas desempeña un papel clave en la creación de estas moléculas, más importante que el ejercido por ciertos fenómenos generadores de turbulencia, a los cuales se venía atribuyendo un papel más relevante.</p><p> </p><p>Para llegar a sus conclusiones, el equipo de Patrick Morris, del Instituto Tecnológico de California (Caltech) en Pasadena, Estados Unidos, estudió los ingredientes de la química del carbono en la nebulosa de Orión, la región formadora de estrellas, y en especial de las de mayor masa, más próxima a la Tierra. Morris y sus colegas cartografiaron la cantidad, temperatura y movimientos de esos ingredientes en la nebulosa, donde hay fuertes emisiones de rayos ultravioleta.</p><p>En la Tierra, el Sol es la fuente de energía primaria para casi toda la vida en el planeta. Ahora, resulta que la luz estelar rige también la formación de sustancias que son precursoras de los ingredientes de la vida.</p><p> </p>2016-10-14T15:23:07+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/152Ciencia: Una inesperada similitud de la estrella Próxima Centauri con el Sol2016-10-14T15:02:46+00:00Gestión Ingenio y Sociedad<p>En agosto pasado unos astrónomos anunciaron que la estrella Próxima Centauri, la más cercana al Sol, alberga un planeta de tamaño terrestre (llamado Próxima b) en su zona habitable. A primera vista, Próxima Centauri no se parece en nada a nuestro Sol. Es una estrella enana roja pequeña y fría, con solo un décimo de la masa del Sol y con una milésima de su luminosidad. Sin embargo, una nueva investigación indica que se parece al Sol en un aspecto sorprendente: posee un ciclo regular de manchas estelares.</p><p><img src="/public/site/images/mikhail/estralla_centauro.JPG" alt="" /></p><p>El nuevo estudio lo ha llevado a cabo el equipo de Brad Wargelin y Jeremy Drake, del Centro para la Astrofísica (CfA) en Cambridge, Massachusetts, gestionado conjuntamente por la Universidad de Harvard y el Instituto Smithsoniano, todas estas entidades en Estados Unidos.</p><p>Las manchas estelares (como las manchas solares) son manchas oscuras sobre la superficie de la estrella en las cuales la temperatura es un poco inferior a la del entorno. Están provocadas por la acción de campos magnéticos. En buena parte, una estrella es una masa de plasma (gas ionizado). Los campos magnéticos pueden restringir el flujo del plasma y crear manchas. Los cambios en el campo magnético de la estrella pueden afectar al número y distribución de las manchas estelares.</p><p>Nuestro Sol experimenta un ciclo de actividad de 11 años. En el mínimo solar, apenas tiene manchas. En el máximo, normalmente más de 100 manchas cubren una extensión que no llega al 1 por ciento de la superficie solar, en promedio.</p><p>El equipo de Wargelin y Drake ha encontrado que Próxima Centauri experimenta un ciclo similar que dura siete años de pico a pico. Sin embargo, sus picos son mucho más espectaculares. Al menos una quinta parte de la superficie de la estrella queda cubierta por manchas al mismo tiempo. También, algunas de ellas son mucho más grandes en relación con el tamaño de la estrella que las de nuestro Sol.</p><p>La existencia de este ciclo en Próxima Centauri demuestra, en palabras de Drake, que el conocimiento científico sobre los procesos que generan los campos magnéticos de las estrellas tiene lagunas mayores de lo creído.</p><p>En el estudio no se ha examinado si el ciclo de actividad de Próxima Centauri afectaría a la potencial habitabilidad del planeta Próxima b.</p>2016-10-14T15:02:46+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/151Ciencia: Identificada una molécula clave en el desarrollo de la psoriasis2016-10-05T20:22:54+00:00Gestión Ingenio y Sociedad<p>Un estudio publicado en el Journal of Investigative Dermatology ha identificado una diana terapéutica potencial para tratar la psoriasis, una enfermedad inflamatoria crónica de la piel que afecta hasta a un 2 % de la población y que todavía no tiene cura. El trabajo demuestra que el gen TREX2 posee un papel relevante en la respuesta inflamatoria que se desencadena durante la enfermedad.</p><p>La investigación, liderada por investigadores del departamento de Patología y Terapéutica Experimental de la Facultad de Medicina y Ciencias de la Salud de la Universidad de Barcelona y del Instituto de Investigación Biomédica de Bellvitge (IDIBELL), en España, contribuye a aumentar el conocimiento sobre esta enfermedad inflamatoria compleja y multifactorial, y abre la puerta a desarrollar nuevas estrategias terapéuticas.</p><p>En el estudio, también participan expertos de los Centros Científicos y Tecnológicos de la UB (CCiTUB), el Instituto de Medicina Predictiva y Personalizada del Cáncer (IMPPC), el Hospital del Mar y la Universidad de Wake Forest (EE UU).</p><p>El gen TREX2 codifica para una exonucleasa que se había relacionado con el mantenimiento de la estabilidad genómica, y con determinados mecanismos tanto de reparación como de degradación del ADN. En estudios anteriores, el grupo de investigación observó que esta proteína se expresaba específicamente en la piel.</p><p>Además, el estudio del fenotipo de ratones deficientes para esta proteína revela que la pérdida de TREX2 provoca una susceptibilidad mayor a la carcinogénesis de piel inducida por genotóxicos como la radiación ultravioleta (UV).</p><p>Para profundizar en el papel de TREX2 en la homeostasis y patogénesis de la piel, los investigadores quisieron conocer la función de esta nucleasa en la psoriasis. Inicialmente, analizaron diferentes biopsias de pacientes y de personas sin la enfermedad. Luego, utilizando diferentes modelos de psoriasis en ratón, compararon la evolución de la enfermedad en ratones normales y deficientes para TREX2 con el propósito de inferir la función de esta molécula.</p><p>“Los resultados muestran que TREX2 tendría un papel relevante en la degradación del ADN en la epidermis psoriásica, al promover la respuesta inflamatoria característica de esta enfermedad”, explica Concepció Soler, responsable del estudio y profesora del Departamento de Patología y Terapéutica Experimental de la Universidad de Barcelona.</p><p>El estudio muestra que la piel de pacientes con psoriasis experimentan un fuerte aumento de la expresión de TREX2 que se concentra en el núcleo celular de los queratinocitos —las células más abundantes de la piel—, que proliferan, mueren y se diferencian de forma aberrante. Por tanto, los resultados sugieren una función importante de este gen en el procesamiento del ADN.</p><p>“En nuestro trabajo, ponemos de manifiesto el papel fundamental de TREX2 en la degradación del ADN y la consiguiente muerte celular del queratinocito, lo que influye en la respuesta inmunitaria de la piel. La liberación de varias señales por parte de las células de la piel que se están muriendo contribuye a generar y amplificar la respuesta inmunitaria crónica y la hiperproliferación y diferenciación anormal de la epidermis”, explica el primer autor del trabajo, Joan Manils, ahora investigador posdoctoral en el Instituto de Ciencias Biomédicas del Trinity College (Irlanda).</p><p>Los resultados definen TREX2 como una potencial diana terapéutica para abordar esta enfermedad con una estrategia diferente y más focalizada. “La mayoría de tratamientos actuales están dirigidos a bloquear la acción del sistema inmunitario, y si bien dan buenos resultados, son tratamientos de carácter crónico y comprometen la respuesta inmunitaria del enfermo”, explica Francisco Ciruela, coautor del estudio, profesor del departamento de Patología y Terapéutica Experimental de la UB y jefe del Grupo de Investigación de Neurofarmacología y Dolor en el IDIBELL.</p><p>El próximo objetivo de los investigadores será descifrar el mecanismo de acción completo de TREX2 en el desarrollo y mantenimiento de la psoriasis con el fin de diseñar estrategias terapéuticas para tratar la enfermedad. (Fuente: UB)</p><p> </p>2016-10-05T20:22:54+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/150Salud: Investigan las relaciones entre insuficiencia renal y depresión2016-10-03T18:02:54+00:00Gestión Ingenio y Sociedad<p>El psicólogo Sergio Rodríguez Bonilla, adscrito al Instituto Mexicano del Seguro Social (IMSS), determinó que pacientes nefrópatas con depresión se apegan a su tratamiento médico, incluyendo su dieta.</p><p>El investigador de la Unidad Médica de Atención Ambulatoria (UMAA) No. 28 realizó la investigación clínica Relación de la depresión con el control metabólico del paciente nefrópata, con el objetivo de diseñar acciones que eleven la calidad de vida de pacientes que acuden diariamente a sesiones de hemodiálisis en esa institución.</p><p>Para la Agencia Informativa Conacyt, Rodríguez Bonilla afirmó que la hipótesis de su trabajo partió de que se pensaba que todos los pacientes con insuficiencia renal padecían depresión y por ello se descuidaban y necesitaban atención psicológica.</p><p>“La hipótesis se basaba en la creencia de que por el hecho de estar ahí, tenían depresión, porque algunos pacientes saben que saldrán de la sala de hemodiálisis porque consiguieron la donación de un órgano o saldrán muertos; inició la investigación sobre el nivel de depresión entre los 80 pacientes de la sala de hemodiálisis, por los tres turnos”, expuso.</p><p>Rodríguez Bonilla dijo que los niveles de depresión fueron medidos a partir del Inventario de Depresión de Beck, un cuestionario que revela los grados de depresión que puede sufrir un paciente.</p><p>De los 80 pacientes nefrópatas en la UMAA No. 28, 35 por ciento tenía algún grado de depresión, 65 por ciento —más de la mitad— no presentaba algún tipo de depresión, que fue medida en los grados leve, moderada y grave. De 35 por ciento, al menos ocho por ciento presentó depresión severa, el resto presentaba depresión moderada y leve.</p>2016-10-03T18:02:54+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/149Medio Ambiente: En los océanos hay tres veces más tipos de virus de lo que se pensaba2016-09-29T20:43:52+00:00Gestión Ingenio y Sociedad<p>Un trabajo eleva a 867 el número de tipos de virus conocidos que viven en los océanos, y aporta nuevos datos sobre su relevancia ecológica. También hallan en los virus muchos genes funcionales con papel biogeoquímico en el océano, y que probablemente son transportados por los virus de una célula a otra. El nuevo catálogo de virus oceánicos se ha publicado en Nature.</p><p> </p><p>Las entidades biológicas oceánicas más pequeñas, los virus, aparte de muy abundantes, son mucho más diversos de lo que se pensaba, y son mediadores y moduladores de funciones biogeoquímicas oceánicas esenciales.</p><p> </p><p>Así lo demuestra un trabajo en el que han participado investigadores del Instituto de Ciencias del Mar de Barcelona (ICM), del CSIC, y que está liderado por la Ohio State University (EE.UU). El trabajo se publica hoy en la revista Nature.</p><p> </p><p>El trabajo ha sido posible gracias a las muestras recogidas por las expediciones Tara Oceans y Malaspina-2010, que dieron la vuelta al mundo estudiando los océanos. Los investigadores recogieron muestras del océano Atlántico, Pacífico, Índico y Mediterráneo, desde la superficie hasta los 4.000 metros de profundidad. A partir de las muestras recogidas, concentraron los virus y utilizaron herramientas bioinformáticas para analizarlas.</p><p> </p><p>"Hemos logrado reconstruir y catalogar una gran cantidad de virus genéticamente diferentes que se agrupan en grupos que comparten propiedades similares", explica Simon Roux, del laboratorio del profesor Matthew Sullivan, en la Ohio State University, que ha liderado el trabajo. "Este trabajo no sólo ha generado un catálogo relativamente completo de los virus oceánicos sino que también revela nuevos mecanismos con los que cuales los virus modulan los gases de efecto invernadero y la energía en los océanos", dice Matt Sullivan.</p>2016-09-29T20:43:52+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/148Salud: El tejido adiposo marrón activa el metabolismo de grasas y carbohidratos2016-09-29T00:00:00+00:00Gestión Ingenio y Sociedad<p>Es decir, que el tejido adiposo marrón (TAM) —principal órgano generador de calor en el cuerpo— es también un órgano endocrino que secreta factores señalizadores que activan el metabolismo de las grasas y los carbohidratos. El TAM ayuda a “quemar más calorías” y producir calor corporal a partir de las grasas.</p><p>Según los expertos, cuando hay una activación del TAM y se produce una alta oxidación de productos metabólicos para generar calor, este órgano también enviaría una serie de señales bioquímicas a todo el organismo para activar el metabolismo oxidativo global.</p><p>Identificar cuáles son estos factores liberados —que se denominan batoquinas— es el reto principal de los investigadores, además de conocer cómo actúan sus órganos diana, o si hay otros tejidos secretores de estos factores, etc.</p><p>Los factores más conocidos hasta ahora son el FGF21 (factor de crecimiento fibroblástico 21), la neurregulina 4 y la interleucina-6, entre otros compuestos que son el centro de una intensa actividad investigadora.</p><p>“Tejido adiposo blanco, hígado, corazón y, muy probablemente, páncreas y cerebro (considerando los puntos de regulación de las sensaciones de hambre y saciedad) son algunos de los órganos diana de las batoquinas”, subraya Villarroya. “También sabemos que algunos de los factores liberados por TAM, por ejemplo el FGF21, son capaces de atravesar la barrera hematoencefálica y actuar sobre áreas cerebrales”, concluye.</p><p>La función secretora del TAM como órgano endocrino se ha estudiado mediante modelos animales de laboratorio y cultivos celulares in vitro. En estudios con modelos animales, se han descrito mejoras en el curso de la diabetes —e incluso la obesidad— en ratones trasplantados con pequeñas muestras de tejido adiposo marrón.</p><p>Según los expertos, el TAM trasplantado liberaría factores que promueven el consumo de glucosa y la sensibilidad a la insulina (en general, un perfil metabólico más saludable).</p><p>“En el caso de la fisiología humana —señala Villarroya—, es esencial detallar si todas las batoquinas que se están identificando en modelos animales están también presentes en el TAM humano y se comportan de la misma forma. En un futuro, estas batoquinas se podrían considerar como candidatos muy potentes en el diseño de nuevos fármacos para tratar estas enfermedades. En el caso de los pacientes obesos con poca cantidad de TAM activo —y probablemente, menor liberación de batoquinas—, una primera estrategia terapéutica podría ser administrarles estas moléculas como fármacos”.</p><p>Sin embargo, trasladar esta investigación básica al ámbito clínico es un reto complicado, entre otras razones por la difícil disponibilidad de muestras obtenidas mediante biopsias en humanos. Por este motivo, entre otras estrategias, el equipo de Villarroya está desarrollando modelos celulares in vitro de adipocitos marrones humanos en cultivo que permitan validar en la fisiología humana los resultados obtenidos hasta ahora en los ratones. (Fuente: SINC)</p><p>Según el nuevo estudio, este tipo especial de grasa —motor de la termogénesis— también tiene una función endocrina capaz de activar el metabolismo lipídico y glucídico del conjunto del organismo, que se perfila como una futura diana terapéutica para tratar patologías como la obesidad.</p><p>“Tradicionalmente, el tejido adiposo marrón se contemplaba solo desde la visión de un órgano para quemar calorías, pero hemos constatado que su papel biológico también es endocrino”, detalla Villarroya, miembro del Instituto de Biomedicina de la Universidad de Barcelona (IBUB) y jefe del Grupo de Investigación de Genética y Biología Molecular de Proteínas Mitocondriales y Patologías Asociadas.</p><p>Esta nueva visión del TAM conlleva una revolución similar a la de hace unos años con el tejido adiposo blanco (TAB), que es la grasa más conocida. “Hasta los años 80 —explica Villarroya—, se creía que el TAB era una mera reserva de grasas. A partir de los 90, tras descubrir la leptina como factor hormonal liberado por el TAB, se encontraron otras adipoquinas (factores metabólicamente activos sintetizados por este órgano)”.</p>2016-09-29T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/147Salud: Las hormonas tiroideas disminuyen el desarrollo de fibrosis2016-09-29T20:30:45+00:00Gestión Ingenio y Sociedad<p>La fibrosis se caracteriza por la acumulación de matriz extracelular, sobre todo de colágeno, que conduce a la destrucción de la estructura y función del órgano afectado. Los procesos fibróticos constituyen un importante problema sanitario y son una de las causas principales de muerte en países desarrollados. Hasta el momento, no existen terapias capaces de revertir o parar su progresión.</p><p> </p><p>Se sabe que la proteína TGFb tiene un papel crucial en el desarrollo de la fibrosis, por lo que se ha propuesto el uso de inhibidores de este factor para controlar procesos fibróticos, pero los compuestos disponibles son muy tóxicos y por tanto no pueden ser utilizados clínicamente.</p><p> </p><p>Ahora, un estudio publicado en PNAS por científicos de la Universidad Autónoma de Madrid (UAM) y el Consejo Superior de Investigaciones Científicas (CSIC), en España, demuestra que la unión de la hormona tiroidea a su receptor nuclear frena las acciones del TGFb.</p><p> </p><p>“Hemos demostrado que la administración previa de hormonas tiroideas a ratones sometidos a tratamientos con drogas que inducen fibrosis, mejora de forma significativa la deposición de colágeno y los marcadores de fibrosis”, afirma Ana Aranda, del Instituto de Investigaciones Biomédicas “Alberto Sols” (centro mixto UAM-CSIC).</p>2016-09-29T20:30:45+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/146Tecnología: Nueva metodología que establece el margen de seguridad de las presas frente al riesgo de deslizamientos2016-09-29T20:29:44+00:00Gestión Ingenio y Sociedad<p>Juan Fullana, investigador del Instituto de Investigación del Agua y Medio Ambiente de la Universitat Politècnica de València (IIAMA-UPV), en España, ha desarrollado una metodología que establece el margen de seguridad de las presas frente a posibles deslizamientos, en función de la información disponible.</p><p> </p><p>Este trabajo es resultado de su tesis doctoral “Una contribución al establecimiento del margen de seguridad contra el deslizamiento de presas de gravedad en explotación en función de la información disponible”, dirigida por Ignacio Escuder Bueno, miembro del IIAMA-UPV y Luis Altarejos García, investigador de la Universidad Politécnica de Cartagena.</p><p> </p><p>El proyecto parte de la premisa de que en España, existen más de 1200 grandes presas en explotación, siendo construidas muchas de ellas, en los años 50, 60 y 70 del siglo XX con criterios de seguridad menos exigentes que los actuales. Por ello, para llevar a cabo las reglamentarias comprobaciones estructurales, la información disponible sobre cada una de estas infraestructuras es muy dispar, tal y como indica el autor del proyecto, Juan Fullana.</p><p> </p><p>“Hay grandes diferencias en cuanto al grado de conocimiento sobre la litología, caracterización mecánica de los materiales, geometría, subpresión o datos de auscultación entre otros aspectos. Además, la normativa tampoco regula taxativamente la mínima información que deba estar disponible sobre cada uno de estos parámetros para la evaluación de la seguridad”.</p><p> </p><p>Con el fin de abordar esta problemática, este estudio desarrolla un procedimiento para establecer el margen de seguridad necesario para la comprobación a deslizamiento, que “puede considerarse un intento de perfeccionar el procedimiento determinista o método de los coeficientes de seguridad”. De este modo, el coeficiente de seguridad se establece en función de la información disponible y su calidad, y de la incertidumbre sobre el conocimiento de su resistencia a deslizamiento, (vinculada a los parámetros resistentes adoptados, rozamiento y cohesión), que se clasifica en máxima, media o mínima”.</p>2016-09-29T20:29:44+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/145Otros artículos: El Sí de los maestros2016-09-07T14:35:53+00:00Gestión Ingenio y SociedadLa Federación de Educadores (Fecode) fue la primera gran organización que anunció su respaldo total a los acuerdos de La Habana y se comprometió a promover activamente la participación de la ciudadanía en el plebiscito. Ya habían manifestado su rechazo a las manifestaciones de ciertos sectores de la ciudadanía aupados por las jerarquías de la Iglesia y algunos sectores políticos que se resisten a aceptar que la diversidad sexual existe desde siempre y debe ser respetada.<br /><br />Nadie debería esperar una conducta diferente de quienes han optado por dedicar su vida a la formación de las nuevas generaciones. No podría imaginarse que justamente los maestros se dedicaran a promover entre niños y jóvenes actitudes de gallos de pelea, vendettas y odios insuperables. Por el contrario, la lucha diaria de cada comunidad educativa consiste en aprender a convivir, resolver los conflictos por la vía del diálogo, trabajar en equipo y valorar la diversidad como riqueza.<br /><br />Cómo van a oponerse a la solución civilizada de un conflicto de medio siglo quienes cada día ven en sus colegios los estragos de la violencia. Sería incomprensible que quienes se han mantenido allá, en los campos lejanos donde se ha librado la guerra, no supieran el significado de detener la muerte de sus niños, la descomposición de las familias o el reclutamiento de los estudiantes. Porque conviene recordar que donde las tomas guerrilleras, los bombardeos de cilindros y las extorsiones fueron desplazando a la gente y a los funcionarios, los maestros se mantuvieron en sus aulas. En la lista de víctimas hay educadores que a veces por su arraigo y a veces por su oficio fueron asesinados o desplazados.<br /><br />Una paz duradera comienza con el abandono de las armas, que felizmente ha sido pactado. Pero sabemos que no es suficiente mientras persistan la inequidad y la ignorancia. Estas son dos tragedias que deben superarse si el país quiere iniciar una nueva etapa de su proceso de civilidad. Abrir oportunidades de educación es indispensable para que quienes hoy inician su camino en la vida puedan acceder a las mejores oportunidades que ofrecen el país y el mundo. Pero también se requiere conocer la historia, ser capaces de participar en la vida pública y leer con capacidad crítica los discursos mentirosos de quienes desde cualquier orilla ideológica pretenden manipular a un pueblo que consideran tonto e ignorante.<br /><br />Para hacer verdadera democracia y desenmascarar a los demagogos que solo actúan por su interés personal se requiere una educación de la más alta calidad. Se necesitan maestros que comprendan que su acción política más importante es la formación de ciudadanos conscientes, capaces y convencidos de que pueden transformar la realidad para hacer un mundo mejor.<br /><br />Los esfuerzos de los últimos años para ampliar la oferta educativa y para avanzar en las condiciones de calidad deben ser sostenidos y deben involucrar cada vez más sectores de la sociedad. Colombia no puede darse el lujo de seguir teniendo una educación tan segmentada, con diferencias enormes entre la educación pública y la privada, los sectores rural y urbano, departamentos ricos y departamentos aislados de la modernidad. En este esfuerzo por la igualdad social tienen un papel esencial los maestros, pues son ellos quienes garantizan ese cambio social en cada colegio y en cada actividad pedagógica.<br /><br />No tengo duda alguna sobre el enorme impacto que tendrá en el país el compromiso de los educadores para promover un Sí enorme que abra nuevos horizontes a los niños, los jóvenes y las familias.<br /><br />Este debe ser un eje ineludible de la discusión sobre el Plan Decenal de Educación, pues en la década que viene no habrá ningún asunto más importante que la construcción de la paz, labor que se hace en la mente de cada ciudadano, en sus deseos y en su actitud frente a los otros.<br /><br /><strong><br />Francisco Cajiao</strong><br />fcajiao11@gmail.com2016-09-07T14:35:53+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/144Ciencia: Confirman el aparente hallazgo de una quinta fuerza de la naturaleza2016-08-22T14:45:26+00:00Gestión Ingenio y Sociedad<p>Unos descubrimientos recientes que indican el posible descubrimiento de una partícula subatómica previamente desconocida podrían ser la prueba de que existe una quinta fuerza fundamental de la naturaleza, según una nueva investigación.</p><p>Después de tanto tiempo asumiendo que son cuatro las fuerzas fundamentales (gravitación, electromagnetismo, y las fuerzas nucleares fuerte y débil), ahora parece que se ha descubierto una quinta. Si experimentos adicionales confirman su existencia, este descubrimiento cambiaría completamente nuestra comprensión del universo, con consecuencias para las teorías de unificación de las fuerzas y para las teorías sobre la identidad de la materia oscura, tal como subraya Jonathan Feng, coautor de la citada investigación y profesor de física y astronomía en la Universidad de California en Irvine, Estados Unidos.</p><p>Feng y sus colegas encontraron la pista inicial en un estudio de mediados de 2015, realizado por físicos nucleares experimentales de la Academia Húngara de Ciencias, que estaban buscando “fotones oscuros”, partículas que representarían a la invisible materia oscura, la cual constituye el 85 por ciento de la masa del universo. El trabajo de esos investigadores húngaros puso de manifiesto una anomalía en la desintegración radiactiva que apunta a la existencia de una partícula ligera, que solo sería unas 30 veces más pesada que un electrón.</p><p>Esos científicos no pudieron determinar que se tratase de una nueva fuerza. Simplemente vieron un exceso de eventos de partículas que indicaban la acción de una nueva, pero no estaba claro para ellos si era una partícula de materia o una partícula portadora de fuerza.</p><p>Feng y sus colegas estudiaron los datos de los investigadores húngaros así como todos los experimentos anteriores en este campo y han llegado a la conclusión de que las evidencias no respaldan la teoría de las partículas de materia ni la de los fotones oscuros. En cambio sí encajan con una nueva teoría que han propuesto y que sintetiza todos los datos disponibles. A la luz de esto, el descubrimiento podría indicar la existencia de una quinta fuerza fundamental.</p><p>El trabajo del equipo de Feng indica que en vez de ser un fotón oscuro, la partícula podría ser un “bosón X protofóbico”. La fuerza eléctrica normal actúa sobre electrones y protones, mientras que este bosón recién descubierto interactuaría solo con electrones y neutrones, y en un rango extremadamente limitado.</p>2016-08-22T14:45:26+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/143Tecnología: Raya robótica impulsada por células de rata activadas mediante luz2016-08-18T16:13:58+00:00Gestión Ingenio y Sociedad<p>Unos investigadores han creado una reproducción robótica de una raya que está energizada y guiada por células cardiacas de rata sensibles a la luz. Este último componente lo convierte en un cíborg, aunque su parte biológica esté bastante limitada.</p><p>Esta creación es obra del equipo internacional de Sung-Jin Park, del Instituto Wyss para la Ingeniería Biológicamente Inspirada, que está vinculado a la Escuela de Ingeniería y Ciencias Aplicadas (SEAS) de la Universidad Harvard, y que tiene su sede en Boston, Massachusetts, Estados Unidos.</p><p>Para el diseño, inspirado en estructuras biológicas naturales, se ha empleado un nuevo método de construir cíborgs a través de ingeniería de tejidos. Las rayas y otras criaturas acuáticas parecidas se distinguen por sus cuerpos planos y sus largas aletas parecidas a alas que se extienden desde sus cabezas. Estas aletas se mueven con ondulaciones energéticamente eficientes que se reproducen desde la parte frontal de la aleta a la trasera, permitiendo a estos animales planear elegantemente a través del agua.</p><p>Inspirados por este diseño, Sung-Jin Park y sus colaboradores se afanaron en construir un cíborg de textura blanda y tamaño pequeño, con cualidades y eficiencia similares a las de las rayas. Fabricaron esqueletos metálicos con carga neutra que imitan la forma anatómica de la raya y a los que se recubrió con una delgada capa de polímero elástico.</p><p>A lo largo de la parte de arriba del cuerpo robótico de la raya, los investigadores alinearon estratégicamente cardiomiocitos de rata (células musculares). Estos, al ser estimulados, contraen las aletas hacia abajo. Dado que estimular las aletas para que giren en un movimiento hacia arriba requeriría una segunda capa de cardiomiocitos, los investigadores diseñaron en su lugar el esqueleto metálico de tal modo que almacena algo de energía descendente, que es más tarde liberada cuando las células se relajan, permitiendo a las aletas elevarse.</p>2016-08-18T16:13:58+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/142Tecnología: Pila eléctrica capaz de deshacerse en agua2016-08-11T14:38:21+00:00Gestión Ingenio y Sociedad<p>Los dispositivos electrónicos capaces de autodestruirse de manera inocua podrían evitarles a los pacientes una intervención quirúrgica extra para retirar del interior de su cuerpo un aparato médico que ha finalizado su labor. También podrían permitir que los sensores medioambientales fueran eliminados por la lluvia en vez acumularse como desechos en el medio ambiente. Y por supuesto, también podrían impedir que los secretos militares o de otro tipo cayeran en manos enemigas.</p><p>Fabricar tales dispositivos es el objetivo de un campo relativamente nuevo llamado “electrónica temporal”. Estos aparatos transitorios podrían llevar a cabo una serie de funciones, hasta que la exposición a la luz, el calor o un líquido desencadenaran su destrucción.</p><p>Reza Montazami, profesor de ingeniería mecánica en la Universidad Estatal de Iowa, en Estados Unidos, ha estado trabajado en tecnología temporal durante años. El último avance de su laboratorio es una batería de iones de litio que es capaz de autodestruirse. Su autodestrucción se activa cuando se la deja caer en agua. A partir de ese momento, tarda solo 30 minutos en disolverse o disiparse.</p><p>La batería puede suministrar 2,5 voltios y es capaz de energizar una calculadora de sobremesa durante unos 15 minutos.</p><p>Se puede considerar a esta como la primera batería temporal de la que se ha demostrado la potencia, la estabilidad y la vida útil necesarias para un uso práctico.</p><p>Con esta pila han trabajado, además de Montazami, sus colaboradores Nastaran Hashemi, Simge Çinar, Yuanfen Chen, Reihaneh Jamshidi, Kathryn White, y Emma Gallegos.</p><p>En el anterior proyecto de Montazami, de demostración del concepto, se utilizó electrónica impresa en una sola capa de un compuesto de polímero degradable.</p><p>La batería temporal está hecha de ocho capas, incluyendo un ánodo, un cátodo y el separador electrolítico, todas envueltas por dos capas de un polímero soluble en agua.</p><p>La batería es diminuta; mide aproximadamente 1 milímetro de grosor, 5 milímetros de ancho y 6 de largo.</p><p>Cuando se deja caer la batería en el agua, la carcasa de polímero se hincha, descompone los electrodos y se disuelve. Aunque, tal como Montazami se apresura a advertir, la batería no desaparece completamente. Contiene nanopartículas que no se degradan, pero que sí se dispersan a medida que la carcasa de la batería rompe los electrodos.</p>2016-08-11T14:38:21+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/141Tecnología: Hacia ordenadores cuánticos lo bastante miniaturizados2016-08-11T14:28:07+00:00Gestión Ingenio y Sociedad<p>Los ordenadores cuánticos son dispositivos en gran medida hipotéticos que podrían llevar a cabo ciertos cálculos mucho más rápidamente que los convencionales. En vez de los bits de la computación clásica, que pueden representarse como 0 o 1, los ordenadores cuánticos consisten en bits cuánticos, o qubits, que pueden, en cierta manera, representar simultáneamente el 0 y el 1.</p><p>Aunque se han demostrado en el laboratorio sistemas cuánticos de hasta 12 qubits, construir computadoras cuánticas lo bastante complejas como para llevar a cabo cálculos útiles precisará la miniaturización de la tecnología de los qubits, de un forma muy parecida a cómo la miniaturización de los transistores dio pie a los ordenadores modernos.</p><p><img src="/public/site/images/mikhail/Ordenadores_cuantícos.JPG" alt="" /></p><p>Los iones atrapados son probablemente la tecnología de qubits más estudiada, pero han requerido históricamente aparatos grandes y complejos. Ahora, unos investigadores del Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, y del Laboratorio Lincoln (dependiente del MIT) han dado un importante paso hacia los ordenadores cuánticos prácticos, ideando el prototipo de un chip que puede atrapar iones en un campo eléctrico y, con óptica integrada, dirigir luz láser hacia cada uno de ellos.</p><p>La instalación típica de una porción de una computadora cuántica experimental suele ser un voluminoso barril que posee un vacío en su interior, y dentro de él se encuentra la jaula que está atrapando a los iones. Aparte de esto, hay lo que básicamente es todo un laboratorio de óptica externa que guía los rayos láser hacia la concentración de iones, tal como explica Rajeev Ram, del MIT y miembro del equipo de investigación. Dicho en pocas palabras, el equipo ha tomado ese laboratorio externo y ha miniaturizado buena parte de él en un chip.</p>2016-08-11T14:28:07+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/140Tecnología: Investigan la creación de un nuevo tipo de plástico con las propiedades de un metal2016-08-10T14:42:19+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Investigadores del centro tecnológico Eurecat (miembro de Tecnio), en España, han comenzado una investigación para conseguir plásticos que funcionen como metales desde el punto de vista de la transferencia del flujo de calor, un campo con un alto potencial de usos industriales en ámbitos que van desde de las luminarias Led, los ventiladores y los refrigeradores hasta el mundo de la automoción y el hardware informático.</p><p>La investigación, enmarcada en la búsqueda del Eurecat Laboratory of the Future (E-LOF), busca lograr que "el plástico acabe siendo como un aluminio, con capacidad de calentarse en poco tiempo y de eliminar también de forma muy rápida y fácil el calor, tal como lo hacen los metales", explica el investigador de Eurecat Carles Rubio, que coordina la investigación y que es doctor en biofísica.</p><p>Según el investigador, "el proyecto será la antesala de los plásticos térmicamente disipativos", que podrán "trabajar termodinámicamente como, por ejemplo, lo hace un aluminio".</p><p>La investigación busca superar los inconvenientes actuales que presentan los plásticos a nivel de transferencia de calor, una limitación dada por el hecho de que "su estructura molecular es diferente a la de un metal o mineral, como por ejemplo el cuarzo. Son moléculas orgánicas donde la vibración de los fonones es más complicada a nivel de la transferencia de información, en este caso, el flujo de calor", añade Rubio.</p><p>Esta investigación, subraya el investigador, "permitirá abordar las mejoras de conductividad y de difusividad térmica en polímeros teniendo en cuenta los tipos de aditivos y cómo interaccionan a nivel molecular y mejorar, por tanto, esta propiedad del plástico”. (Fuente: Eurecat)</p></div>2016-08-10T14:42:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/139Tecnología: Célula solar que además captura CO2 y produce un combustible2016-08-05T14:37:52+00:00Gestión Ingenio y Sociedad<p>El equipo de Amin Salehi-Khojin, de la Universidad de Illinois en Chicago, Estados Unidos, ha modificado una célula solar potencialmente revolucionaria que convierte de forma barata y eficiente el dióxido de carbono atmosférico en combustible de hidrocarburos utilizable por motores ya existentes. Esta singular célula solar emplea solo luz solar como energía.</p><p>A diferencia de las células solares convencionales, que convierten la luz solar en electricidad que debe ser almacenada en baterías pesadas, el nuevo dispositivo esencialmente efectúa el mismo tipo de trabajo que desempeñan los vegetales durante la fotosíntesis, convirtiendo el dióxido de carbono atmosférico en combustible. De este modo, resuelve dos problemas cruciales a un tiempo. Una granja solar de tales “hojas artificiales” podría retirar cantidades notables de carbono de la atmósfera, ofreciendo así una vía para solucionar el problema de su abundancia excesiva en la atmósfera, y al mismo tiempo sería capaz de producir eficientemente combustible con suficiente densidad energética, solventando así el problema de la demanda no cubierta de biocombustibles sostenibles.</p><p>En definitiva, la nueva célula solar no es fotovoltaica sino fotosintética.</p><p>En vez de producir energía en una vía de dirección única y no sostenible (de combustibles fósiles a gas de efecto invernadero), ahora hay una vía tecnológica prometedora para invertir el proceso y reciclar el carbono atmosférico en forma de combustible usando luz solar.</p><p>El "combustible" elaborado por los vegetales es azúcar, mientras que el generado por la hoja artificial es gas natural sintético, una mezcla rica en gas hidrógeno y monóxido de carbono. El gas natural sintético puede ser quemado directamente, o convertido en gasóleo u otros combustibles de hidrocarburos.</p><p>La capacidad de convertir CO2 en combustible a un coste comparable al de elaborar un litro de gasolina dejaría obsoletos a los combustibles fósiles.</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/20628/celula-solar-que-ademas-captura-co2-y-produce-un-combustible/" target="_blank">ICYT</a></p><p><a href="https://news.uic.edu/breakthrough-solar-cell-captures-co2-and-sunlight-produces-burnable-fuel">Información adicional</a></p>2016-08-05T14:37:52+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/138Ciencia: ¿Es la vida de la Tierra un fenómeno prematuro en el universo?2016-08-04T16:29:38+00:00Gestión Ingenio y Sociedad<p>El universo tiene 13.800 millones de años, mientras que nuestro planeta se formó hace apenas 4.500 millones. Algunos científicos creen que este intervalo implica que la vida en otros planetas podría ser miles de millones de años más antigua que la nuestra. Sin embargo, un nuevo trabajo teórico sugiere que nuestra vida actual es en realidad prematura, desde una perspectiva cósmica. Teniendo en cuenta esto, la civilización humana quizá es la más antigua del universo.</p><p>“Si nos preguntamos, ‘¿Cuándo es más probable que surja la vida?’, podríamos responder ingenuamente que ‘Ahora’”, explica Avi Loeb, coautor del estudio. “Pero encontramos que la probabilidad de que aparezca vida crece mucho más en el futuro lejano”.</p><p>La vida tal como la conocemos comenzó a ser posible unos 30 millones de años después del Big Bang, cuando las primeras estrellas sembraron el cosmos con los elementos necesarios, como el carbono y el oxígeno. Según algunas estimaciones, la vida (o al menos la dependiente de condiciones ambientales naturales) finalizará dentro de 10 billones de años, cuando las últimas estrellas se apaguen y mueran.</p><p><img src="/public/site/images/mikhail/tierra.JPG" alt="" /></p><p>El equipo de Loeb, del Centro para la Astrofísica (CfA) en Cambridge, Massachusetts, gestionado conjuntamente por la Universidad Harvard y el Instituto Smithsoniano, todas estas entidades en Estados Unidos, calculó la evolución de la probabilidad relativa de la vida entre estos dos extremos temporales.</p><p>El factor dominante resultó ser el tiempo de vida de las estrellas. Cuanto mayor es la masa de una estrella, más corta es su vida. Las estrellas con una masa tres veces superior a la de nuestro Sol expirarán antes de que la vida tenga la oportunidad de desarrollarse.</p><p>En cambio, las estrellas más pequeñas pesan menos del 10 por ciento de la masa solar. Brillarán, según las estimaciones citadas, durante 10 billones de años, dando a la vida un amplio margen para surgir en algunos de los planetas a su alrededor. Como resultado de ello, la probabilidad de vida crece con el paso del tiempo. De hecho, las probabilidades de que aparezca vida son 1.000 veces más altas en el futuro distante que ahora.</p><p>Pero si es mil veces más probable la aparición de vida en el futuro que ahora, y las enanas rojas promueven más este fenómeno que las demás, ¿por qué existimos aquí y ahora?</p><p>Una posibilidad es que las enanas tengan una faceta perjudicial para la vida, capaz de contrarrestar su faceta buena. Si no es ese el caso, entonces habrá que admitir que la vida en la Tierra es un acontecimiento pionero en el cosmos.</p>2016-08-04T16:29:38+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/137Salud: Cáncer en humanos del Paleolítico2016-08-03T19:14:25+00:00Gestión Ingenio y Sociedad<p>Dos equipos de investigadores de diversas naciones han presentado públicamente los detalles de su descubrimiento de la evidencia más antigua de cáncer y del de la más antigua de tumores óseos, de entre todos los hallazgos documentados de estos tipos.</p><p>El descubrimiento, en un hueso de un pie de hace aproximadamente 1,7 millones de años (entre 1,6 y 1,8), procedente del yacimiento paleontológico de Swartkrans en Sudáfrica, de señales inequívocas de cáncer óseo, retrasa la fecha del caso más antiguo detectado de esta enfermedad, situándolo más atrás en la prehistoria profunda. Aunque se desconoce a qué especie exacta pertenece el hueso, se puede establecer que corresponde a un individuo de la subfamilia de primates Homininae, de la familia Hominidae.</p><p><img src="/public/site/images/mikhail/IMagen_de_cáncer.JPG" alt="" width="610" height="385" /></p><p>Edward Odes, de la Universidad de Witwatersrand en Johannesburgo, Sudáfrica, y sus colegas, han identificado además el tumor más antiguo encontrado hasta ahora en el registro fósil de la subfamilia Homininae, una neoplasia hallada en la vértebra de un niño Australopithecus sediba muy conocido, Karabo, del yacimiento paleontológico de Malapa en Sudáfrica, datado en 1,98 millones de años.</p><p>La medicina moderna tiende a asumir que los cánceres y tumores en general en humanos son enfermedades causadas por los estilos de vida y los ambientes modernos. Los hallazgos recientes de Odes y sus colegas aportan pruebas adicionales de que estas enfermedades ya se daban en nuestros parientes evolutivos primitivos millones de años antes de que existiesen las modernas sociedades de la era industrial.</p>2016-08-03T19:14:25+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/136Salud: En un estudio sobre más de 5.000 personas, unos investigadores han encontrado que un consumo mayor de frutos secos estaba asociado con niveles más bajos de biomarcadores de la inflamación, un hallazgo que podría ayudar a explicar los beneficios para la sa2016-08-03T14:08:57+00:00Gestión Ingenio y Sociedad<p>En un estudio sobre más de 5.000 personas, unos investigadores han encontrado que un consumo mayor de frutos secos estaba asociado con niveles más bajos de biomarcadores de la inflamación, un hallazgo que podría ayudar a explicar los beneficios para la salud de estos alimentos.</p><p>Los estudios poblacionales han apoyado de forma reiterada un papel protector de los frutos secos ante dolencias cardiometabólicas, como las enfermedades cardiovasculares y la diabetes tipo 2, y ahora el equipo de la Dra. Ying Bao, del BWH (Brigham and Women's Hospital) en Boston, Estados Unidos, ha llegado a la conclusión de que los frutos secos podrían ejercer su influencia beneficiosa gracias en parte a su efecto reductor de la inflamación sistémica.</p><p>Con anterioridad, Bao y sus colegas habían observado una asociación entre un consumo mayor de frutos secos y un riesgo menor de enfermedades crónicas importantes e incluso la muerte, pero pocos estudios habían examinado el vínculo entre el consumo de frutos secos y la inflamación. En el actual trabajo, el equipo de investigación llevó a cabo un análisis de datos procedentes de un estudio sobre grado de salud de enfermeras, que incluye más de 120.000 enfermeras registradas, y de un estudio sobre lo mismo en profesionales de la salud, que incluye más de 50.000 varones.</p><p>El equipo midió tres biomarcadores bien establecidos de la inflamación: CRP, IL6 y TNFR2.</p><p>Aún teniendo en cuenta las diferencias de edad, de historial médico, de estilo de vida y de otras variables, los resultados indicaron que los participantes que habían consumido cinco o más raciones de frutos secos por semana tenían niveles más bajos de CRP e IL6 que aquellos que nunca o casi nunca los comían.</p><p>Los cacahuetes y los frutos secos contienen una serie de componentes saludables. Los investigadores aún no han determinado cuáles de ellos ofrecen protección ante la inflamación, o si eso se consigue por la combinación de todos, pero Bao y sus colegas están interesados en explorar más la cuestión a través de ensayos clínicos en los cuales se regularía la dieta.</p>2016-08-03T14:08:57+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/135Salud: ¿Una hora diaria de ejercicio físico moderado para contrarrestar los efectos nocivos de pasar muchas horas sentado?2016-08-02T00:00:00+00:00Gestión Ingenio y Sociedad<p>Los riesgos de salud asociados con estar sentado durante 8 o más horas al día, tanto en el trabajo como en casa y durante el trayecto entre ambos, pueden ser eliminados con una hora o más de actividad física diaria, según un estudio realizado por un equipo internacional de investigadores.</p><p>Desde hace años, se van acumulando las pruebas científicas de que un nivel demasiado bajo de actividad física es un factor de riesgo importante para varias enfermedades e incluso para morir antes de tiempo. Estimaciones recientes sugieren que más de 5 millones de personas mueren globalmente cada año como resultado de no cumplir con los niveles de actividad diaria recomendados.</p><p>Los estudios sobre la población de los países ricos han sugerido que bastantes adultos pasan la mayor parte de sus horas diurnas sentados. Un día típico para estas personas es desplazarse en su automóvil hasta el trabajo, sentarse en una oficina, conducir de regreso a su casa y mirar la televisión.</p><p>El equipo internacional de Ulf Ekelund, de la Universidad de Cambridge en el Reino Unido, ha presentado los resultados de un nuevo análisis de investigaciones previas acerca de la cuestión: si una persona es lo bastante activa, ¿puede ello reducir, o incluso eliminar, el mayor riesgo de muerte temprana asociado con permanecer sentado la mayor parte del día?</p><p>Los riesgos de salud asociados con estar sentado durante 8 o más horas al día, tanto en el trabajo como en casa y durante el trayecto entre ambos, pueden ser eliminados con una hora o más de actividad física diaria, según un estudio realizado por un equipo internacional de investigadores.</p><p>En total, los investigadores analizaron 16 estudios, que incluían datos de más de un millón de hombres y mujeres. El equipo agrupó a por cuartiles a los individuos en cuatro grupos dependiendo de su nivel de actividad física de intensidad moderada, que iba de menos de 5 minutos por día en el grupo inferior a más de 60 minutos en el superior. El ejercicio de intensidad moderada fue definido como un equivalente a caminar a poco más de 5 kilómetros por hora o pedalear en bicicleta a algo más de 16 kilómetros por hora, por ejemplo.</p><p>Los investigadores hallaron que de 60 a 75 minutos de ejercicio de intensidad moderada al día eran suficientes para eliminar el riesgo extra de muerte prematura asociado con permanecer sentado durante más de 8 horas al día. Sin embargo, hasta tres de cada cuatro personas en el estudio no alcanzaban este nivel diario de actividad.</p><p>Desde hace años, se van acumulando las pruebas científicas de que un nivel demasiado bajo de actividad física es un factor de riesgo importante para varias enfermedades e incluso para morir antes de tiempo. Estimaciones recientes sugieren que más de 5 millones de personas mueren globalmente cada año como resultado de no cumplir con los niveles de actividad diaria recomendados.</p><p>Los estudios sobre la población de los países ricos han sugerido que bastantes adultos pasan la mayor parte de sus horas diurnas sentados. Un día típico para estas personas es desplazarse en su automóvil hasta el trabajo, sentarse en una oficina, conducir de regreso a su casa y mirar la televisión.</p><p>El equipo internacional de Ulf Ekelund, de la Universidad de Cambridge en el Reino Unido, ha presentado los resultados de un nuevo análisis de investigaciones previas acerca de la cuestión: si una persona es lo bastante activa, ¿puede ello reducir, o incluso eliminar, el mayor riesgo de muerte temprana asociado con permanecer sentado la mayor parte del día?</p>2016-08-02T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/134Tecnología: Óxido de grafeno para purificar agua2016-07-29T13:36:05+00:00Gestión Ingenio y Sociedad<p>El óxido de grafeno ha sido aclamado como un verdadero “material maravilla”; por ejemplo, cuando se le incorpora a la espuma de nanocelulosa, la sustancia creada en el laboratorio es ligera, fuerte y flexible, y conduce el calor y la electricidad rápida y eficientemente. Ahora, un equipo de ingenieros de la Universidad Washington en San Luis, Estados Unidos, ha encontrado una forma de usar láminas de óxido de grafeno para transformar agua sucia en agua potable, lo cual podría ser algo revolucionario para todo el mundo.</p><p>El equipo de Srikanth Singamaneni espera que en países donde la luz solar es abundante, como la India, podremos tomar un poco de agua sucia, evaporarla usando el material y recoger el agua potable resultante.</p><p>El nuevo enfoque combina celulosa producida por bacterias y óxido de grafeno para formar una bioespuma bicapa.</p><p>El proceso es simple y eficaz. Lo más interesante es que la red de fibras de celulosa a escala nanométrica producida por las bacterias posee una capacidad excelente para mover el agua desde el volumen general hasta la superficie de evaporación, minimizando al mismo tiempo la pérdida de calor, y todo el proceso se hace esencialmente en un solo paso.</p><p>El diseño es novedoso. Tenemos una estructura bicapa con el óxido de grafeno, que absorbe la luz, en la parte de arriba, y nanocelulosa pura en el fondo. Cuando se deja al conjunto suspendido en el agua, esta es capaz de alcanzar la superficie de arriba, donde se produce la evaporación.</p><p>La luz se difunde en la parte de arriba, y se convierte en calor debido al óxido de grafeno, pero la disipación del calor en la masa de agua inferior se ve minimizada por la capa de nanocelulosa pura. No conviene desperdiciar el calor; lo que se pretende es confinarlo en la capa superior donde está produciéndose la evaporación.</p>Tomado de: <a href="http://noticiasdelaciencia.com/not/20589/oxido-de-grafeno-para-purificar-agua/" target="_blank">NCYT</a><br /><p><a href="http://onlinelibrary.wiley.com/doi/10.1002/adma.201601819/abstract">Información adicional</a></p>2016-07-29T13:36:05+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/133Ciencia: ¿Ondas gravitacionales originadas desde agujeros negros primigenios?2016-07-29T13:16:19+00:00Gestión Ingenio y Sociedad<p>Los agujeros negros binarios descubiertos recientemente por la colaboración LIGO-Virgo podrían ser cuerpos primigenios que se formaron justo después del Big Bang, con un origen completamente diferente del estelar que hoy en día tienen los nuevos agujeros negros. Esta es la conclusión a la que ha llegado un equipo de astrofísicos japoneses. Si datos adicionales apoyan esta conclusión, supondría el primer hallazgo confirmado de un agujero negro primigenio, lo que quizá permitiría desvelar algunos de los secretos sobre la formación del universo y la época inicial de su existencia.</p><p>En febrero, la colaboración LIGO-Virgo anunció la primera detección exitosa de ondas gravitatorias. Estas fueron creadas por la fusión de dos agujeros negros con 30 veces la masa del Sol.</p><p><img src="/public/site/images/mikhail/Agujeros_negros1.JPG" alt="" /></p><p>El universo era extremadamente caliente y denso cuando nació. Según algunas hipótesis, se formaron agujeros negros primigenios poco después del Big Bang. Estos se crearon cuando se produjo un colapso gravitatorio en regiones que eran especialmente densas.</p><p>Basándose en la relatividad general, el equipo de Takahiro Tanaka, de la Universidad de Kioto en Japón, evaluó la frecuencia con la que se fusionan agujeros negros en la época actual. Tanaka y sus colegas hallaron que los datos de observación del equipo LIGO-Virgo en cuanto a frecuencias de fusión encajarían si esos agujeros binarios detectados fueran primigenios, y si constituyesen una milésima parte de toda la materia oscura del universo.</p><p>Los agujeros negros binarios primigenios fueron debatidos ampliamente en los años 90; sin embargo, el interés acerca de ellos decayó cuando las observaciones indicaron que su número debía ser muy escaso. Hasta la fecha, nadie ha encontrado ningún agujero negro primigenio, lo cual convierte posiblemente a las observaciones del sistema LIGO-Virgo en las primeras de su clase.</p><p>Los modelos teóricos acerca del inicio del universo aún son debatidos acaloradamente. Algunos predicen la existencia necesaria de agujeros negros primigenios, así que su descubrimiento podría ayudar a desbloquear la interpretación de importantes pistas sobre la época más arcaica del universo, tal como explica Tanaka.</p><p>Tomdado de: <a href="http://noticiasdelaciencia.com/not/20615/-ondas-gravitacionales-originadas-desde-agujeros-negros-primigenios-/" target="_blank">NCYT</a></p><p> <a href="https://arxiv.org/abs/1603.08338">Información adicional</a></p>2016-07-29T13:16:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/132Ciencia: Descifrando las células cancerosas en la metástasis2016-07-25T14:33:34+00:00Gestión Ingenio y Sociedad<p>Con más de 125 publicaciones internacionales en revistas científicas como Lancet, Cancer Research, Leukemia & Lymphoma, Immunology Review, Cancer Immunology Immunotherapy y Journal of Experimental Medicine; este médico realiza estudios sobre las bases moleculares de la metástasis tumoral; es decir, cómo se diseminan las células cancerosas en el cuerpo.</p><p> </p><p>En los tejidos normales hay vasos sanguíneos: “La diseminación del cáncer ocurre cuando una célula dañada ordena a las sanas crear más vasos con el fin de utilizar los nutrientes que estos surten para su propio beneficio”, explica el inmunólogo, uno de los cinco profesores de más alto rango académico (Full profesor) del Instituto Karolinska, sede del comité que otorga el Premio Nobel de Medicina.</p><p> </p><p>Los estudios del profesor Patarroyo, distinguido recientemente por la U.N. como uno de sus egresados ilustres en la categoría “Alta Relevancia Internacional”, están guiados a desarrollar nuevos medicamentos que inhiban la metástasis, con base en el conocimiento de cómo actúa este mecanismo.</p><p> </p><p>Al respecto, un grupo de científicos, liderados por él en Suecia, indagan la interacción de las células tumorales con su medioambiente en los distintos tejidos y órganos, particularmente con un grupo de moléculas llamadas lamininas, familia de macromoléculas que desempeñan un importante papel en el desarrollo y diferenciación celular. Asimismo, son capaces de estimular la adhesión y migración celular e influir en la expresión génica.</p>2016-07-25T14:33:34+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/131Tecnología: Control biológico contra una plaga del café2016-07-21T19:13:15+00:00Gestión Ingenio y Sociedad<p>El doctor Octavio Jhonathan Cambero Campos, especialista en parasitología agrícola para el control biológico de plagas, de la Unidad Académica de Agricultura de la Universidad Autónoma de Nayarit (UAN), en México, explicó que la plaga de la broca del café ha disminuido la producción del grano, por lo que cafeticultores han establecido convenios con esta unidad para generar Beauveria bassiana, un hongo entomopatógeno que puede atacar la plaga, pero solicitan cepas nativas.</p><p>“En el año 2000, el laboratorio de parasitología agrícola de la UAN brindaba servicio de producción de este hongo entomopatógeno, Beauveria bassiana, para el control de la broca en el estado, pero decayó el programa y actualmente tiene problemas por broca, así que retomamos la producción pero ahora investigamos e hicimos pruebas de laboratorio con doce cepas, y una, con características nativas, resultó ser más eficiente”, dijo a la Agencia Informativa Conacyt.</p><p>La Beauveria bassiana es un hongo entomopatógeno conocido mundialmente, dijo, para controlar plagas como chapulines, hormigas, barrenadores, entre otras, y en el caso local, la cepa en uso fue aislada de las zonas cafetaleras para evitar la compra de marcas comerciales, traídas de otros sitios, que finalmente hubieran podido alterar el entorno.</p><p>Según cifras del Servicio de Información Agroalimentaria y Pesquera (SIAP), Nayarit ha reducido su producción cafetalera, al igual que los otros estados cafetaleros, entre el 2014 y 2015 pasó de más de 24 mil toneladas, a 17 mil; esto atribuido a enfermedades, plagas y efectos climáticos.</p><p>Los cafeticultores de sitios como Cuarenteño, La Yerba, Huaynamota y Presidio de los Reyes, según el investigador, buscaron recientemente en la universidad, asesoría para tener diagnósticos certeros y soluciones en sus cultivos, donde se detectaron enfermedades como roya, producida por el hongo Hemileia vastatrix, y plagas como ácaros, broca (Hypothenemus hampei Ferrari), entre otros.</p><p>“Parte de la investigación y asesoría tuvo que ver con que desconocían a ciencia cierta qué tenían en las 300 hectáreas de cafetales, pero se hizo un diagnóstico para las enfermedades y plagas, y encontramos roya, ácaros, barrenador de tallo, broca, escamas, enfermedades radiculares en flores”, reveló.</p><p>Ante esta situación, expuso Cambero Campos, en el laboratorio se obtienen las cepas nativas de Beauveria bassiana, hallado en los suelos de los cafetales en estudio; este hongo es capaz de parasitar distintos insectos, con la enfermedad conocida como blanca de la muscardina, provocando su muerte.</p><p>Las cepas ya extraídas se aplican a un vehículo, que en este caso es arroz cocido y secado con el hongo, que es triturado hasta convertirlo en un polvo blanco que se diluye en agua para rociarlo sobre las plantas y funcionar como insecticida natural.</p><p>“Lo novedoso es que ya no se hacen aplicaciones de insecticida para el control de broca, esto es biológico, no contamina, es eficiente para el control de broca, y no tiene problemas de intoxicaciones, ni afecta la fauna benéfica o nativa del lugar”, determinó el investigador.</p><p>Por su parte, el director de la Academia Mexicana del Café, Jaime Eduardo Rentería Ayala, señaló que este tipo de investigaciones y aplicación de controles biológicos para enfermedades y plagas del café es positivo, ya que permite mejor y más rendimiento en cultivos sin afectar el ambiente.</p><p>“Lo vemos muy positivo, entendiendo que en la producción tenemos que empezar a voltear a ver todo este tema de la autosustentabilidad y biodinamismo, que ya se están aplicando en las fincas; se están desarrollando fertilizantes naturales para mejorar la producción, esto pues con la finalidad de evitar el uso de contaminantes con fertilizantes o químicos”, indicó.</p><p>Reconoció el efecto nocivo de los compuestos o fórmulas químicas; sin embargo, dijo que no existen estudios que revelen que el uso de químicos pueda afectar o determinar el sabor de un café en taza.</p><p>“No hay datos o algún estudio que de alguna manera nos revele esa parte, hoy en día, ese tipo de cafés, cultivados con esos productos, se usan para la producción en masa, en volumen, como cafés de bajas calidades para la descafeinización”, apuntó.</p><p>Respecto a la taza de café nayarita, el barista afirmó que este obtuvo recientemente el cuarto lugar en un concurso nacional, y resaltó características como la acidez, que obtiene por ser cultivado en zonas de hasta 900 metros sobre el nivel del mar, con notas mayormente dulces, como caramelo, cajeta, galletas y miel.</p><p>Contó que una variedad de café de la comunidad de Cuarenteño, del municipio de Xalisco, fue identificada en un laboratorio móvil por el importador de cafés, el estadounidense James Kosalos, es la que se distribuye en la Casa Blanca y han tomado presidentes como George Bush y Barack Obama.</p><p>“El importador de organizaciones cafetaleras, como Grupo Terruño Nayarit, identificó un café de Cuarenteño, en el muncipio de Xalisco, que tiene una altura de 900 metros sobre el nivel del mar, probó ese café y lo distribuye en la Casa Blanca”, afirmó.</p><p>Este ha sido un tema desde 1994 que ha motivado la creación de organizaciones como Grupo Terruño Nayarit, que es quien financia proyectos de investigación sobre control biológico para plagas, además de organizar a productores para la mejor comercialización del grano.</p><p>Así, Rentería Ayala indicó que su organización, además de formar a baristas especializados en la preparación de café, ofrece asesoría a cafeticultores respecto a nutrición de suelos para que las plantas sean más resistentes a plagas y enfermedades, así como a la cosecha selectiva de granos y otros temas para mejorar la calidad de la cosecha.</p><p>Señaló que particularmente en México, las investigaciones sobre café están encaminadas a la sanidad vegetal, pero respecto a cuestiones como café y la salud, los efectos, características y otras, únicamente se realizan en Colombia y Costa Rica, por lo que no hay información particular sobre el café nacional.</p><p>Finalmente, el barista dijo que es necesario repuntar acciones para combatir enfermedades como la roya y plagas, como la broca del café, que son los principales factores para la merma de la producción del grano en el país.</p><p>Según el Servicio de Información Agroalimentaria y Pesquera (SIAP), en el 2015 el principal productor de café fue Chiapas, con más de 833 mil toneladas, seguido por Veracruz con 276 mil toneladas; Puebla produjo 171 mil toneladas, Oaxaca, 82 mil, Guerrero, 45 mil, Hidalgo, 31 mil, Nayarit, 17 mil y San Luis Potosí, 10 mil toneladas.</p><p>Son 16 los estados productores de café en nuestro país, y en total se produjo, en 2015, un millón 20 mil 251 toneladas de café en cereza, con un valor estimado de cinco millones 340 mil 761 pesos.</p><p>Estas cifras revelan disminución de producción, ya que en el 2014, se produjeron en el país un millón 166 mil 25 toneladas de café en cereza, con un valor de cinco millones 593 mil 948 pesos.</p><p>En 2010, la producción fue de un millón 332 mil 263 toneladas, con un valor total de la producción de cinco millones 727 mil 519 pesos. (Fuente: CONACYT/DICYT)</p>2016-07-21T19:13:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/130Tecnología: ¿Hacia los ordenadores orgánicos?2016-07-19T13:33:34+00:00Gestión Ingenio y Sociedad<p>El equipo internacional de Dmitry Ivanov, de la Universidad Estatal de Lomonosov en Moscú, Rusia, ha encontrado que un derivado de un radialeno, conocido por la ciencia desde hace casi 30 años, puede usarse para crear semiconductores orgánicos. Los autores del hallazgo creen que el logro contribuirá mucho al desarrollo de la electrónica orgánica y, en particular, a la fabricación de diodos orgánicos emisores de luz (OLEDs) y nuevas clases de células solares orgánicas.</p><p>La electrónica orgánica o “plástica” es un campo científico relativamente joven, que apareció hace cerca de 20 años. Su objetivo es el desarrollo de dispositivos electrónicos basados en materiales orgánicos. Los dispositivos de este tipo son aún inferiores a la electrónica estándar basada en el silicio en cuanto a rendimiento, y también son menos duraderos. Pero también poseen ya algunas ventajas (ligereza, delgadez, flexibilidad, transparencia y, sobre todo, un coste mucho más barato que el de los aparatos hechos a base de silicio). Las aplicaciones principales de la electrónica orgánica incluyen a las células solares, que serán mucho más baratas que las basadas en el silicio. El alto coste es una de las razones que evita que estas últimas cubran de manera sistemática toda área grande disponible y por tanto impide que se aproveche mejor la energía del Sol.</p>Los experimentos con el derivado de un radialeno, confirmados también por los resultados de cálculos cuántico-químicos, muestran que la sustancia está bien mezclada con un polímero semiconductor y que permite incrementar la conductividad eléctrica de este en decenas y hasta cientos de veces.2016-07-19T13:33:34+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/129Tecnología: Adaptan bacterias lácticas para que sobrevivan a la digestión al incorporarlas a alimentos probióticos2016-07-19T13:18:04+00:00Gestión Ingenio y Sociedad<p>Investigadores del grupo ‘Microbiología de los Alimentos y del Medio Ambiente’ de la Universidad de Jaén (España), en colaboración con la Universidad de Estrasburgo, han adaptado una bacteria procedente de la aceituna para que sobreviva a las condiciones que se dan en el proceso digestivo. Esta adaptación se consigue con agentes antimicrobianos que mejoran la funcionalidad de estos microorganismos considerados como probióticos, es decir, bacterias que permanecen activas en el intestino y ejercen efectos saludables.</p><p>Los expertos han aislado la cepa Lactobacillus pentosus MP-10, una bacteria láctica obtenida de las salmueras de fermentación natural de las aceitunas de mesa verdes variedad Aloreña. El objetivo consistía en identificar las proteínas clave que intervienen en la resistencia a antibióticos y biocidas, para comprobar cómo resisten a condiciones adversas. “Es el primer estudio proteómico de esta bacteria, en el que queríamos detectar las proteínas implicadas en la tolerancia a los antimicrobianos pero al mismo tiempo hemos descubierto que eran tolerantes a ácidos y sales biliares, es decir, a aquellas condiciones del tracto gastrointestinal donde ejercen beneficios cuando se adhieren a las capas de la mucosa, eliminan los patógenos, mantienen la homeostasis del organismo y tienen efecto positivos sobre el sistema inmune”, explica a la Fundación Descubre la responsable del estudio la doctora Hikmate Abriouel, investigadora de la Universidad de Jaén.</p><p> </p><p>La novedad de este análisis titulado ’Comparative proteomic analysis of a potentially probiotic Lactobacillus pentosus MP-10 for the identification of key proteins involved in antibiotic resistance and biocide tolerance’ y publicado en la revista International Journal of Food Microbiology estriba en que los investigadores de la Universidad de Jaén han incorporado agentes antimicrobianos para inducir esa supervivencia de las bacterias en el tracto digestivo, mientras que otros enfoques las adaptan a condiciones adversas, es decir, es como si las entrenaran. “Hemos descubierto que los antimicrobianos incrementan la resistencia bacteriana a diferentes tipos de estrés, tanto ambiental como gastrointestinal, como los relacionados con la acidez y las sales biliares”, especifica.</p><p>De esta forma, los investigadores usan ese estrés antimicrobiano para mejorar la funcionalidad de las bacterias con interés como probióticos. “Los resultados mostraron que la adaptación a ciertas concentraciones de antimicrobianos logra la robustez deseable del probiótico Lactobacillus pentosus MP-10 a diversas condiciones ambientales y gastrointestinales”, precisa.</p><p>La preparación de los experimentos comienza con un proceso en el que los investigadores determinan la concentración que inhibe el crecimiento de las bacterias, denominada concentración mínima inhibitoria. A continuación, usan concentraciones por debajo de ese límite y comprueban su viabilidad durante 48 horas, para observar su resistencia.</p><p>Una vez adaptadas conservan las bacterias en glicerol, para estudiar su genoma. “Estos análisis determinan que es segura, es decir, que no causa efectos indeseables en la salud y que cuenta con una actividad precisa”, detalla.</p><p><img src="/public/site/images/mikhail/Lactubacilus.JPG" alt="" /></p><p>Por último, someten a las bacterias a un estudio proteómico, para comprobar las proteínas implicadas en la tolerancia a los antimicrobianos que incrementaron a su vez la resistencia a ácidos y sales biliares. “Cada bacteria es un mundo y no existían estudios sobre Lactobacillus pentosus MP-10. Con estas pruebas podemos dilucidar qué ocurre con esa cepa, mejorar su funcionalidad para así utilizarla como probiótico”, destaca.</p><p>La investigadora adelanta que el paso consistirá en la aplicación de estas bacterias como probióticos in vivo. Sin embargo, este conocimiento previo de su genoma y proteoma, según apuntan los expertos, resulta necesario para comprobar su utilidad en los preparados alimenticios fermentativos del futuro. (Fuente: Fundación Descubre)</p>2016-07-19T13:18:04+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/128Tecnología: Generar electricidad con agua, sal y una membrana de 3 átomos de grosor2016-07-18T00:00:00+00:00Gestión Ingenio y Sociedad<p>Unos investigadores han desarrollado un sistema que genera electricidad a partir de la ósmosis con una eficiencia sin parangón. Para ello utiliza agua marina, agua dulce y un nuevo tipo de membrana de solo tres átomos de grosor.</p><p>Los defensores de las energías limpias pronto tendrán una nueva fuente para añadir a su lista de energías alternativas, que está encabezada por la solar, la eólica y la hidroeléctrica: la osmótica. O más específicamente, energía generada por un fenómeno natural que sucede cuando el agua dulce entra en contacto con agua marina a través de una membrana.</p><p>Los investigadores, del Laboratorio de Biología a Nanoescala, adscrito a la Escuela Politécnica Federal de Lausana, en Suiza, así como de la Universidad de Illinois en Estados Unidos, han desarrollado un sistema de generación de electricidad osmótica que proporciona un rendimiento jamás visto. Su innovación reside en una membrana de tres átomos de grosor que se utiliza para separar los dos fluidos.</p><p><img src="/public/site/images/mikhail/Membrana.JPG" alt="" /></p><p>El concepto es bastante simple. Una membrana semipermeable separa dos fluidos con concentraciones diferentes de sal. Los iones de sal viajan a través de la membrana hasta que las concentraciones de sal en ambos alcanzan un equilibrio.</p><p>El sistema podría de forma factible ver aumentadas sus dimensiones para una generación de electricidad a gran escala, y sería muy útil aprovechando el potencial de los estuarios.</p><p>Una vez el sistema se haga más robusto, la energía osmótica podría jugar un papel importante en la generación de electricidad renovable. Mientras que los paneles solares precisan de luz solar adecuada y los aerogeneradores el viento apropiado, la energía osmótica puede ser producida casi en cualquier momento del día o de la noche, suponiendo que haya cerca un estuario.</p>2016-07-18T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/127Sociedad: La innovación española pierde posiciones en la Unión Europea2016-07-18T20:00:39+00:00Gestión Ingenio y Sociedad<p>La semana pasada se dieron a conocer los resultados de 2016 del Cuadro europeo de indicadores de la innovación de la Comisión Europea que revelan la pérdida de posiciones de España en este segmento. La puntuación lograda por nuestro país en el índice sintético de innovación ha sido de 0,361, lo que le sitúa por debajo del promedio de 0,521 del conjunto de países europeos, y muy alejado de Suecia, que lídera la clasificación con un 0,703.</p><p>Según los datos de la CE, España es el tercer país, junto a Lituania, que más ha retrocedido en innovación desde el inicio de la crisis en 2008 –por detrás de Rumanía y Hungría–. Desde ese año, hemos perdido anualmente una media del 0,8% de rendimiento en I+D. Con estos resultados, nuestro país se va al puesto 21 en la tabla, empatando con Grecia y Hungría.</p><p>Durante este período, en el conjunto de la UE el rendimiento de la innovación ha mejorado anualmente una media del 0,7%. Casi todos los países han registrado variaciones positivas, destacando Letonia, que ha avanzado un 4%.</p><p>El informe señala que España mejoró los resultados de innovación hasta 2013, pero desde ese año el índice de innovación ha disminuido de manera considerable, por lo que la media de variación anual de estos ocho da negativo. Nuestro país se sitúa por debajo de la media de la UE28, en la mayoría de los indicadores que analiza la institución para elaborar el índice.</p><p>La comisión también pone de relieve que la inversión y la financiación de la I+D en nuestro país ha caído una media anual del 5,7% desde 2008. Según el documento, la inversión del sector público ha experimentado un crecimiento del 0,8% cada año, pero la procedente de capital de riesgo ha caído un promedio anual del 11% desde 2008.</p><p>Sin embargo, la CE valora positivamente la mejora de España en recursos humanos y destaca el incremento del número de graduados y doctores en el ámbito de la innovación, con un crecimiento anual del 10% desde 2008. Otro buen dato son las publicaciones científicas internacionales que han subido un 8,7%.</p><p>La Comisión destaca que en los países de moderada innovación –entre los que se encuentra nuestro país– existen núcleos regionales de innovación: el País Vasco en España, Piamonte y Friul-Venecia Julia en Italia, y Bratislava en Eslovaquia.</p><p>En áreas de innovación determinadas, los líderes de la UE son: Suecia: recursos humanos y calidad de la investigación académica; Finlandia: condiciones marco financieras; Alemania: inversión privada en innovación; Bélgica: redes de innovación y colaboración; Irlanda: innovación en las pequeñas y medianas empresas.</p><p>El organismo subraya que el principal factor para convertirse en un líder de innovación es la implantación de un sistema de innovación equilibrado que combine un nivel adecuado de inversiones públicas y privadas, asociaciones de innovación eficaces entre empresas y entidades docentes, así como una sólida base educativa e investigación de excelente calidad. El impacto económico de la innovación debe manifestarse en términos de ventas y exportaciones de productos innovadores y también de empleo. (Fuente: SINC)</p>2016-07-18T20:00:39+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/126Tecnología: Investigan la zeína como alternativa sostenible a los materiales plásticos en el diseño de biosensores2016-07-15T00:00:00+00:00Gestión Ingenio y Sociedad<p>Investigadoras de las universidades de Valencia (España) y Cambridge (Reino Unido) han propuesto la zeína, un material natural obtenido del maíz, como alternativa a derivados del petróleo para el diseño de dispositivos de monitorización, biokits y biosensores. El trabajo, publicado en la revista científica ‘Biosensors and Bioelectronics”, tiene aplicaciones directas en los campos medioambiental y en ciencias de la salud.</p><p>La propuesta, con el horizonte en la reducción del uso de materiales plásticos, implica la creación de dispositivos biodegradables y ecológicos basados en la química verde. Además, permite análisis in situ, de forma fácil y rápida y en la mayoría de casos sin la necesidad de fuentes de energía externa, es decir, con un consumo energético nulo. “Los materiales biodegradables deben de ser en un futuro próximo los sustitutos definitivos de los actuales plásticos”, ha destacado Neus Martínez Jornet, una de las autoras del artículo e investigadora en el Departamento de Química Analítica de la Universitat de València.</p><p>Los biosensores son dispositivos que incorporan material de naturaleza biológica (enzimas, microorganismos, anticuerpos, proteínas etc.) integrados en soportes normalmente no biodegradables y utilizados para medir parámetros biológicos o químicos. Entre los más comunes destacan niveles de glucosa y colesterol en sangre o de nitratos, fosfatos y amonio en aguas.</p><p>La mayoría de los dispositivos de este tipo utilizados están constituidos por materiales no degradables, en un contexto en el que su uso continúa aumentando. Una vez quedan obsoletos, generan una gran cantidad de residuos que tienen que ser convenientemente tratados. Por el contrario, la zeína, proteína del maíz, es altamente biodegradable, y no requiere de ningún tratamiento de reciclaje, sostienen desde el equipo investigador de las universidades de Valencia y Cambridge.</p><p>La zeína, además, posee unas características ideales para la inmovilización de diferentes compuestos o moléculas así como de enzimas, que hace que conserve las propiedades de los mismos, y es capaz de liberarlos en el momento del muestreo. En la investigación, además a la zeína, se ha incorporado glicerol, un producto natural, biodegradable y no tóxico, utilizado, entre otros, en las industrias farmacéutica y alimentaria que actúa como plastificando y mejora la flexibilidad de los materiales sobre los que actúa.</p><p>A partir de este material biodegradable se han obtenido diferentes tipos de dispositivos ópticos o biokits (conjunto de los biosensores y la disolución tampón necesaria para el ensayo) con aplicaciones en diferentes áreas, frente a otros dispositivos que si bien detectan fosfatos, no lo hacen en las concentraciones adecuadas, no son suficientemente robustos, selectivos, fáciles de utilizar, ni tampoco ecológicos ni baratos.</p><p>Entre las aplicaciones que se derivan de la investigación y del artículo publicado, Neus Jornet destaca “las aplicaciones de diseño de biosensores por el análisis in situ de fosfato en aguas o para estimar la presencia de pesticidas organofosforatos, concretamente el clorpirifós en productos comerciales y preparados, o en aplicaciones forenses”. La revista ‘Biosensors and Bioelectronics”, en la que se ha publicado la investigación, tiene un factor de impacto 7.476.</p><p>Así, uno de los biokits detecta el exceso de fosfatos en las aguas, un hecho que provoca deficiencia de oxígeno y afecta directamente a la calidad del líquido. Para hacer frente a esta situación, se ha desarrollado un dispositivo capaz de detectar fosfatos inorgánicos en las concentraciones adecuadas y se ha probado en aguas de río, de costa, de lago y en agua del grifo en la Comunitat Valenciana. En ningún caso se han encontrado concentraciones por encima de las establecidas como perjudiciales según la legislación.</p><p>Otro de los biokits desarrollados se ha utilizado para la detección de clorpirifós en preparados comerciales utilizados como pesticidas en la agricultura. El clorpirifós es uno de los pesticidas más utilizados en Estados Unidos a pesar de que es considerado por la EPA (Agencia de Protección Ambiental americana) como sustancia de categoría II: moderadamente tóxica. En el Mediterráneo también se ha utilizado y se utiliza este pesticida, pues es uno de los tratamientos más eficaces contra el Rhynchophorus ferrugineus, conocido como Picudo Rojo.</p><p>También se ha diseñado un biokit con aplicaciones en el campo de la salud, concretamente para la detección de alcalina fosfatasa en saliva. La alcalina fosfatasa es una enzima directamente relacionada con el crecimiento del tejido óseo. Niveles altos de alcalina fosfatasa en la saliva son un indicativo de la destrucción del tejido periodontal (tejido que rodea al diente; encías, hueso y ligamentos) como en el caso del crecimiento natural de los dientes en niños. También puede deberse a enfermedades periodontales en adultos.</p><p>Muestras de saliva de adultos sanos y niños menores de 4 años demuestran que los niveles más altos se han encontrado en niños. “Nosotros creemos que se podría aplicar en ciencias forenses para saber si las muestras de saliva encontradas provienen de adultos o de niños”, destaca Neus Jornet. Otra aplicación propuesta es la determinación de alcalina fosfatasa en sangre como indicativo de enfermedades óseas.</p><p>“También, la utilización de la zeína y el glicerol en el diseño de los biosensores y biokits puede potenciar sectores como los derivados de la fabricación del biodiésel y el bioetanol. Además, la zeína y el glicerol pueden obtenerse como productos secundarios en la obtención de biodiésel y bioetanol respectivamente, y suponen un valor añadido para este tipo de industria en crecimiento”, completa Neus Jornet.</p><p>Este proyecto ha sido subvencionado por la Generalitat Valenciana, dentro del Programa PROMETEO para grupos de investigación de excelencia 2012/045, concedido al Grupo Miniaturización y Métodos de Análisis Totales (MINTOTA) del Departamento de Química Analítica de la Facultad de Química de la Universitat de València. El grupo está dirigido por Pilar Campins Falcó.</p><p>Esta investigación forma parte del proyecto de investigación Desarrollo de nuevas estrategias para el diseño de dispositivos de análisis in situ, el cual busca nuevos dispositivos de monitorización o sensores que se adapten a las necesidades actuales de la sociedad, de bajo coste, reducido o nulo consumo energético, versatilidad del emplazamiento, uso puntual y evaluación de grandes áreas con resolución espacial.</p><p>El proyecto se ha realizado en colaboración entre el Departamento de Ingeniería Química y Biotecnología de la Universitat de València y el Grupo de Investigación de Biotecnología Analítica dirigido por Elizabeth Hall en la Universidad de Cambridge a través de la estancia predoctoral de la investigadora Neus Martínez Jornet, financiada por la Generalitat Valenciana. La investigación de Elizabeth Hall está enfocada a entender cómo interactúa la biología con los sistemas eléctricos, mecánicos y ópticos. El grupo posee amplia experiencia en el diseño y la utilización de nuevos materiales inteligentes con aplicaciones en el área del control de la contaminación ambiental y en biomedicina; diagnóstico y tratamiento médico personalizado. (Fuente: U. València)</p>2016-07-15T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/125Ciencia: La imagen más profunda de Orión2016-07-12T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional ha utilizado el potente instrumento infrarrojo HAWK-I, instalado en el VLT (Very Large Telescope) de ESO, para producir la imagen más profunda y completa de la nebulosa de Orión obtenida hasta la fecha. Esto no solo ha dado como resultado una imagen de espectacular belleza, sino que se ha descubierto una gran abundancia de tenues enanas marrones y de objetos aislados de masa planetaria. La presencia de estos cuerpos de baja masa proporciona una nueva e interesante información sobre la historia de la formación estelar dentro de la propia nebulosa.</p><p>Esta nueva imagen ha causado revuelo porque revela una inesperada riqueza de objetos de baja masa, lo que a su vez sugiere que la nebulosa de Orión puede estar formando, en proporción, muchos más objetos de baja masa que otras regiones de formación estelar más cercanas y menos activas.</p><p><img src="/public/site/images/mikhail/Orion.JPG" alt="" /></p><p>Los astrónomos cuentan cuántos objetos de diferentes masas se forman en regiones como la nebulosa de Orión para tratar de entender el proceso de formación de estrellas. Antes de esta investigación, la mayor parte de los objetos encontrados tenía masas de alrededor de un cuarto de la masa de nuestro Sol. El descubrimiento de una plétora de nuevos objetos con masas muy inferiores en la nebulosa de Orión ha creado ahora un segundo máximo, con masas mucho más bajas en la distribución total de estrellas.</p><p>Estas observaciones también sugieren que el número de objetos de tamaño planetario podría ser mucho mayor de lo que se pensaba. Aunque la tecnología para observar fácilmente estos objetos aún no existe, el futuro E-ELT (European Extremely Large Telescope) de ESO, que comenzará sus operaciones en 2024, está diseñado para perseguir objetivos como este.</p><p> </p><p>El investigador principal del equipo, Holger Drass (Instituto de Astronomía, Universidad Ruhr de Bochum, Alemania; Pontificia Universidad Católica de Chile, Santiago, Chile) afirma: "Para mí, nuestros resultados son como un vistazo a una nueva era de las ciencias que estudian la formación de planetas y estrellas. El enorme número de planetas que flotan libremente en nuestro actual límite de observación me está dando esperanzas para creer que, con el E-ELT, vamos a descubrir una gran cantidad de pequeños planetas del tamaño de la Tierra". (Fuente: ESO)</p><p>La famosa nebulosa de Orión, de unos 24 años luz de tamaño, se encuentra en la constelación de Orión y es visible desde la Tierra a simple vista: parece una mancha borrosa en la espada de Orión. Algunas nebulosas, como Orión, están fuertemente iluminadas por la radiación ultravioleta de las numerosas estrellas calientes de su interior, de manera que el gas se ioniza y brilla intensamente.</p><p>La relativa proximidad de la nebulosa de Orión, hace que sea utilizada como un laboratorio de pruebas ideal para entender mejor el proceso y la historia de la formación estelar, así como para determinar cuántas estrellas de masas diferentes se forman.</p><p>Amelia Bayo (Universidad de Valparaíso, Valparaíso, Chile; Instituto Max-Planck de Astronomía, Königstuhl, Alemania), coautora del nuevo artículo y miembro del equipo de investigación, explica por qué esto es importante: "Para poder limitar las teorías actuales sobre formación estelar es muy importante comprender y conocer cuántos objetos de baja masa se encuentran en la nebulosa de Orión. Ahora somos conscientes de que la manera en que se forman estos objetos de muy baja masa depende de su entorno".</p>2016-07-12T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/124Tecnología: Así es el dopaje tecnológico que amenaza al ciclismo2016-07-06T16:26:38+00:00Gestión Ingenio y Sociedad<p>A comienzos de 2016, el interior de la bicicleta de ciclocrós de Femke Van den Driessche confirmó el rumor: había dopaje mecánico. La historia de esta belga de 19 años y su positivo por fraude tecnológico en el mundial de Zolder (Bélgica) destapaba prácticas de las que se sospechaba desde hacía un lustro. Motores insertados en los cuadros y ruedas electromagnéticas son la nueva amenaza para un deporte siempre en el límite del reglamento y que celebra ahora una de sus grandes citas: el Tour de Francia.</p><p>“El fraude tecnológico es peor que el dopaje químico, puede acabar con este bello deporte”, confiesa a Sinc desde el otro lado del teléfono Claudio Ghisalberti, especialista italiano en ciclismo y tecnología, con una mezcla de rabia y desilusión. La rabia del que se siente estafado tras acceder a los rincones más oscuros de una trampa. La desilusión del que lleva una vida escribiendo sobre hazañas que, en ocasiones, no fueron más que un espejismo.</p><p>Es el caso del fraude protagonizado por la ciclista belga Femke Van den Driessche en el mundial Sub-23 de ciclocrós el 31 de enero de 2016. Su truco de velocidad lo encontró la Unión Ciclista Internacional (UCI) al levantar el sillín de su Wilier Triestina: cables enmarañados conectados a un motor eléctrico. Se oficializaba el primer caso de dopaje mecánico.</p><p>Tras el escándalo, el periodista italiano publicó dos páginas en La Gazzetta dello Sport en las que entrevistó a dos gurús de esta tecnología: Míster X (pseudónimo utilizado para no revelar su identidad) y el ingeniero húngaro Stéfano Varjas, que desarrolló bicis asistidas para ancianos y enfermos de su país. “Con la electricidad se puede hacer mucho más que con la química”, afirmaba el primero de ellos sobre el dopaje.</p><p>En el reportaje, Ghisalberti distingue dos tipos de tecnología oculta en las bicis. Un sistema calificado por Míster X como “antiguo y artesano” es el motor eléctrico, que se oculta dentro de la barra vertical, bajo el sillín, conectado a una batería de litio oculta en la botella de bebidas.</p><p>La energía eléctrica generada por este sistema silencioso e invisible se trasmite al eje del pedalier mediante un cigüeñal en mitad de los piñones de la bicicleta. El dispositivo se acciona mediante Bluetooth al pulsar un botón en el manillar, y aporta de 50 a 500 vatios más de potencia al ciclista por unos 20.000 euros.</p><p>Su autor dice haber vendido en Italia solo en el último año 1.200 aparatos. “Me río cuando veo las clasificaciones de las grandes vueltas”, afirma la fuente de Ghisalberti. La diferencia entre un gregario y un campeón reducida a 600 gramos de tecnología anticuada.</p><p>Un sistema similar al descrito, el detectado por la UCI en la bici de la ciclista belga, se puede encontrar en el mercado legal. La compañía austriaca Vivax ofrece un motor de menos de 22 centímetros de largo y unos 31 milímetros de diámetro, con 200 vatios de potencia por 2.700 euros.</p><p>Typhoon bicycles es otra empresa dedicada al desarrollo de bicis eléctricas. Harry Gibbins, su director, que colabora con la UCI en la investigación contra el fraude tecnológico, explica a Sinc cómo su patente E-assist “dispone de tres niveles de asistencia con 60, 130 y hasta 250 vatios, con una autonomía de entre 60 y 90 minutos, dependiendo del pedaleo del usuario”.</p><p>Gibbins presume de sus bicis con cuadros de fibra de carbono italianos diseñados por ingenieros que trabajaron para la escudería Jordan de Fórmula 1. Además, señala que su sistema de propulsión “no entraría en el cuadro de una bicicleta de competición, puesto que nuestro pedalier requiere de un diámetro más ancho”.</p><p><img src="/public/site/images/mikhail/dopaje_tecnológico.JPG" alt="" /></p><p>Quien fue un pionero en insertar este tipo de tecnología en los cuadros es Stéfano Varjas. Este ingeniero construyó su primera bici ‘motorizada’ en 1998 montando él mismo todas las piezas con un presupuesto de 80.000 euros. Desde ese momento, se ha dedicado a perfeccionar este tipo de dispositivos y trabaja con motores de altas prestaciones y ligeros.</p><p>La principal diferencia de su tecnología con la del resto de fabricantes es que su motor “puede insertarse en el buje de la rueda trasera, aportando desde los 50 a los 3.000 vatios de potencia”, aclara el húngaro a Sinc. Este sistema se inspira en la tracción trasera de cualquier otro vehículo, con un factor añadido: es un sistema silencioso.</p><p>“Se trata de un dispositivo caro, entre los 10.000 y los 20.000 euros”, dice Varjas, que sitúa en el Principado de Mónaco su punto de ventas habitual. Entre sus compradores destacan figuras de la realeza europea y pilotos de Fórmula 1, entre otros.</p><p>El ingenio de Stéfano se desarrolló al mismo ritmo que la tecnología a su alcance hasta inventar un sistema totalmente novedoso: la rueda electromagnética. “El neumático está equipado con electroimanes colocados por el perímetro de una llanta de carbono de perfil alto que, al girar, pasan por unas bobinas ocultas en los tirantes del cuadro”.</p><p>El propio movimiento de la rueda induce electricidad hacia una pequeña batería en el cuadro que, accionada por Bluetooth, libera en momentos puntuales una energía de hasta 50 vatios. Cuesta 200.000 euros y tiene una lista de espera de seis meses, según su creador.</p><p>La potencia liberada es mucho menor que la de los motores pero en una competición ciclista estos 50 vatios pueden marcar amplias diferencias cuando la fatiga se acumula en las piernas de los corredores.</p><p>“El dispositivo está realizado con tecnología de uso militar, no disponible en el mercado”, afirma el húngaro. Asegura que compra esta tecnología en laboratorios especiales de compañías dedicadas al I+D. “Son ruedas de 1,8 kg, fáciles de cambiar, difíciles de detectar y funcionan mejor con un ciclista que tenga un pedaleo rápido y dinámico”, explica el ingeniero.</p><p> </p><p>Sin embargo, esta tecnología genera ciertas dudas sobre su aplicación práctica. Uno de los escépticos es Josh Owen, graduado en física por la Universidad de Cardiff y periodista especializado en ciclismo.</p><p>“En teoría es posible, este sistema es un motor de reluctancia conmutado similar al que usan los trenes japoneses, pero en la práctica dudo que se pueda adaptar a una bicicleta”, dice a Sinc.</p><p>La incertidumbre radica en la dirección en la que circula la electricidad en el ciclo. “Si la corriente va en la misma dirección al impulso que le queremos dar a nuestra rueda y no en ángulo recto, como sucede en los trenes, se generarán fuerzas contrarias que detendrán el movimiento”, comenta el británico. Sería como pedalear con una cadena atrancada.</p><p>Del mismo modo que los métodos de engaño se han ido sofisticando, la UCI ha perfeccionado sus sistemas de detección de elementos extraños en las bicicletas de los equipos. “Llevamos años probando distintos sistemas con el objetivo de aumentar la eficiencia de las pruebas”, afirma a Sinc Louis Chenaille, jefe de prensa de la UCI.</p><p>De entre los sistemas descartados, dos destacan por encima del resto: las imágenes térmicas y los rayos X. “La termografía nos pareció la prueba más fiable en un principio, pero no es efectiva cuando la bici está parada”, aclara Chenaille. Si hubiera un motor oculto en el cuadro solo se detectaría cuando estuviese activo y emitiera calor.</p><p>Además, la UCI sospecha de que los ciclistas podrían cambiar de bici, simulando un pinchazo, cuando fuesen a pasar delante de las cámaras térmicas. “Así evitarían el sistema de detección con una bici normal y la trucada estaría en la cabra del coche de equipo”, señala el experto.</p><p>Otro sistema que se utilizó y que fue descartado es el de las imágenes de rayos X, por varios motivos. Es un sistema caro, pesado, se tarda tres minutos en analizar cada bicicleta y emite radiación al entorno.</p><p>La solución es un equipo ligero, barato y rápido de tres componentes. El elemento central es un iPad en el que se inserta un chip que actúa como magnetómetro. El aparato se rodea de un protector que incorpora un adaptador. Esta carcasa, a prueba de las inclemencias meteorológicas, genera a su alrededor un campo magnético cuando el adaptador entra en contacto con el magnetómetro.</p><p>Por último, se instala una app. “El software utiliza el magnetómetro para detectar las perturbaciones causadas por imanes, motores, baterías o artículos de metal, como los componentes de control remoto”, apunta Chenaille.</p><p>Solo durante el año pasado, la UCI realizó más de 2.000 controles en el Giro de Italia, 216 en el Tour de Flandes y 224 en la París-Roubaix, entre otros con este sistema. “Seguiremos examinando bicis en los próximos eventos, especialmente en los Juegos Olímpicos de Río”, concluyen desde el organismo.</p><p>Los antiguos milagros conseguidos por médicos y farmacólogos con las trampas químicas los pueden realizar ahora los ingenieros por métodos mecánicos. En esta nueva edición del Tour de Francia, la UCI deberá estar atenta para que el ciclismo no se convierta en una competición como Superbikes o MotoGP. De no ser así, como declaró El Caníbal, Eddy Merckx, tras conocer el positivo de su compatriota belga, “los ciclistas deberían irse a competir contra Valentino Rossi”. (Fuente: SINC)</p>2016-07-06T16:26:38+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/123Medio Ambiente: Las plantas se alían con los hongos para aprovechar el CO2 atmosférico2016-07-03T12:49:17+00:00Gestión Ingenio y Sociedad<p>Los bosques, praderas y otros ecosistemas de todo el mundo absorben alrededor del 30% de las emisiones humanas de CO2. Sin ellos, el cambio climático estaría ocurriendo incluso más rápidamente. El futuro de este sumidero depende de la acumulación de carbono en los ecosistemas a través de las plantas.</p><p>Científicos del Imperial College de Londes, en el Reino Unido, entre los que se encuentra el español César Terrer Moreno, y otras tres instituciones colaboradoras han comenzado a responder a una pregunta que lleva décadas sin respuesta: por qué algunas plantas crecen mejor con niveles elevados de CO2, pero muchas otras no. Estas respuestas desiguales crean un debate sobre el papel de las plantas en la desaceleración del cambio climático según aumentan las concentraciones de CO2 en la atmósfera.</p><p>“Hemos encontrado que una asociación entre plantas y hongos determina que las plantas puedan o no aumentar su crecimiento en respuesta a un aumento de CO2. En concreto, en condiciones de poca disponibilidad de nitrógeno, solo las plantas que se asocian con ectomicorrizas [relaciones benéficas entre hongos y raíces] son capaces de obtener el nitrógeno que necesitan para así crecer más”, explica a Sinc Terrer Moreno.</p><p>El equipo examinó 83 estudios experimentales de todo el mundo sobre el aumento de las concentraciones de CO2 y encontró que las plantas crecen más con CO2 adicional si hay nitrógeno disponible en el suelo. Además, han demostrado que algunas plantas pueden responder incluso cuando la disponibilidad de nitrógeno es baja si tienen los socios microbianos adecuados para permitirles el acceso, limitado por una situación crítica de nutrientes.</p><p>“Esto se debe a que las ectomicorrizas tienen enzimas especiales para acceder al nitrógeno del suelo que las raíces de las plantas no pueden aprovechar, y se lo ceden a la planta a cambio de carbohidratos que el hongo no puede obtener”, añade el científicos.</p><p><a href="http://noticiasdelaciencia.com/not/20214/las-plantas-se-alian-con-los-hongos-para-aprovechar-el-co2-atmosferico/" target="_blank">Tomado de NCYT</a></p>2016-07-03T12:49:17+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/122Tecnología: Un programa diagnostica en las mamografías el 99% de los tumores2016-06-28T10:10:02+00:00Gestión Ingenio y Sociedad<p>Un programa informático permitirá en un futuro conseguir una fiabilidad casi total en la detección de tumores de mama. La investigación la han llevado a cabo Mohamed Abdel-Nasser, Antonio Moreno y Domènec Puig del departamento de Ingeniería Informática y Matemáticas de la Universidad Rovira i Virgili (URV), en España, en colaboración con el departamento de Radiología del Centro Médico de la Universidad Radboud (Nijmegen, Holanda). El estudio se ha publicado en la revista International Journal of Optics.</p><p> </p><p>La mamografía está considerada como la prueba más eficaz para la detección precoz del cáncer de mama, que en 2014 fue la principal causa de muerte por esta enfermedad entre las mujeres de la Unión Europea. Para analizar e interpretar los datos de esta prueba radiológica se utilizan de forma creciente sistemas de diagnosis asistida por ordenador (CAD). Estos métodos no son del todo fiables, ya que en ocasiones generan falsos positivos -la presencia de un tumor que finalmente, en pruebas posteriores, se demuestra que no existe.</p><p> </p><p>Ahora, el estudio de la URV se ha centrado en investigar el efecto de cinco métodos de análisis de textura de las imágenes a las que se han aplicado diferentes técnicas (análisis de resolución de píxeles, escala de integración, algoritmos de preprocesamiento de la imagen y normalización de datos). A partir de aquí se han hecho varias combinaciones hasta encontrar la más idónea para obtener una clasificación mejor de las regiones relevantes –la presencia de tumores o no– dentro de las mamografías.</p><p> </p><p>Con la configuración final obtenida por los investigadores se ha conseguido un 99% de fiabilidad a la hora de determinar la presencia de un tumor en la mama a partir de una mamografía. Este dato mejora los resultados obtenidos con estudios anteriores, cifrados en un 93%, que también habían evaluado la fiabilidad en la interpretación de estas pruebas, pero habían centrado el análisis en otras configuraciones.</p><p>Poder reducir el número de falsos positivos supondría una disminución importante del gasto en los sistemas de salud, ya que descartar de entrada la presencia de tumor evitaría hacer pruebas adicionales a un elevado número de mujeres para confirmar el diagnóstico.</p><p> </p><p>Esta investigación forma parte del proyecto de investigación IA-BioBreast, que tiene por objetivo investigar métodos de análisis de imágenes mediante visión por computador para la detección precoz del cáncer de mama, y se centra en el desarrollo de dos biomarcadores específicos: la densidad de la mama y la evolución temporal de las lesiones existentes. (Fuente: URV)</p>2016-06-28T10:10:02+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/121Tecnología: Cómo acabar con el maltrato a los ríos españoles2016-06-16T15:59:47+00:00Gestión Ingenio y Sociedad<p>El agua que bebemos, los terrenos que cultivamos y el bienestar humano, desde las grandes urbes hasta los pueblos más remotos, dependen en gran medida de cómo tratemos la biodiversidad de las cuencas fluviales. Sobran las razones para que su conservación sea prioritaria, pero los ríos españoles llevan décadas sometidos a múltiples estresores de origen humano. Algunos se siguen usando incluso como vertederos.</p><p>“En función de la cuenca predominan unos factores de estrés sobre otros. Por ejemplo, en los ríos cantábricos las detracciones para minicentrales hidroeléctricas son más frecuentes que la regulación por grandes embalses, que afecta a la mayor parte de los ríos mediterráneos. En la cuenca del Ebro la contaminación agrícola por nutrientes y pesticidas es muy importante, mientras que el Llobregat está sometido a la contaminación urbana e industrial, con contaminantes emergentes como fármacos”, declara a Sinc Arturo Elosegi, investigador del grupo de Ecología de ríos en la Universidad del País Vasco (UPV/EHU).</p><p>Ante esta situación, en 2005 Ecologistas en Acción propuso una nueva figura de conservación: las reservas naturales fluviales que contempla la Ley de Aguas. El objetivo era proteger aquellos ríos que se han salvado del deterioro ambiental generalizado y que se conservan prácticamente vírgenes. En noviembre del año pasado el Gobierno declaró las primeras 82 cuencas de esta categoría.</p><p>“Es necesario preservar en el mejor estado de conservación posible los pocos ríos en estado casi natural que nos quedan, ya que son los últimos refugios de nuestra biodiversidad fluvial más amenazada. Lo que no tengo tan claro es que para eso hiciera falta crear reservas naturales fluviales. Son solo una figura jurídica derivada de la Directiva Marco del Agua (DMA), cuyo éxito está por ver, ya que dependerá de la voluntad política y de los recursos que se destinen a su conservación”, enfatiza el investigador de la UPV/EHU.</p><p>Santiago Martín Barajas, coordinador estatal del Área de Agua de Ecologistas en Acción, es de la opinión de que "puede que a lo que queda fuera de las reservas le espere un oscuro futuro, por eso las llamamos el ‘Arca de Noé’ de nuestros ríos bien conservados. Hemos propuesto nuevas reservas en el río Tajo, Cantábrico occidental, en el Ebro, en el Júcar y cinco en las Baleares –que no tenía ninguna– y tres en Canarias”. </p><p>Además de esta figura, existen otras con objetivos similares como las Zonas Especiales de Conservación, que derivan de la Directiva de Hábitats y que en muchos casos corresponden a tramos fluviales.</p><p>Al pasear por la ribera de alguno de estos escasos ríos con una elevada naturalidad, como el Milagro, que nace a 800 metros de altura en los Montes de Toledo, se produce la extraña sensación de caminar frente al mismo paisaje de saucedas, juncales, choperas y alamedas que pisaron nuestros antepasados siglos atrás. El tiempo parece haberse detenido en una especie de oasis oculto a la mano del hombre, un entorno de especies autóctonas y agua cristalina.</p><p>Raúl Urquiaga, responsable del proyecto de reservas naturales fluviales de Ecologistas en Acción, explicaba durante una visita para periodistas al Estena, Estomiza y Estenilla: “Una cosa muy interesante de estos tres ríos es la función que tienen de corredor ecológico. De hecho, uno de sus objetivos es servir para conectar distintos espacios y que las especies puedan comunicarse en el territorio”.</p><p>Con la nueva actualización del Reglamento del Dominio Público Hidráulico se incluirán 53 reservas pendientes de declarar, y la organización conservacionista busca ampliarlas en 29 más. Para ello han peinado el territorio nacional en un estudio de campo tras la pista de paisajes fluviales inalterados por el hombre.</p><p>Narcís Prat, catedrático de Ecología del grupo de investigación Freshwater Ecology and Management de la Universidad de Barcelona corrobora a Sinc que esta figura de protección ecológica es un elemento más para conservar “lo poco bueno que queda”; sin embargo, lo principal es “cómo se delimitan estas reservas”. Su grupo de investigación ha iniciado un proyecto llamado RESERVIAL para establecer las reservas fluviales mediante nuevos métodos.</p><p>La realidad es que, aunque en muchas zonas de España ha mejorado la calidad del agua gracias al saneamiento y la depuración, todavía la biodiversidad fluvial sigue en declive en la mayor parte del país”, asegura el ecólogo de la Universidad del País Vasco Arturo Elosegi.</p><p>“No deja de ser una ironía histórica el maltrato a los ríos en España, porque todas las culturas que han crecido en la península ibérica lo han hecho a la orilla de los ríos. Por el contrario, ha habido un absoluto desprecio hacia ellos, de manera tal que se han convertido en los cementerios de todo tipo de basura sin ningún control”, afirma a Sinc Javier Lobón Cerviá, investigador del departamento de Ecología Evolutiva en el Museo Nacional de Ciencias Naturales.</p><p>Los principales problemas de los ríos provienen de la alteración del régimen hidrológico, la insuficiencia de los caudales ambientales, la contaminación, la destrucción de los hábitats y de las riberas; y la presencia de especies de peces introducidas. “La mayor presión la producen los embalses, la abstracción de agua y la contaminación producida por la agricultura, algunas industrias y las depuradoras que se sitúan en cuencas con caudales naturales muy bajos o incluso con ríos secos parte del año”, añade Prat.</p><p>Esta misma semana, grupos ecologistas y científicos publicaban un manifiesto conjunto para pedir a las administraciones españolas y portuguesas del agua “la demolición de las presas y obstáculos inútiles que interrumpen el flujo de agua de los ríos ibéricos”, argumentando que la evidencia científica ha demostrado que estas construcciones fragmentan los ríos, impactan sobre la flora y fauna acuática, y sobre los numerosos bienes y servicios ambientales que estas prestan a la sociedad.</p><p>“Hay que iniciar una gran discusión sobre varios temas clave, como los embalses y su explotación para poder garantizar los caudales ambientales con el agua de calidad suficiente. En las partes altas las minicentrales son el problema más importante, hay que cambiar sus concesiones”, concluye el catedrático de Ecología.</p><p>Lobón insiste: “Los conflictos por el agua van a seguir aumentando con los años y, si no hacemos una gestión puramente científica de las cuencas de los ríos, el número de problemas irá a más. Las soluciones, me temo, van a ser fatales porque siempre irán encaminadas a hacer más embalses y en España ya hay más de 1.200 gigantescamente grandes que nadie cuida ni estudia”.</p><p>A finales de 2015 Ecologistas en Acción publicaba un informe sobre el impacto del cambio climático en las reservas de agua en España en el que resaltaba que en los próximos años habrá menos recursos hídricos disponibles y más demanda.</p><p>En la mayor parte de España se prevé que el calentamiento global aumente las irregularidades en la precipitación, con sequías más intensas y frecuentes, así como lluvias más torrenciales. Todo ello supondrá un duro test para nuestros sistemas de abastecimiento.</p><p>“El cambio climático puede tener consecuencias muy graves sobre la sociedad española y el medio ambiente. La primera pregunta es cuánto va a cambiar el clima. Es difícil de responder ya que depende de las decisiones que tomemos a escala internacional en los próximos años. Es posible que si el clima cambia mucho debamos modificar nuestro modo de vida, como está ocurriendo en Australia”, revela Elosegi.</p><p>Prat es algo más optimista: “Si España sigue las recomendaciones de la DMA puede estar preparada, excepto en los lugares más áridos. El problema esencial será la agricultura, no solo por la falta de agua sino por el incremento de la salinidad de los suelos”.</p><p>El grupo de Prat está trabajando en la implementación de la DMA en ríos temporales con la Confederación Hidrográfica del Júcar y la colaboración de la del Ebro y la del Segura. Además, han hecho el seguimiento por más de 25 años de algunos ríos de la provincia de Barcelona y han diseñado una app para móviles y tabletas mediante la cual cualquier persona puede hacer el diagnóstico del estado ecológico de un río.</p><p>En definitiva, habría que cumplir con la legislación europea, la Directiva Marco del Agua, la Directiva de Hábitats y la Directiva de Inundaciones que son, entre otras, las piezas de la legislación claves para la conservación de los ríos. La Administración está haciendo esfuerzos en implementarlas, pero a menudo con retrasos sobre los planes previstos. Elosegi es tajante al respecto: “Lo primero que hay que hacer es dedicarle los recursos necesarios y, sobre todo, tomarse en serio el medioambiente”.</p><p>Nuestro país se encuentra entre las regiones europeas con mayor número de especies invasoras. Más de la mitad de las piscicolas en nuestros ríos son exóticas y algunas de ellas como el siluro tienen un marcado carácter invasor.</p><p>“Existen muchos peces invasores, especialmente el siluro y el alburno, pero también están las tortugas de florida, el alga chapapote o las cañas en las riberas junto a diversos árboles introducidos como la robinia”, expone Narcís Prat.</p><p>Elosegi añade: “No hemos conseguido frenar el declive poblacional de las especies fluviales más amenazadas, como el visón europeo, el desmán ibérico o muchos bivalvos de río”.</p><p>El declive de especies autóctonas se lleva monitorizando hace décadas, pero lo que los científicos reclaman es que se pase a la acción para atacar directamente sobre las causas que provocan dicha degradación. “En algunos casos puede que haya que cerrar algunas centrales hidroeléctricas, en otros puede ser necesario realizar un programa de translocación de individuos. No hay una medida genérica que sirva para todos los ríos y todas las especies”, comenta el científico.</p><p>El mayor problema del visón europeo, por ejemplo, es el visón americano que se está extendiendo a gran velocidad por nuestra red fluvial y está matando literalmente a su primo más pequeño. El número de plantas invasoras es muy grande y también hay una gran preocupación por los daños que pudiera causar el mejillón cebra, que sigue expandiéndose en la Península. “Creo que la sociedad no ha interiorizado todavía el problema que suponen las invasiones biológicas”, recalca Elosegi.</p><p>Desde 2013 existe un Catálogo español de Especies Exóticas Invasoras al que este año se han sumado la trucha arcoíris, la carpa común y el alga wakame, después de que Ecologistas en Acción recurriera ante el Tribunal Supremo su inclusión. (Fuente: SINC/Eva Rodríguez)</p>2016-06-16T15:59:47+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/120Ciencia: El planeta más grande de entre los que giran alrededor de dos soles2016-06-16T15:52:33+00:00Gestión Ingenio y Sociedad<p>En dirección a la constelación del Cisne (Cygnus), se encuentra el mayor planeta descubierto hasta la fecha alrededor de un sistema de dos estrellas. Es de brillo demasiado débil para verlo a ojo desnudo, pero un equipo de astrónomos del Centro Goddard de Vuelos Espaciales de la NASA, en Greenbelt, Maryland, y de la Universidad Estatal de San Diego (SDSU), en California, ambas entidades en Estados Unidos, se valió de observaciones hechas por el Telescopio Espacial Kepler de la NASA para identificar al nuevo planeta, llamado Kepler-1647b.</p><p> </p><p>El sistema Kepler-1647 se halla a 3.700 años-luz de distancia y tiene aproximadamente unos 4.400 millones de años, aproximadamente la misma edad que nuestro sistema solar. Las estrellas son similares al Sol, siendo una ligeramente más grande y la otra un poco más pequeña. El planeta tiene una masa y un radio casi idénticos a los de Júpiter.</p><p>Los planetas que orbitan dos estrellas son conocidos como planetas circumbinarios, o a veces como planetas “Tatooine”, en referencia al mundo natal de Luke Skywalker en la saga de "La Guerra de las Galaxias" (“Star Wars”).</p><p>El planeta descubierto por el equipo de Veselin Kostov, de la NASA, necesita 1.107 días, poco más de tres años, para dar una vuelta completa en torno a su pareja de estrellas anfitrionas. También está mucho más lejos de sus estrellas que cualquier otro planeta circumbinario, rompiendo la tendencia de estos de tener órbitas próximas a sus soles. Para mayor interés, su órbita lo coloca dentro de la llamada zona habitable, el rango de distancias respecto a la estrella o conjunto de estas donde el agua líquida puede acumularse en la superficie de un planeta.</p><p>Como Júpiter, sin embargo, Kepler-1647b es un gigante gaseoso, haciendo muy improbable que albergue vida en hábitats comparables a los típicos de la Tierra. No obstante, si posee lunas grandes, estas podrían potencialmente ser adecuadas para la vida.</p>2016-06-16T15:52:33+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/119Ciencia: Complejos proteicos bacterianos que apenas han cambiado en 3.500 millones de años2016-06-16T00:00:00+00:00Gestión Ingenio y Sociedad<p>Unos investigadores han estado "resucitando" arcaicos complejos de proteínas bacterianas para determinar cómo funcionaban las células de hace 3.500 millones de años en comparación con el modo en que lo hacen las de hoy en día. Sorprendentemente, no son tan diferentes como se creía, según ha comprobado el equipo de Reinhard Sterner y Rainer Merkl, de la Universidad de Ratisbona en Alemania.</p><p>A pesar de la hipótesis popular de que los organismos primigenios tenían enzimas simples, las pruebas sugieren que las bacterias de unos 500 millones de años después de que surgiera la vida ya poseían la sofisticada maquinaria celular que existe hoy en día.</p><p>No están disponibles fósiles de bacterias de hace 3.500 millones de años, pero los científicos pueden reconstruir el aspecto que debieron tener sus enzimas basándose en árboles filogenéticos de proteínas de bacterias vivientes. Comparar las secuencias de aminoácidos de más de 50 bacterias ayudó a generar informáticamente las secuencias para las subunidades de proteína de un complejo enzimático que muy probablemente era similar al existente en el más reciente antepasado común de las bacterias. Los investigadores produjeron después este complejo enzimático antiguo para estudiar su estructura y función.</p><p>En estudios previos ya se hallaron indicios de que esas enzimas ya eran sofisticadas hace 3.500 millones de años, y ello fue una sorpresa porque la evolución biológica se inició hace solo 4.000 millones de años. Los autores de la nueva investigación que respalda aquellas conclusiones creen que en esta fase tan temprana de la evolución biológica, hace entre 4.000 y 3.500 millones de años, habría probablemente enzimas primitivas con baja eficiencia, pero estos 500 millones de años fueron suficiente tiempo para que las enzimas progresasen en complejidad y eficacia hasta alcanzar el nivel sofisticado que hoy siguen manteniendo.</p><p><img src="/public/site/images/mikhail/proteína.JPG" alt="" /></p><p>Lo que sucedió en ese intervalo de 500 millones de años para que se aplicasen presiones evolutivas sobre las bacterias y que estas produjesen complejos de enzimas tan sofisticados es un misterio. Crear estas estructuras es muy difícil, dado que un complejo implica múltiples subunidades que catalizan diferentes reacciones por sí mismas así como en respuesta a las otras. En cualquier caso, una vez formados, estos complejos no se han visto seriamente alterados en miles de millones de años de evolución posterior.</p>2016-06-16T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/118Ciencia: Resuelto el enigma de los polígonos que cubren la superficie de Plutón2016-06-02T16:24:16+00:00Gestión Ingenio y Sociedad<p>En la vasta cuenca Sputnik Planum de Plutón han aparecido a lo largo de decenas de kilómetros unas misteriosas e irregulares figuras poligonales. Ahora, en dos artículos publicados en Nature se revela que en el interior de la gruesa capa de nitrógeno sólido que cubre el planeta enano se producen procesos de convección que están detrás de estas formaciones geométricas.</p><p><img src="/public/site/images/mikhail/imagenes_de_pluton1.JPG" alt="" /></p><p>Este mecanismo de propagación del calor (provocado por diferencias de densidad entre los materiales) origina una contracción del terreno en la superficie, dejando las distintivas figuras poligonales. Tienen entre 10 y 40 kilómetros de diámetro, y muchas de ellas presentan los lados elevados.</p><p>“Estas investigaciones demuestran que la Sputnik Planum es una de las superfcies más jóvenes del sistema solar”, aseguran Andrew J. Dombard y Sean O’Hara en una revisión de los trabajos publicados. “Es una planeta enano y helado, pero geológicamente dinámico”.</p><p>Para resolver el misterio sobre estas formaciones, un equipo liderado por el profesor del Centro de Ciencias del Espacio de Washington (EEUU) William McKinnon usó las mediciones que hizo la nave espacial New Horizons para mostrar que las capas de hielo, de más de un kilómetro de espesor, presentaban flujos de calor en su interior. Estos autores consideran que las convecciones podrían explicar la gran anchura lateral de los polígonos.</p><p>Por su parte, otra investigación liderada por Alexander Trowbridge, profesor en Universidad Purdue de Indiana (también en EE UU) analiza la existencia de los polígonos usando otra técnica. En su trabajo, aplicaron modelos numéricos al nitrógeno sólido y también comprobaron que este hielo está sometido a mecanismos de convección en su interior.</p>2016-06-02T16:24:16+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/117Ciencia: Planeta gigante en órbita a una estrella muy joven, lo imposible se vuelve real2016-06-01T13:44:05+00:00Gestión Ingenio y Sociedad<p>En contradicción con la idea largamente mantenida de que los planetas grandes necesitan más tiempo para formarse, unos astrónomos han descubierto un planeta gigante alrededor de una estrella tan joven que esta aún retiene un disco circunestelar de gas y polvo.</p><p>Durante décadas, la idea predominante fue que los planetas grandes, con masas semejantes a la de Júpiter, precisaban de un mínimo de 10 millones de años para formarse. Por eso ha sorprendido tanto saber que el planeta CI Tau b es al menos ocho veces más grande que Júpiter y que orbita alrededor de una estrella de solo 2 millones de años de edad.</p><p>El equipo de Christopher Johns-Krull, de la Universidad Rice en Estados Unidos, y Lisa Prato, del Observatorio Lowell en el mismo país, ha estudiado a fondo el nuevo planeta CI Tau b, situado a unos 450 años-luz de la Tierra, en la constelación de Tauro.</p><p>CI Tau b tarda nueve días en dar una vuelta completa alrededor de la estrella CI Tau. El planeta fue encontrado con el método de la velocidad radial, una técnica de búsqueda de planetas que se basa en las ligeras variaciones de la velocidad de una estrella para reconocer el sutil pero delatador tirón gravitatorio ejercido sobre ella por eventuales planetas cercanos cuyo brillo es demasiado bajo para ser observados directamente con un telescopio.</p><p><span>Los resultados de la investigación son, en definitiva, muy llamativos. No en vano parecen demostrar que un planeta gigante puede formarse tan rápidamente que el gas y el polvo remanentes a partir de los cuales se formó su estrella anfitriona, y que conforman un disco que rodea al sistema, siguen presentes.</span></p>2016-06-01T13:44:05+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/116Tecnología: Nuevo récord mundial de eficiencia en conversión de luz solar a electricidad2016-05-19T20:54:57+00:00Gestión Ingenio y Sociedad<p>Unos ingenieros australianos se han acercado más a los límites teóricos de la conversión de luz en electricidad mediante células fotovoltaicas convencionales con una técnica que establece un nuevo récord de eficiencia mundial.</p><p> </p><p>La nueva configuración de célula solar desarrollada por el equipo de Mark Keevers y Martin Green, de la Universidad de Nueva Gales del Sur en Australia, ha impulsado dicha eficiencia de conversión hasta el 34,5 por ciento, lo cual es un nuevo récord mundial para luz solar sin enfocar (no concentrada) y se acerca a los límites teóricos para tal dispositivo.</p><p> </p><p>El equipo de Keevers y Green ha usado un minimódulo de cuatro conexiones de 28 centímetros cuadrados, instalado en un prisma, el cual extrae la máxima energía de la luz solar. Lo hace dividiendo los rayos incidentes en cuatro bandas, usando un receptor híbrido de cuatro vías para obtener tanta electricidad como sea posible de cada rayo de luz solar.</p><p> </p><p>El nuevo resultado, cuyos resultados han sido confirmados por el Laboratorio Nacional estadounidense de Energía Renovable, es casi un 44 por ciento mejor que el récord anterior, batido en su día por la compañía estadounidense Alta Devices, que alcanzó una eficiencia del 24 por ciento, pero sobre un área de superficie mayor, de 800 centímetros cuadrados.</p><p>El nuevo y alentador récord demuestra que aún hay avances por venir en la investigación fotovoltaica, para hacer células solares de tecnología base convencional todavía más eficientes, tal como subraya Keevers. Extraer más energía de cada rayo de luz solar es esencial para reducir el coste de la electricidad generada por células solares, ya que disminuye la inversión necesaria y la amortiza más rápido.</p>2016-05-19T20:54:57+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/115Ciencia: Nuevo avance en la comprensión de la respuesta al daño del ADN2016-05-19T20:37:50+00:00Gestión Ingenio y Sociedad<p>Un grupo del Centro de Investigación del Cáncer (CIC, centro mixto de la Universidad de Salamanca y el CSIC), en España, ha publicado un artículo en la prestigiosa revista científica Scientific Reports, del grupo Nature, en el que explican un proceso que influye en la respuesta que las células dan al daño en el ADN y que, por lo tanto, tiene que ver con la inestabilidad genética y el cáncer.</p><p> </p><p>En las células eucariotas, la tolerancia al daño de ADN está regulada por un mecanismo de control donde está implicada la ubiquitinación de la proteína PCNA. La ubiquitinación es el proceso de marcaje de una molécula con una proteína llamada ubiquitina. La comunidad científica conoce bien este mecanismo, pero ahora el equipo del CIC ha descrito un aspecto importante, cómo se regula la desubiquitinación de la proteína PCNA, implicada en la regulación de las rutas de tolerancia en respuesta al daño en el ADN.</p><p> </p><p>PCNA es una proteína que tiene una función esencial en la replicación del ADN y un papel clave en la tolerancia al daño del ADN, es decir, en la tolerancia a sus lesiones, que pueden ser determinantes para la aparición de enfermedades. En el ciclo de división celular, la célula es capaz de sintetizar los sitios de ADN dañados que no pudieron ser reparados antes de que comenzara la replicación. Según la información del CIC recogida por DiCYT, en el trabajo publicado se explica el proceso mediante el cual las proteínas se encargan de revertir la ubiquitinación de la proteína PCNA, en consecuencia se comprende con detalle cómo se desactivan las rutas de tolerancia al daño en el ADN.</p><p>Dilucidar el significado de la desubiquitinación de la proteína PCNA en eucariotas o de la relevancia funcional de esta reversión se enmarca dentro de la investigación básica sobre la regulación de la estabilidad genómica en la célula, en definitiva, sobre el daño en el ADN como fuente de inestabilidad genética y cáncer. (Fuente: JPA/DICYT)</p>2016-05-19T20:37:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/114Ciencia: Descubierto un límite fundamental a la evolución del código genéticoLa naturaleza está en constante evolución, solo acotada por las variaciones que hacen peligrar la viabilidad de las especies. Central en la evolución de la vida es el estudio del origen y2016-05-07T20:43:15+00:00Gestión Ingenio y Sociedad<p>La naturaleza está en constante evolución, solo acotada por las variaciones que hacen peligrar la viabilidad de las especies. Central en la evolución de la vida es el estudio del origen y la expansión del código genético. Un equipo de biólogos expertos en esta cuestión explica en Science Advances, la existencia de una limitación que frenó en seco la evolución del código genético, el conjunto universal de normas que usamos todos los organismos de la Tierra para traducir las secuencias de genes de los ácidos nucleicos (ADN y ARN) a la secuencia de aminoácidos de las proteínas que harán las funciones celulares.</p><p> </p><p>El equipo de científicos liderados por el investigador ICREA Lluís Ribas de Pouplana en el Instituto de Investigación Biomédica (IRB Barcelona), en colaboración con Fyodor A. Kondrashov del Centro de Regulación Genómica (CRG) y Modesto Orozco del IRB Barcelona, en España, ha demostrado que el código genético evolucionó hasta incluir un máximo de 20 aminoácidos y no pudo crecer más por una limitación funcional de los ARN de transferencia, las moléculas que hacen de intérpretes entre el lenguaje de los genes y el lenguaje de las proteínas.</p><p> </p><p>Este freno en el crecimiento de la complejidad de la vida se produjo hace más de 3.000 millones de años, antes que bacterias, eucariotas y arqueobacterias evolucionaran por separado, dado que todos usamos el mismo código para producir proteínas.</p><p> </p><p>Los autores del trabajo explican que la maquinaria para traducir los genes a proteínas no puede reconocer más de 20 aminoácidos porque los confundiría entre ellos, lo que produciría mutaciones constantes en las proteínas y por consiguiente una traducción errónea de la información genética “de consecuencias catastróficas”, destaca Ribas. “La síntesis de proteínas basada en el código genético es el alma de todos los sistemas biológicos y es esencial asegurarse la fidelidad”, continua el investigador.</p><p>La saturación del código tiene el origen en los ARN de transferencia (tRNA), las moléculas que reconocen la información genética y llevan el aminoácido correspondiente al ribosoma, donde se fabrican las proteínas encadenando los aminoácidos uno tras otro según la información de un gen determinado. Ahora bien, la cavidad donde han de encajarse los tRNA dentro del ribosoma impone a todas estas moléculas una misma estructura similar a una L, que deja muy poco margen de variación entre ellas.</p><p>“Al sistema le hubiera interesado incorporar nuevos aminoácidos porque de hecho usamos más de 20 pero se añaden por vías muy complejas, fuera del código genético. Y es que llegó un momento en que la Naturaleza no puedo crear nuevos tRNA que fuesen suficientemente diferentes de los que ya había sin que entrasen en conflicto al identificar el aminoácido correcto. Y esto ocurrió cuando se llegó a 20”, expone Ribas.</p><p>Uno de los objetivos de la biología sintética es incrementar el código genético, modificarlo para poder hacer proteínas con aminoácidos diferentes para conseguir funciones nuevas. Se usan organismos, como bacterias, en unas condiciones muy controladas para que fabriquen proteínas con unas características determinadas. “Pero hacerlo no es nada fácil, y nuestro trabajo demuestra que hay que evitar este conflicto de identidad entre los tRNA sintéticos diseñados en el laboratorio con los tRNA pre-existentes para conseguir sistemas biotecnológicos más efectivos”, concluye el investigador.</p><p>Este trabajo ha recibido el apoyo del Ministerio de Economía y Competitividad, la Generalitat de Catalunya, el Consejo Europeo de Investigación (ERC) y la fundación norteamericana Howard Hughes Medical Institute. (Fuente: Instituto de Investigación Biomédica)</p>2016-05-07T20:43:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/113Ciencia: ¿Más planetas sin estrella en el universo que estrellas sin planetas?2016-04-21T00:00:00+00:00Gestión Ingenio y Sociedad<p>En 2011, unos astrónomos anunciaron que nuestra galaxia alberga una cantidad colosal de planetas que no están en órbita a ninguna estrella. De hecho, estos mundos solitarios, que flotan en el espacio interestelar sin la compañía de soles anfitriones ni de planetas compañeros, podrían superar en número a las estrellas de nuestra galaxia, la Vía Láctea. El sorprendente descubrimiento planteó las siguientes preguntas: ¿De dónde proceden estos objetos? ¿Son planetas propiamente dichos que fueron expulsados de sus sistemas solares, o son mayormente enanas marrones que se formaron en solitario en el espacio?</p><p> <img src="/public/site/images/mikhail/planetas_solitarios2.JPG" alt="" /></p><p>Las enanas marrones son cuerpos cuya masa es demasiado pequeña para que puedan convertirse en estrellas, pero demasiado grande para que se les pueda considerar planetas tal como los entendemos.</p><p> </p><p>Un nuevo estudio, realizado por el equipo de Adam Schneider, de la Universidad de Toledo en Ohio, y Davy Kirkpatrick, de la NASA, ambas entidades en Estados Unidos, y en el que se han usado datos obtenidos por la misión espacial WISE de la NASA, así como por el rastreo 2MASS, proporciona nuevas pistas en este misterio de proporciones galácticas. Los científicos han identificado un objeto de masa subestelar dentro de una familia de jóvenes estrellas, llamada asociación TW Hydrae, y sin estar en órbita a ninguna de ellas. Se estima que el objeto recién encontrado, denominado WISEA J114724.10-204021.3, o solo WISEA 1147 para abreviar, tiene una masa de entre 5 y 10 veces la de Júpiter.</p><p> </p><p>WISEA 1147 es, de entre los astros con masa subestelar que no están en órbita a ninguna estrella, uno de los pocos sobre los que los astrónomos pueden empezar a señalar su probable origen como una enana marrón formada como si fuese una estrella más de un grupo estelar, y no como un planeta formado en órbita a una estrella y expulsado posteriormente de su sistema solar.</p><p> </p><p>Dado que se encontró que el objeto forma parte de la familia TW Hydrae de estrellas muy jóvenes, los astrónomos saben que es también muy joven, con solo unos 10 millones de años de edad. Y dado que los planetas precisan de al menos 10 millones de años para formarse, y quizá más para ser expulsados de un sistema solar, WISEA 1147 encaja mejor en el perfil típico de una enana marrón. El proceso de formación de estos objetos es esencialmente el mismo que el de las estrellas, con la diferencia de que las enanas marrones carecen de la masa necesaria para completar el siguiente paso en la evolución estelar y comenzar a fusionar de manera continuada átomos en sus núcleos, brillando así con luz estelar.</p><p>Con una vigilancia continuada, tal vez se conseguirá reconstruir la historia de WISEA 1147 para confirmar o desmentir que se formó de manera aislada en vez de como planeta en órbita a una estrella.</p><p> </p><p>De los miles de millones de mundos sin estrella que se cree pueblan la galaxia, algunos quizá sean enanas marrones de muy baja masa, mientras que otros podrían ser realmente planetas genuinos, expulsados de sistemas solares. En este momento, la proporción de cada una de estas dos poblaciones sigue siendo desconocida. Averiguar los orígenes de estos mundos sin estrella y determinar si son planetas o bien enanas marrones, es una tarea difícil, precisamente porque están tan aislados.</p><p> </p><p>Tal como destaca Kirkpatrick, estamos en el amanecer de lo que se convertirá en un campo muy activo de la astronomía: buscar objetos de masa subestelar que no estén en órbita a ninguna estrella. A medida que crezca el catálogo de tales astros sin estrella, se podrán hacer estimaciones más fiables de la abundancia de cada uno de los dos tipos en el universo.</p><p> </p><p>La asociación TW Hydrae se halla a unos 150 años-luz de la Tierra y solo tiene, como hemos dicho, unos 10 millones de años. Eso convierte a WISEA 1147, con su masa de 5 a 10 veces la de Júpiter, en una de las enanas marrones más jóvenes y de menor masa encontradas hasta ahora.</p><p> </p>2016-04-21T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/112Tecnología: Camión sin conductor circulando con normalidad a 90 km/h2016-04-19T14:32:24+00:00Gestión Ingenio y Sociedad<p>Un camión autónomo en desarrollo por la empresa sueca Scania y otras entidades ha sido probado con éxito a velocidades de hasta 90 kilómetros por hora.</p><p>Estas pruebas con el prototipo son el primer resultado palpable de un ambicioso proyecto que está orientado a desarrollar un camión que se desenvuelva en solitario en lugares difíciles, como las minas y su entorno.</p><p>El éxito de las pruebas permite pronosticar que dentro de uno o dos años ya se pondrán en servicio los primeros camiones de esta clase en operaciones mineras.</p><p>El trabajo ha sido largo y arduo, tal como admite el profesor Bo Wahlberg, del equipo del proyecto y jefe del Departamento de Control Automático del Instituto Real sueco de Tecnología.</p><p>El camión se movió por sí solo con una desviación máxima de 20 centímetros respecto a la línea central de la carretera. Se desempeña de manera muy precisa, incluso a altas velocidades. El prototipo, llamado Astator, viajó de forma suave y estable a su velocidad máxima de 90 km/h.</p><p>El concepto se ha desarrollado hasta el punto de que el camión puede sortear obstáculos con seguridad en la carretera, y llevar a cabo tareas como recoger y descargar grava.</p><p>Con una mayor masa e inercia interna que los coches de pasajeros, los camiones suponen un reto más difícil en cuanto a la conducción autónoma</p><p>El modelo de cálculo del camión debe ser por tanto más complejo y consumir más recursos. Los camiones sin conductor necesitan nueva información cada 50 milisegundos para tomar las decisiones adecuadas sobre la dirección, el acelerador o los frenos.</p><p>En el proyecto, financiado por el gobierno sueco, colaboran también las compañías Saab y Autoliv, así como la Universidad de Linköping.</p><p><a href="https://www.kth.se/en/forskning/artiklar/researchers-have-come-a-long-way-with-self-driving-trucks-1.642722">Información adicional</a></p>2016-04-19T14:32:24+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/111Medio Ambiente: Descubren el volcán más grande del mundo2016-04-18T18:18:35+00:00Gestión Ingenio y Sociedad<p>Encuentran el volcán más grande de la Tierra, y uno de los más grandes del Sistema Solar, en el fondeo del Océano Pacífico. Llamado el Macizo de Tamu, mide 4 km de altura y 640 km de ancho, siendo casi tan enorme como los volcanes de Marte.</p><p>El profesor William Sager, de la Universidad de Houston, y su equipo de científicos empezaron a estudiar el accidente geográfico hace 20 años. Por su enorme dimensión, equiparable al área del estado de Nuevo México, se desconocía si se trataba de un solo volcán o un compuesto de varios puntos de erupción. Tras analizar muestras de lava y la información recolectada por las ondas sonoras de un barco de investigación, finalmente concluyen que se trata de un colosal volcán inactivo.</p><p>El Macizo de Tamu se localiza a aproximadamente mil 600 km al este de la costa de Japón. Es la parte más grande de la cordillera submarina Shatsky, la cual se formó hace unos 130 a 145 millones de años por la erupción de varios volcanes submarinos. Tamu se destaca de los demás volcanes de su tipo no sólo por su tamaño sino por su forma, mientras que su cima se encuentra a casi 2 mil metro bajo el nivel del mar, su enorme base de 310 mil km2 se sitúa a más de 6 km de profundidad.</p><p> <img src="/public/site/images/mikhail/Volcan_más_grande_del_mundo1.JPG" alt="" /></p><p>El volcán Mauna Loa de Hawai, antiguamente el más grande del mundo, se queda corto frente a este gigante. El volcán marciano Monte Olimpo, visible desde la Tierra con un telescopio común, es únicamente 25% más grande que el Macizo de Tamu. </p>2016-04-18T18:18:35+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/110Ciencia: La importancia de tomar ácido fólico y omega-3 de forma no simultánea durante el embarazo2016-04-18T14:03:10+00:00Gestión Ingenio y Sociedad<p>Consumir suplementos de forma no simultánea de ácido fólico y omega-3 (concretamente, aceite de pescado) durante el embarazo mejora el desarrollo de la atención en los niños a los 8,5 años de edad. En contra de lo que se creía hasta ahora, la suplementación conjunta durante el embarazo no determina una mejoría en el desarrollo de la atención de los niños a esa edad, neutralizando los efectos beneficiosos sobre este dominio cerebral, que quedaría programado durante la vida fetal.</p><p>Así se desprende de una investigación realizada por científicos del departamento de Pediatría de la Universidad de Granada (UGR) y del Centro de Excelencia de Investigación Pediátrica EURISTIKOS, liderados por la profesora de la UGR Cristina Campoy, en colaboración con el grupo de Andrés Catena, del Centro de Investigación Mente, Cerebro y Comportamiento (CIMCYC), en España, publicado en la revista The American Journal of Clinical Nutrition.</p><p>Este efecto se interpreta como la interacción entre los dos nutrientes, que debe estudiarse en profundidad, y que indica la necesidad de darlos en distintos momentos del embarazo, pero no de forma simultánea. En el estudio se demuestra que los suplementos de ácido fólico durante el embarazo sí parecen tener un claro efecto positivo a largo plazo sobre el desarrollo de la atención en sus hijos.</p><p>También se ha demostrado que las concentraciones y proporción de omega-3 y omega-6 en cordón umbilical son fundamentales para la velocidad de procesamiento y la alerta en los niños 8,5 años más tarde.</p><p>Teniendo en cuenta el largo periodo de tiempo entre la suplementación en las madres y la evaluación de los niños, este estudio demuestra claramente una relación causal de la alimentación en etapas muy precoces de la vida sobre el desarrollo cerebral de los niños a largo plazo.</p><p>Desde hace años se conocen los beneficios del omega-3 y el ácido fólico en la dieta de las mujeres embarazadas en relación con el desarrollo cerebral del feto. El concepto de programación precoz mediante la nutrición (early nutrition programming) abarca toda la experiencia nutricional que se haya tenido en periodos críticos de la vida (feto, recién nacido, lactante...), y que puede influir programando el desarrollo, metabolismo y la salud futura del nuevo ser humano.</p><p>El cerebro humano, como órgano altamente sensible a las variaciones nutricionales y metabólicas durante estas etapas tempranas del desarrollo, es uno de los órganos diana para sufrir alteraciones que pueden dejar secuelas a largo plazo, e influir en el desarrollo cognitivo y de la conducta de los niños.</p><p>Como parte de este trabajo, la UGR ha participado en un estudio multicéntrico internacional en el marco del Proyecto Europeo NUTRIMENTHE, de los departamentos de Pediatría y Obstetricia y Ginecología de Münich (Alemania), Pécs (Hungría) y Granada (España), donde se asignaron al azar suplementos alimentarios conteniendo aceite de pescado o ácido fólico, que recibieron las madres durante la gestación. Los hijos nacidos de estas mamás se han evaluado de manera continua durante 10 años.</p><p>El objetivo de la investigación publicada en The American Journal of Clinical Nutrition fue estudiar los efectos potenciales a largo plazo de la suplementación prenatal con omega-3 y ácido fólico sobre el desarrollo de la atención en los niños a los 8,5 años.</p><p>El sistema de atención supone una interacción compleja del sistema neural. Muchos autores han resumido este sistema de atención en una “teoría del mecanismo de atención” donde se separa en tres redes segregadas: conflicto (control ejecutivo), alerta y orientación.</p><p>Los investigadores de la UGR han medido este sistema de atención usando la técnica de EEG/ERP o Potenciales Cognitivos Evocados (grabaciones electrofisiológicas del cerebro y del comportamiento y tomografías electromagnéticas).</p><p>Todos los niños estudiados a los 8,5 años mostraban un desarrollo normal de la atención para su edad. No obstante, los científicos encontraron resultados positivos significativos en los niños cuyas madres recibieron ácido fólico durante la gestación o bien omega-3, siendo especialmente notables en los hijos de madres que recibieron suplementos de ácido fólico; sin embargo, los autores creen que la suplementación de forma simultánea anula el efecto positivo de estos nutrientes sobre la atención de los niños cuando son aportados de forma individual.</p><p>“En este estudio, observamos una ventaja significativa en la atención –funciones ejecutivas (mejora en la capacidad de resolver conflictos), alerta y orientación– en los niños nacidos de las mamás que recibieron suplementos de ácido fólico, aunque este efecto disminuyó cuando se simultaneó dicha suplementación con omega-3”, explica Campoy.</p><p>Los resultados publicados aportan nuevos datos sobre la importancia de la nutrición prenatal en el desarrollo cerebral, y estimulan la realización de más estudios sobre este tema, especialmente sobre los factores que influyen sobre la activación del área del córtex prefrontal que regula esta función ejecutiva.</p><p>Igualmente, esta investigación sugiere la necesidad de realizar nuevos análisis que permitan establecer las dosis óptimas de ácidos grasos y ácido fólico en los diferentes estadios del embarazo. (Fuente: UGR_divulga)</p>2016-04-18T14:03:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/109Ciencia: El Hubble ofrece nuevas pistas sobre la formación de sistemas planetarios2016-04-14T13:46:22+00:00Gestión Ingenio y Sociedad<p>Cuando se forma una estrella, se origina a la vez un disco de gas denso que se considera el germen del sistema planetario. Este disco, formado por gas y polvo, va perdiendo el gas durante su evolución a dicho sistema.</p><p>“La desaparición de este gas es un momento clave en la formación del sistema planetario y los planetas”, destaca Ana Inés Gómez de Castro, científica del grupo de investigación AEGORA de la Universidad Complutense de Madrid (UCM).</p><p>En un estudio en colaboración con la Universidad de Colorado (EEUU) y el Instituto de Astronomía de la Academia Rusa de Ciencias, Gómez de Castro y el resto de investigadores han utilizado observaciones del telescopio espacial Hubble para tratar de resolver algunas de las incógnitas de este proceso de formación estelar.</p><p>Lo que se sabía hasta ahora es que el gas del disco, compuesto, fundamentalmente, de hidrógeno molecular, absorbe la radiación ultravioleta de la estrella y se calienta, adquiriendo suficiente energía como para escaparse del campo gravitacional.</p><p>“Literalmente, el disco se fotoevapora por la absorción de radiación energética, sobre todo ultravioleta y rayos X”, describe la científica, cuyo artículo se publica en The Astrophysical Journal Letters.</p><p>De forma paralela a esta desaparición del gas, durante las primeras etapas de la formación estelar, una fracción de la materia del disco cae sobre la superficie de la estrella, atraída por su gravedad. Este material cubre, como si fuera un velo, una fracción de la superficie estelar, impidiendo que parte de la radiación ultravioleta llegue a la superficie del disco.</p><p>“En nuestro trabajo hemos medido por primera vez el efecto de la opacidad de este material en la iluminación y posterior calentamiento del disco protoplanetario”, destaca Gómez de Castro. Para ello, han utilizado observaciones realizadas con el Hubble a un joven sistema binario de estrellas AK Sco, situado a unos 460 años luz de la Tierra y con entre 10 y 20 millones de años de antigüedad.</p><p>“Nuestra investigación muestra que la evolución de los discos protoplaneatrios puede ser más lenta de lo que teóricamente se había predicho”, afirma la científica, puesto que el material en caída libre sobre la estrella tapa parte de la superficie radiante, lo que ralentiza su fotoevaporación.</p><p>Algunos modelos teóricos predicen que el contenido gaseoso de estos discos desaparece alrededor de un millón de años después del inicio de la formación estelar. Sin embargo, existen observaciones que indican que hay gas incluso a edades de diez millones de años.</p><p> </p><p>Los científicos plantean que a partir de ahora se tengan en cuenta los resultados de su estudio, para realizar evaluaciones realistas del impacto de la fotoevaporación en la evolución de los discos planetarios jóvenes. “El momento de desaparición del gas de los sistemas protoplanetarios afecta a la formación de los planetas, a su distribución y a su composición”, recuerda Gómez de Castro. (Fuente: Universidad Complutense de Madrid).</p>2016-04-14T13:46:22+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/108Ciencia: Inesperada influencia de una clase de células cerebrales sobre el sistema nervioso2016-04-14T13:38:19+00:00Gestión Ingenio y Sociedad<p>Se ha descubierto que un tipo común de célula cerebral moldea el sistema nervioso de formas inesperadas.</p><p>Más de la mitad de nuestro cerebro se compone de células gliales, que envuelven las fibras nerviosas y las aíslan, de forma parecida a cómo la funda de plástico de un cable eléctrico aísla el hilo de cobre del interior, permitiendo que los impulsos eléctricos y químicos viajen más rápido. Antiguamente, los neurocientíficos consideraban la célula glial como un ayudante esencial pero pasivo de las células nerviosas.</p><p>Sin embargo, el equipo de Shai Shaham y Aakanksha Singhvi, de la Universidad Rockefeller en Nueva York, Estados Unidos, ha acumulado pruebas contundentes de que este tipo de célula juega un papel mucho más activo y dinámico en el cerebro de lo que se pensaba anteriormente.</p><p>Estos científicos han comprobado que las células gliales pueden controlar la forma de terminaciones nerviosas específicas, interactuando con ellas a través de una vía molecular previamente desconocida. En el sistema nervioso, la forma es muy importante. La que adopta una neurona dicta con qué otras neuronas se conectará e incluso la intensidad de tales conexiones. Pero es muy poco lo que se sabe sobre cómo se impone dicha forma.</p><p>El hallazgo de que las células gliales pueden modular los extremos de los nervios al expresar un transportador iónico (una bomba de iones) solo donde entra en contacto con un tipo particular de neurona, promete abrir muchas líneas de investigación. Si resulta que se trata de un mecanismo ampliamente utilizado por el cual las células gliales afectan de manera selectiva a ciertas neuronas, podría ser manipulado con objetivos terapéuticos.</p><p>La formación y mantenimiento de las formas que adoptan las terminaciones de los nervios son importantes para el aprendizaje y la memoria, y una alteración indebida de esta forma está asociada a trastornos neuronales, como la esquizofrenia y el Mal de Alzheimer.</p>2016-04-14T13:38:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/107Tecnología: Hacia pilas eléctricas que se recarguen directamente con luz solar2016-04-13T15:15:21+00:00Gestión Ingenio y Sociedad<p>Dejar expuestas al sol pilas eléctricas para que se recarguen, como ropa tendida para que se seque, suena extraño, pero en un futuro cercano podría ser una manera cotidiana de recargar pilas.</p><p>Es vital que el suministro de energía sostenible sea independiente de las fluctuaciones naturales de las fuentes de energía renovable, como la luz solar. La conexión de fuentes de energía “verdes” con sistemas fiables de almacenamiento de energía es por tanto un concepto esencial para energías como la solar o la eólica. Actualmente hay sistemas de células fotovoltaicas que están conectados por cables a baterías, mayormente basadas en el plomo. Una configuración típica es la de unos paneles solares en el tejado con una batería en el sótano. Esto ocupa mucho espacio, necesita un mantenimiento frecuente y su eficiencia es modesta.</p><p>La meta del equipo de Ilie Hanzu, del Instituto de Química y Tecnología de los Materiales, adscrito a la Universidad Tecnológica de Graz en Austria, es fabricar un híbrido de batería y célula solar a partir de dos sistemas individuales, que no solo sea capaz de convertir energía solar en energía eléctrica sino también almacenar esta. Estos científicos están entrando en un territorio de la ciencia y la tecnología básicamente desconocido. En el proyecto SolaBat quieren desarrollar un concepto nuevo y útil para aplicaciones prácticas, así como probar su capacidad.</p>La clave para el éxito reside en la nueva combinación de materiales funcionales. En el sistema híbrido, los materiales de alto rendimiento comparten sus tareas en la célula solar y en la batería. Los materiales deben cumplir de forma fiable sus tareas respectivas y ser también electroquímicamente compatibles con los otros materiales, de manera que funcionen juntos en un único dispositivo. En vez de electrodos que contienen cobalto, los cuales dañan al medio ambiente, se usarán como materiales activos los ecoamistosos titanatos. También podrían usarse células basadas en polímeros (en otras palabras, células solares orgánicas).<p>Las ventajas del sistema híbrido “2 en 1” son obvias: ahorraría espacio, sería más eficiente energéticamente y más simple de gestionar. En el proyecto SolaBat se están desarrollando y probando las bases, pero incluso en esta etapa temprana ya se ven en el horizonte una serie de aplicaciones potenciales de tal sistema, desde pilas eléctricas para todo tipo de dispositivos portátiles hasta baterías de coche, e incluso paneles solares de grandes dimensiones.</p>2016-04-13T15:15:21+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/106Salud: Un brote de gripe H1N1 provoca el caos en los hospitales de Sao Paulo2016-04-11T00:00:00+00:00Gestión Ingenio y Sociedad<p>Río de Janeiro (Brasil), 30 mar (Sputnik).- La irrupción de un potente foco de la gripe H1N1, más conocida como “gripe A”, en la ciudad brasileña de Sao Paulo ha provocado en los últimos días la saturación de los hospitales de la red pública con filas que alcanzaron un promedio de tres horas.</p><p><img src="/public/site/images/mikhail/virus_HiN11.JPG" alt="" /></p><p>A pesar de que en la mayoría de los centros las primeras vacunas no estarán disponibles hasta el 11 de abril, los padres de menores intentan obtener la ansiada vacuna debido a la mayor probabilidad de los niños de contraer el virus, que por el momento ha provocado 46 muertes en el país, 38 de ellas en Sao Paulo.</p><p>“Ha sido toda una sorpresa un brote de estas dimensiones en este periodo del año”, declaró el coordinador del Control de Enfermedades de la Secretaría de Salud de Sao Paulo, Marcos Boulos, quien señaló la situación de emergencia en la localidad de Sao José de Río Preto, una de las principales ciudades del Estado.</p><p>De hecho, ante el adelanto del impacto de la gripe en 2016, el Ministerio de Salud anunció el martes que anticipará las campañas de vacunación que estaban previstas para el 30 de abril mientras que el gobernador del Estado de Sao Paulo, Geraldo Alckmin, decretó el inicio de las vacunas sobre 3,5 millones de personas en todo el estado a partir de la semana próxima.</p><p>En total se distribuirán 25 millones de vacunas en todo Brasil entre los días 1 y 15 de abril, lo que debería ser suficiente para cubrir el 48 por ciento de la demanda real en todo el país, aunque las personas con mayor riesgo de complicaciones como niños de corta edad (4 años), enfermos crónicos y ancianos tendrán preferencia.</p><p>Por su parte, los hospitales de la red privada de Sao Paulo ya ofrecen la vacuna contra la gripe H1N1 y el subtipo H3N2 por un precio entre los 120 y los 200 reales (entre 33 y 55 dólares), aunque la demanda es tan elevada que las filas llegan a superar las del sistema público de salud con hasta 4 horas de espera en la capital. (Sputnik)</p>2016-04-11T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/105Tecnología: Nueva tecnología para hacer menos contaminante el uso de carbón en centrales eléctricas2016-04-07T15:11:42+00:00Gestión Ingenio y Sociedad<p>La mayoría de las naciones del mundo han acordado practicar reducciones sustanciales en sus emisiones de gases de efecto invernadero, pero alcanzar esos objetivos es todavía un reto tecnológico, económico y político considerable. La Agencia Internacional de la Energía ha pronosticado que, incluso con la aplicación de los nuevos acuerdos, la generación global de energía a través del carbón se incrementará a lo largo de las próximas décadas. Encontrar una manera más limpia de usar ese carbón podría ser un notable paso adelante hacia el objetivo de reducir las emisiones de carbono, satisfaciendo al mismo tiempo las necesidades de una población mundial creciente y cada vez más industrializada, que todavía no está preparada para una plena conversión hacia las energías limpias.</p><p><img style="display: block; margin-left: auto; margin-right: auto;" src="/public/site/images/mikhail/energías_limpias.JPG" alt="" width="445" height="374" /></p><p>Ahora, Katherine Ong y Ahmed Ghoniem, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, ha ideado un nuevo concepto que podría contribuir a ese esfuerzo, haciendo posible generar electricidad a partir del carbón con una eficiencia mucho más grande, posiblemente alcanzando hasta el doble de la eficiencia de las actuales centrales convencionales de carbón. Esto significaría, manteniendo todo lo demás, una reducción del 50 por ciento en las emisiones de dióxido de carbono para la misma cantidad de energía producida.</p><p>La clave del concepto es combinar en un único sistema dos tecnologías bien conocidas: la gasificación del carbón y las células de combustible.</p><p>La gasificación del carbón es una forma de extraer combustible gaseoso que se pueda quemar a partir de carbón pulverizado, en vez de quemar el propio carbón. La técnica se emplea ampliamente en plantas de procesamiento químico como una forma de producir gas hidrógeno. Las células de combustible generan electricidad a partir de un combustible gaseoso, haciéndolo pasar a través de un sistema parecido a una batería, donde reacciona electroquímicamente con el oxígeno del aire.</p><p>Lo atractivo de combinar estos dos sistemas es que ambos procesos operan a unas temperaturas altas similares, de 800 grados centígrados o más. Combinarlas en una única central permitiría por tanto que los dos componentes intercambiasen calor con pérdidas mínimas de energía. De hecho, la célula de combustible generaría suficiente calor para sostener la parte de gasificación del proceso, eliminando la necesidad de un sistema de calentamiento separado, que habitualmente funciona mediante la quema de una porción del carbón.</p><p>La gasificación del carbón, por sí misma, funciona a una temperatura más baja que la necesaria para la combustión, y es más eficiente que dicha quema.</p><p>Dado que no hay una combustión implicada, el sistema produce cantidades de ceniza y de otros productos contaminantes del aire que son mucho menores que las cantidades que se generarían a través de la combustión. Sí que produce dióxido de carbono, pero se trata de un flujo puro y sin contaminar, sin mezclarse con el aire como por desgracia sí ocurre en las centrales convencionales alimentadas con carbón. Eso facilitaría capturarlo para luego enterrarlo bajo tierra o inmovilizarlo de alguna otra manera, eliminando así o reduciendo drásticamente las emisiones de gases con efecto invernadero a la atmósfera.</p><p>Las centrales eléctricas convencionales que queman carbón tienen habitualmente una eficiencia muy baja; solo el 30 por ciento de la energía contenida en el combustible es realmente convertida en electricidad. Comparativamente, el sistema propuesto que combina la gasificación y la célula de combustible podría alcanzar eficiencias que llegan hasta un nivel de entre el 55 y el 60 por ciento.</p><p>El próximo paso en esta línea de investigación y desarrollo será construir una planta piloto pequeña, para medir el rendimiento del sistema híbrido en condiciones reales.</p>2016-04-07T15:11:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/104Ciencia: Los tumores de mama dependen del suministro de grasas para poder crecer2016-04-07T00:00:00+00:00Gestión Ingenio y Sociedad<p>Una investigación liderada por el Instituto de Investigación Biomédica (IRB Barcelona), en colaboración con hospitales españoles y la Universidad Rovira i Virgili (URV), ha puesto al descubierto una dependencia del cáncer de mama que podría abrir nuevas opciones terapéuticas para combatirlo.</p><p>Los científicos describen en Nature Communications cómo las células de mama tumorales necesitan recoger grasas del exterior y trasladarlas a su interior para poder seguir proliferando.</p><p>La principal proteína en este proceso es LIPG (leído, lip ge), una enzima localizada en la membrana (la capa exterior que envuelve las células) sin cuya actividad la célula tumoral no puede crecer. Los análisis de más de 500 muestras clínicas de pacientes con distintos tipos de tumores de mama revelan que el 85% tienen altos niveles de LIPG.</p><p>En España, el cáncer de mama es el tumor más frecuente en mujeres y el cuarto en ambos sexos (datos SEOM, 2012), con más de 25.000 nuevos diagnósticos cada año.</p><p>Según cifras de la Organización Mundial de la Salud, en el mundo se diagnostican 1,38 millones de nuevos casos y produce 458.000 muertes al año (IARC Globocan, 2008).</p><p>Se conocía que las células tumorales captan glucosa del exterior para crecer al igual que se sabía que reprograman su maquinaria interna para producir muchos más lípidos (grasas).</p><p>La novedad del descubrimiento radica en que, por primera vez, se pone al descubierto la necesidad de las células tumorales de importar lípidos externos.</p><p> </p><p>“Este nuevo conocimiento relacionado con el metabolismo podría representar un talón de Aquiles para el cáncer de mama”, explica el investigador ICREA y jefe de grupo del IRB Barcelona, Roger Gomis, colíder del trabajo junto a Joan J. Guinovart, director del IRB Barcelona y catedrático de la Universidad de Barcelona.</p><p> </p><p>Los científicos demuestran en modelos animales y en células tumorales que, bloqueando la actividad de la LIPG, el tumor deja de crecer.</p><p> </p><p>“Lo prometedor de esta nueva diana terapéutica es que la función de la proteína LIPG no parece ser indispensable para la vida, por lo cual su inhibición generaría menos efectos adversos que otros tratamientos”, explica el primer firmante del trabajo, Felipe Slebe, que ha disfrutado de una beca del programa internacional de doctorado en biomedicina de “la Caixa”.</p><p> </p><p>Guinovart indica que, “al ser una proteína de membrana es potencialmente más fácil conseguir una molécula farmacológica para bloquear su actividad”.</p><p> </p><p>LIPG tiene “muchas virtudes” como diana, dice Gomis. “De prosperar una sustancia que la anulara podría convertirse en la base de una quimioterapia más eficaz, pero menos tóxica que las actualmente disponibles.”</p><p> </p><p>Los científicos están buscando ahora alianzas internacionales para desarrollar inhibidores para LIPG.</p><p><img style="display: block; margin-left: auto; margin-right: auto;" src="/public/site/images/mikhail/proteina_lipg.JPG" alt="" width="285" height="180" /> </p><p>En el trabajo han participado los equipos de Joan Albanell del Hospital del Mar, Ana Lluch del Hospital Clínico de Valencia, Federico Rojo del IIS-Fundación Jiménez Díaz y Óscar Yanes del Center for Omic Sciences de la Universidad Rovira i Virgili de Tarragona. (Fuente: IRB Barcelona)</p>2016-04-07T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/103Tecnología: Un rotor y unas pinzas nanométricos basados en la papiroflexia de ADN2016-03-09T15:47:07+00:00Gestión Ingenio y Sociedad<p>Se ha conseguido construir dos máquinas de tamaño nanométrico con partes móviles, usando ADN como material de construcción programable que se autoensambla. Una de las máquinas es un mecanismo rotor formado por componentes tridimensionales de ADN engranados. La otra, con forma de pinza y provista de bisagras, sirve para manipular objetos de tamaño molecular, a modo de garra o mano robótica.</p><p> </p><p>Estos son solo los pasos más recientes en una campaña por transformar el llamado Origami (o Papiroflexia) de ADN en una tecnología industrialmente útil y comercialmente viable.</p><p> </p><p>Inspirado por las nanomáquinas de la naturaleza, el equipo del profesor Hendrik Dietz, de la Universidad Técnica de Múnich en Alemania, ha desarrollado sistemáticamente reglas y procedimientos para crear estructuras de origami de ADN autoensambladas con una flexibilidad y un control cada vez más grandes.</p><p> </p><p>En sintonía con este progreso, él y sus colegas han perfeccionado los métodos necesarios para verificar, por ejemplo, que una "sopa" de nanopartículas en particular está realmente llena de copias de todo lo que diseñaron: ya sea un engranaje conmutable, un canal de membrana artificial, un objeto de prueba arbitrariamente complicado, un “nanolibro” que se abre y cierra, o una figura de robot con brazos móviles.</p><p>Las adiciones más recientes al zoo de objetos de origami de ADN del laboratorio, las dos citadas nanomáquinas con partes móviles, demuestran nuevas capacidades.</p><p>El rotor no tiene motor que lo accione: está propulsado por el movimiento browniano, el movimiento aleatorio de las partículas en una solución. Al demostrar la viabilidad de construir tal máquina, los investigadores han abierto el camino hacia dispositivos activos controlados y energizados de manera inusual por vías térmicas o químicas. Es como haber construido un motor, en palabras de Dietz. “Las próximas cosas a fabricar en la lista son las bujías y el combustible”.</p><p><img src="/public/site/images/mikhail/maquinas_de_nanoparticulas1.JPG" alt="" /> </p><p>En el rotor han trabajado también Philip Ketterer y Elena Willner.</p><p> </p><p>En un proyecto separado, Dietz y Jonas Funke han creado una pinza capaz de manipular moléculas individuales con precisión atómica. El ángulo de separación entre los dos elementos estructurales principales de la pinza puede ser controlado con hélices de ADN. Los experimentos con este dispositivo manipulador han mostrado que podría ser capaz de colocar moléculas de forma muy precisa, ajustando la distancia entre ellas en pasos tan pequeños como el radio de un átomo de hidrógeno.</p><p>Tomado de:<a href="http://noticiasdelaciencia.com/not/18605/un-rotor-y-unas-pinzas-nanometricos-basados-en-la-papiroflexia-de-adn/" target="_blank">NCYT</a></p><p> </p>2016-03-09T15:47:07+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/102Ciencia: El sudor pone sobre la pista de enfermedades2016-02-22T21:12:47+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Un equipo científico compuesto por investigadores de la Universidad de Córdoba en el Instituto Maimónides de Investigación Biomédica (IMIBIC) y del Hospital Universitario Reina Sofía de Córdoba, en España, ha desarrollado un método analítico que pretende utilizar el sudor como marcador de diversas patologías. Para conseguirlo, el nuevo sistema se fija en los aminoácidos presentes en el sudor y valora las posibles alteraciones que producen en ellos enfermedades del riñón o el hígado, neuropatías o la dieta.</p><p> </p><p>El grupo de investigación que dirige la catedrática Dolores Luque de Castro, del Departamento de Química Analítica de la Universidad de Córdoba, trabaja en alternativas no invasivas a los análisis convencionales de sangre. Concretamente, el equipo se ha fijado en el sudor y en el condensado del aliento del paciente para diseñar nuevos métodos analíticos que sirvan al desarrollo de aplicaciones clínicas.</p><p> </p><p>El equipo de investigación ya ha caracterizado y analizado el sudor para establecer su composición. A raíz de este trabajo, se observó su utilidad para desarrollar una herramienta de cribado en cáncer de pulmón. Esta herramienta está en proceso de validación en un proceso que puede llevar varios años. Al analizar la composición, el grupo de investigación observó que se podía analizar en el sudor el perfil completo de aminoácidos, proteínas que juegan un papel esencial en diferentes procesos metabólicos en los seres vivos. La alteración de su expresión está vinculada a la presencia de dolencias en el riñón o el hígado, por ejemplo. Un artículo publicado recientemente en la revista científica Talanta presenta cuáles de estos aminoácidos pueden servir de biomarcadores en diferentes dolencias y el método analítico empleado.</p><p> </p><p>“El trabajo tiene aplicabilidad tanto para la medicina forense como para el desarrollo de aplicaciones clínicas”, explica Luque de Castro. Actualmente, el equipo sigue muestreando pacientes, ya que “es difícil localizar individuos en primeras fases de las enfermedades que permitan validar los métodos analíticos desarrollados”. Además, estos resultados han despertado el interés de varias empresas. Entre ellas, la compañía estadounidense Eccrine Systems con quien se ha cerrado un acuerdo para el desarrollo de equipos de muestreo de sudor en el diagnóstico clínico. La empresa está especializada en la creación de sensores que, a través de la sudoración, aportan información sobre la salud o el rendimiento deportivo de los portadores.</p><p> </p><p>El trabajo de cribado de cáncer de pulmón, que abrió esta línea de investigación, ha permitido que el Instituto Maimónides de Investigación Biomédica de Córdoba (IMIBIC) solicite una patente nacional sobre esta herramienta de monitorización. La metodología puede servir para adelantar el diagnóstico de este tipo de tumores a estadios más tempranos. Actualmente, el cáncer de pulmón se detecta generalmente cuando se encuentra avanzado, lo que complica la supervivencia del paciente.</p><p> </p><p>La perspectiva de que el sudor servía como indicador del cáncer de pulmón ya se publicó en Lancet en 1989. Entonces, se observó que perros adiestrados tenían la capacidad de discriminar entre muestras de pacientes con esta enfermedad y otras que eran neutras. Los animales, no obstante, no son herramientas cien por cien fiables, porque pueden sobrevenirles enfermedades u otras circunstancias que alteren su olfato. La búsqueda de un método analítico con bases químicas es una alternativa más fiable. (Fuente: UCO)</p></div>2016-02-22T21:12:47+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/101Tecnología: Nanoesferas reducen en un 65% la cantidad de fertilizante nitrogenado convencional2016-02-04T14:23:30+00:00Gestión Ingenio y Sociedad<p>Aleana Ledezma Delgadillo, estudiante de doctorado en el Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada del Instituto Politécnico Nacional (CICATA-IPN), en México, desarrolló nanoesferas fabricadas con un biopolímero que permite reducir 65 por ciento la cantidad de fertilizante nitrogenado que convencionalmente se utiliza para nutrir una planta, sin afectar su crecimiento y desarrollo.</p><p> </p><p>La investigadora está convencida que su innovación beneficiará el sector agrícola y el medio ambiente. "En el área agrícola ayuda a los productores en la cantidad que utilizan de fertilizante, disminuyendo el gasto que hacen para comprarlo y, en consecuencia, se reducen los costos de los alimentos, porque en cualquier hortaliza se pueden utilizar estas nanoesferas. Y en el área ambiental disminuimos el daño que se le está ocasionando al suelo (por el uso de fertilizantes)".</p><p> </p><p>La becaria del Consejo Nacional de Ciencia y Tecnología (Conacyt) actualmente realiza una estancia en el Instituto Tecnológico de Tepic (ITT) y es asesorada por los doctores Eduardo San Martín Martínez, del CICATA-IPN, Mónica R. Jaime Fonseca, también del CICATA-IPN, Rogelio Carrillo González, del Colegio de Postgraduados en Ciencias Agrícolas (Colpos-Texcoco), y Alejandra Chacón López, del ITT.</p><p> </p><p>El fertilizante nitrato de amonio (NH4NO3) está encapsulado en el biopolímero quitosano, el cual se deriva de un polímero proveniente de la cáscara de los crustáceos, denominado quitina. Las nanoesferas que resultan tienen un tamaño que oscila entre los 100 y 375 nanómetros (nm).</p><p> </p><p>Ledezma Delgadillo encontró que al ser de un tamaño nanoestructurado, las cápsulas nutren mejor la planta. "Ya que los poros de las raíces son pequeños y es una de las razones por las que los fertilizantes no entran adecuadamente, un tamaño nanoestructurado podría facilitar la nutrición de la planta, así vamos a disminuir el uso de fertilizantes; por su parte, el quitosano no daña el suelo, de hecho las mismas bacterias que están en el suelo pueden tomar esta sustancia como alimento".</p><div class="HIJOS_CONT"><div class="HIJOS"><a href="http://noticiasdelaciencia.com/sec/tecnologia/computacion/"> Computación </a> <a href="http://noticiasdelaciencia.com/sec/tecnologia/ingenieria/"> Ingeniería </a> <a class="SUB_ACTIVO" href="http://noticiasdelaciencia.com/sec/tecnologia/nanotecnologia/"> Nanotecnología </a></div></div><div class="menuprincipalguia"> </div><div class="PORTADA_top"> </div><div class="BANNERS BANNERS-TOP"> </div><div class="fecha">Miércoles, 3 febrero 2016</div><div class="antetitulo">Nanotecnología</div><h1>Nanoesferas reducen en un 65% la cantidad de fertilizante nitrogenado convencional</h1><div class="ACCIONES_ICONOS"><div class="ICONOS_1"> </div><div class="PUNTUACION"> </div><div class="socialblock"><div class="fb-like fb_iframe_widget" data-href="http://noticiasdelaciencia.com/not/18082/nanoesferas-reducen-en-un-65-la-cantidad-de-fertilizante-nitrogenado-convencional/" data-layout="button_count" data-width="150" data-send="false"> </div></div><div class="noticia_audioplayers"> </div></div><div class="ENTRADA html"><ins class="adsbygoogle" style="display: inline-block; width: 300px; height: 250px;" data-adsbygoogle-status="done" data-ad-client="ca-pub-5663005764905852" data-ad-slot="2756353996"><ins id="aswift_2_expand" style="display: inline-table; border: none; height: 250px; margin: 0; padding: 0; position: relative; visibility: visible; width: 300px; background-color: transparent;"><ins id="aswift_2_anchor" style="display: block; border: none; height: 250px; margin: 0; padding: 0; position: relative; visibility: visible; width: 300px; background-color: transparent;"></ins></ins></ins></div><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "> </div><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Aleana Ledezma Delgadillo, estudiante de doctorado en el Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada del Instituto Politécnico Nacional (CICATA-IPN), en México, desarrolló nanoesferas fabricadas con un biopolímero que permite reducir 65 por ciento la cantidad de fertilizante nitrogenado que convencionalmente se utiliza para nutrir una planta, sin afectar su crecimiento y desarrollo.</p><p> </p><p>La investigadora está convencida que su innovación beneficiará el sector agrícola y el medio ambiente. "En el área agrícola ayuda a los productores en la cantidad que utilizan de fertilizante, disminuyendo el gasto que hacen para comprarlo y, en consecuencia, se reducen los costos de los alimentos, porque en cualquier hortaliza se pueden utilizar estas nanoesferas. Y en el área ambiental disminuimos el daño que se le está ocasionando al suelo (por el uso de fertilizantes)".</p><p> </p><p>La becaria del Consejo Nacional de Ciencia y Tecnología (Conacyt) actualmente realiza una estancia en el Instituto Tecnológico de Tepic (ITT) y es asesorada por los doctores Eduardo San Martín Martínez, del CICATA-IPN, Mónica R. Jaime Fonseca, también del CICATA-IPN, Rogelio Carrillo González, del Colegio de Postgraduados en Ciencias Agrícolas (Colpos-Texcoco), y Alejandra Chacón López, del ITT.</p><p> </p><p>El fertilizante nitrato de amonio (NH4NO3) está encapsulado en el biopolímero quitosano, el cual se deriva de un polímero proveniente de la cáscara de los crustáceos, denominado quitina. Las nanoesferas que resultan tienen un tamaño que oscila entre los 100 y 375 nanómetros (nm).</p><p> </p><p>Ledezma Delgadillo encontró que al ser de un tamaño nanoestructurado, las cápsulas nutren mejor la planta. "Ya que los poros de las raíces son pequeños y es una de las razones por las que los fertilizantes no entran adecuadamente, un tamaño nanoestructurado podría facilitar la nutrición de la planta, así vamos a disminuir el uso de fertilizantes; por su parte, el quitosano no daña el suelo, de hecho las mismas bacterias que están en el suelo pueden tomar esta sustancia como alimento".</p><p> </p><div class="RichTextAlignCenter" style="position: relative; width: 450px; height: 275px;"><img id="IMAGEN_INSERTADA_33634" title="Nanoesferas de fertilizante. (Foto: CONACYT)" src="http://noticiasdelaciencia.com/upload/img/periodico/img_33634.jpg" alt="[Img #33634]" width="" height="" /><div class="pieDeFoto"><cite>Nanoesferas de fertilizante. (Foto: CONACYT)</cite></div></div><p> </p><p>Incluso la raíz de la planta del cultivo experimental, nutrida con las nanoesferas, tuvo mayor longitud en comparación con la planta del cultivo control. En este caso, el experimento se realizó con lechugas en un cultivo hidropónico, un método donde el uso del suelo se sustituye con un sistema de tubos de policloruro de vinilo (PVC) por donde recircula el agua, o algún sustrato como es fibra de coco, agrolita, vermiculita, turba, etcétera, con el fin de controlar la cantidad de nutrientes minerales.</p><p> </p><p>"Esto en los cultivos ayuda porque avanza más la raíz y podría tomar más nutrientes del subsuelo, que no estén fácilmente disponibles; mientras más profunda la raíz hay más nutrientes. Al haber una raíz más larga, toma más nutrientes y se requiere utilizar menos cantidad de fertilizante", agregó.</p><p> </p><p>El proceso para obtener las nanoesferas inicia en un vaso de precipitado, donde el quitosano se disuelve en ácido metacrílico (C4H6O2) durante doce horas; posteriormente a una temperatura de 65 centígrados, con agitación magnética, se añade como iniciador de polimerización el persulfato de potasio (K2S2O8). Dichos materiales se unen por fuerzas electrostáticas y se obtienen las nanocápsulas, solo que para evitar su aglomeración se colapsan con un baño frío, además de centrifugarlas para retirar cualquier tipo de remanente. Por último, se adiciona el fertilizante nitrogenado.</p><p> </p><p>"Además de reducir en 65 por ciento el uso del fertilizante, estamos en proceso de comprobar que el quitosano, por sí solo, induce un mayor crecimiento en el fruto", aseveró.</p><p> </p><p>La investigadora espera que en algunos años su propuesta se cristalice en los campos agrícolas y así disminuya el uso de fertilizante en las cosechas. Sobre esto, dio a conocer que en localidades agrícolas se ha comprobado que el uso excesivo de estos químicos genera un gran riesgo para la salud.</p><p> </p><p>Tal es el caso del estudio que se realizó en Estación Bamoa, municipio de Guasave, Sinaloa, denominado Impacto de la fertilización nitrogenada en agua para consumo humano, donde los resultados demostraron concentraciones de nitratos (N-NO3) muy por encima de las recomendadas por la Norma Oficial Mexicana (NOM), la cual es de 10 miligramos por litro y en esta comunidad se encontraron hasta 22.7 miligramos por litro.</p><p> </p><p>Que los fertilizantes nitrogenados se filtren a los mantos freáticos y acuíferos es tan grave que el consumo prolongado de estas aguas puede provocar cáncer, además de abortos espontáneos y una enfermedad llamada metahemoglobinemia, que inhibe el transporte de oxígeno en la sangre, refiere el mencionado documento. Ledezma Delgadillo adelantó que aplicará el método de encapsulación en otro tipo de fertilizantes como los fosfatados o potásicos. (Fuente: CONACYT/DICYT)</p></div>2016-02-04T14:23:30+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/100Sociedad: El significado de las palabras esconde una estructura universal2016-02-04T14:19:23+00:00Gestión Ingenio y Sociedad<p>Dos de las múltiples acepciones que tiene la palabra ‘cielo’ en castellano son la capa azul que rodea la Tierra y el lugar donde moran los ángeles y bienaventurados junto a Dios. En francés (ciel) ocurre algo parecido, pero en inglés se diferencia el cielo atmosférico (sky) del divino (heaven), aunque ambos conceptos están fuertemente relacionados.</p><p> </p><p>Científicos de la Universidad de Oxford (Reino Unido) y otros centros internacionales han analizado este tipo de asociaciones entre palabras, recogidas en diccionarios de 81 idiomas de todo el mundo. Su objetivo era determinar si existen unas propiedades universales comunes de la cognición humana que marcan la estructura de las lenguas –como parecen apuntar los resultados–, o si el lenguaje es más bien un reflejo de la cultura o la región geográfica donde se desarrolla.</p><p> </p><p>Los autores, que publican su estudio en la revista PNAS, han diseñado un modelo matemático y herramientas estadísticas para cuantificar las similitudes semánticas. Además, seleccionaron términos relacionados con materiales (piedra, ceniza, arena), objetos celestes (sol, luna, estrella), acontecimientos naturales (día, noche) y características geográficas (montaña, río, lago) que podrían estar muy influenciados por el entorno en el que hubiera evolucionado la lengua.</p><p> </p><p>Mediante el examen de las palabras polisémicas –que tienen múltiples significados– en cada lengua, y cómo estas se relacionan entre sí y con las demás, los científicos crearon mapas de redes semánticas. Cada concepto se representa con un nodo, que se puede conectar a otros, de tal forma que el tamaño de los nodos y sus enlaces es proporcional al número de significados y sus conexiones.</p><p><span style="color: #ff0000;"><img style="display: block; margin-left: auto; margin-right: auto;" src="/public/site/images/mikhail/Significado_de_las_palabras.JPG" alt="" width="587" height="340" /></span></p><p><span style="color: #ff0000;">Las redes semánticas permiten visualizar el grado de polisemia de una palabra y sus relaciones con otras. (Imagen: Hyejin Youn et al.)</span></p><p>Los datos reflejan que algunas palabras presentan significados y relaciones propias de un idioma; como 'sol', que se asocia con la 'divinidad' o el 'tiempo' en japones, pero con 'sed' y 'día' en la lengua africana ǃXóõ. Pero a pesar de estos casos particulares, la visualización que ofrecen las redes semánticas permite a los autores generalizar y detectar tendencias estadísticas que muestran como las lenguas humanas “poseen una estructura común que subyace bajo el significado de las palabras, y que es independiente de la cultura y el ámbito geográfico”.</p><p>Por ejemplo, palabras como ‘cielo’ y ‘tierra’ tienden a ser polisémicas en multitud de lenguas, y lo mismo ocurre con las conexiones entre sus significados. También en la mayoría de los idiomas las palabras ‘mar’ y ‘sal’ se relacionan entre sí de una forma mucho más estrecha que cualquiera de los dos con 'sol', y esto tanto en idiomas de costa como de interior.</p><p> “Los métodos que hemos desarrollado se pueden aplicar a cualquier dominio semántico", destacan los investigadores, que concluyen con la idea de que los conceptos que expresa el lenguaje pueden provenir de propiedades universales asociadas a la cognición o el conocimiento humano. (Fuente: SINC)</p><p><a href="http://noticiasdelaciencia.com/not/18096/el-significado-de-las-palabras-esconde-una-estructura-universal/" target="_blank">Tomado de NCYT</a></p>2016-02-04T14:19:23+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/99Salud: abecé del virus que suma 13.531 casos en Colombia2016-01-25T17:47:09+00:00Gestión Ingenio y Sociedad<div id="contenido"><p>En mayo del 2015, cuando las autoridades sanitarias del país lanzaron la primera alerta advirtiendo que era inevitable el ingreso del <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/noticias/virus-zika" target="_blank">virus del Zika</a> desde el Caribe –siguiendo la misma ruta del chikunguña–, el mensaje sobre sus potenciales efectos era relativamente tranquilizador.</p><p>Se sabía, con base en sus antecedentes, que podía generar complicaciones neurológicas en algunos casos, pero que en general solo causaba síntomas manejables y autolimitados, que no dejaban secuelas. El mismo concepto se mantuvo a mediados de octubre, cuando se conoció oficialmente que en Turbaco y Cartagena aparecieron los primeros casos. (Lea:<a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/colombia/barranquilla/las-acciones-de-barranquilla-contra-el-zika-/16488833" target="_blank"> 'Bloqueo del zika va de la mano de eliminar los criaderos'</a>)</p><div id="pauta_parallax" style="display: block;"> </div><p>Así las cosas, el país terminó el año con unas recomendaciones de prevención genéricas orientadas, básicamente, a cuidarse de la picadura del mosquito que transmite el virus, el 'Aedes aegypti', y a estar atentos a los síntomas.</p><p>La primera semana de enero de 2016, sin embargo, el panorama cambió de manera radical cuando la Organización Panamericana de la Salud emitió una comunicación en la que relacionaba la infección con este virus durante las primeras semanas del embarazo con alto riesgo de microcefalia en fetos (disminución del crecimiento del cráneo).</p><p>Y tenía razones para decirlo: días antes el Centro para la Prevención y el Control de Enfermedades (CDC, por sus siglas en inglés), de Atlanta (Estados Unidos), confirmó la presencia del virus en tejidos cerebrales de bebés nacidos muertos en Brasil y en muestras de placenta de madres que habían tenido hijos microcefálicos. (Además: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/virus-zika-sindrome-de-guillain-barre-otro-efecto-peligroso-de-la-infeccion/16488216" target="_blank">El otro efecto perverso que trae el virus del Zika</a>)</p><p>En ese momento, Lyle Petersen, director de la división de enfermedades transmitidas por vectores del CDC, le dijo a la BBC que a partir de tales resultados “la posibilidad de que la microcefalia no fuera causada por el zika era extremadamente pequeña”.</p><p>Con base en eso, el Ministerio de Salud lanzó la recomendación a los colombianos, a través de la circular 02, de no embarazarse durante la etapa de expansión de la enfermedad, que iría hasta julio. El país no acababa de asimilar la información, cuando empezó a hablarse de un segundo efecto perverso del virus: el síndrome de Guillain-Barré, una parálisis que puede ser mortal. (Lea: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/que-es-el-guillain-barre-y-como-se-relaciona-con-el-virus-del-zika/16488512" target="_blank">Así es el síndrome de Guillain-Barré, el otro mal causado por el zika</a>)</p><p>Aunque hay más preguntas que respuestas sobre este tema, las siguientes claves aportan información valiosa sobre un virus que el país apenas empieza a conocer.</p><p class="intertitulo">¿Qué es el zika? ¿De dónde vino?</p><p>Este virus, que se conoce desde 1947, surgió en el bosque Zika (Uganda). Es como un primo hermano de los virus del dengue, la fiebre amarilla y del Nilo occidental.</p><p>En 1951 desbordó las fronteras de ese país e inició su expansión por África y luego por Asia. Entre el 2013 y el 2014 hubo una gran epidemia del virus en la Polinesia Francesa; de allí saltó a la isla de Pascua y posteriormente entró al continente por Chile. En mayo del 2015 se confirmaron los primeros casos en el nordeste de Brasil.</p><p>Al mismo tiempo, en países isleños del Caribe, como República Dominicana, se reportó también su presencia. Colombia registró los primeros casos en Cartagena y Turbaco, a mediados de octubre pasado. (Además: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/el-fenomeno-del-nino-y-el-zika-una-combinacion-peligrosa/16488035" target="_blank">El fenómeno del Niño y el zika: una combinación peligrosa</a>)</p><p class="intertitulo">¿Cómo se transmite?</p><p>A través de la picadura de la hembra del 'Aedes aegypti' infectado con el virus. Vale anotar que este mosquito, que también transmite la fiebre amarilla, el dengue y el chikunguña, vive en cerca del 86 por ciento del territorio nacional, por debajo de los 2.200 metros sobre el nivel del mar (en 951 municipios). Por eso se dice que cerca de 22 millones de personas que habitan en esas zonas están en riesgo de adquirirlo.</p><p class="intertitulo">¿Cuáles son sus síntomas?</p><p>Son esencialmente cuatro: fiebre, enrojecimiento de los ojos (conjuntivitis no supurativa), dolor muscular y articular moderado y, en algunos casos, brote leve en la piel. Hay que aclarar que a veces los síntomas son tan leves, que la gente no nota que estuvo infectada. (Lea: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/zika-extreman-medidas-para-proteger-a-embarazadas-con-el-virus/16486764" target="_blank">Extreman medidas para proteger a embarazadas con el virus del Zika</a>)</p><p class="intertitulo">¿Cómo evoluciona el zika en el cuerpo?</p><p>Después de picada la persona, el virus empieza a incubarse y se estima que los primeros síntomas aparecen entre tres y seis días después. Pueden mantenerse hasta por una semana.</p><p class="intertitulo">¿Cuáles son sus complicaciones?</p><p>Siempre se pensó que los síntomas eran menores y pasajeros. Aunque se habían referenciado complicaciones neurológicas, las altas incidencias de microcefalia fetal y Guillain-Barré pusieron en alerta a todo el mundo.</p><p class="intertitulo">¿Quiénes están en riesgo de infectarse?</p><p>Están en riesgo todas las personas expuestas, es decir, aquellas que viven o visitan las zonas donde circula el virus y hay presencia del mosquito. Eso no quiere decir, sin embargo, que todas las personas se van a enfermar. Lo mejor es estar alerta y hacer lo posible por prevenir. (Además: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/zika-investigan-caso-de-microcefalia-relacionada-con-el-virus/16485150" target="_blank">Investigan posible caso de microcefalia relacionada con zika</a>)</p><p class="intertitulo">¿Hay vacuna?</p><p>No, tampoco hay cura de otra naturaleza. El tratamiento consiste en prevenir la infección y manejar los síntomas cuando se presenten.</p><p class="intertitulo">¿Se puede uno volver a enfermar de zika?</p><p>No, la primera infección genera anticuerpos contra el virus.</p><p class="intertitulo">¿Es posible que uno enferme de chikunguña y zika al mismo tiempo?</p><p>Si lo pican dos mosquitos, cada uno infectado con diferente virus, sí es posible.</p><p class="intertitulo">¿Se transmite de persona a persona?</p><p>No. La infección se adquiere a través de la picadura del mosquito portador del virus.</p><p class="intertitulo">Complicaciones que preocupan</p><p>A medida que avanza la epidemia de zika en América Latina, crece la evidencia que vincula la infección con este virus durante las primeras etapas del embarazo, con fetos y recién nacidos con microcefalia. De igual forma se reafirma la sospecha de que este agente aumenta el riesgo, en todas las edades, de sufrir síndrome de Guillain-Barré.</p><p>Con respecto a la microcefalia hay que decir que es producto de una alteración neurológica que impide el crecimiento del cerebro en las primeras etapas del embarazo. De acuerdo con Gustavo Castro, miembro de la Asociación Colombiana de Neurología, aunque no se ha establecido de manera concreta la forma como actúa el zika en estos casos, se presume que el virus es capaz de detener el ritmo de crecimiento del cerebro, por lo cual el cráneo no se desarrolla.</p><p>Dependiendo del daño, esto puede producir alteraciones en niños, después del nacimiento, que van desde problemas en el movimiento, la sensibilidad, hasta retardos marcados en el desarrollo integral y cognitivo.</p><p>Brasil atraviesa por un drama. Sus casos de microcefalia pasaron de 150 reportados en el 2014 a 3.900 desde octubre del 2015 hasta la fecha.</p><p>También preocupa el síndrome de Guillain-Barré. El neurólogo Castro los describe como un daño que se produce en los nervios periféricos del cuerpo (los que están fuera del cráneo y la médula): “Tal daño desemboca, entre otros síntomas, en una parálisis progresiva que puede afectar gravemente los músculos respiratorios”, señala el especialista. Y agrega que esto ocurre “porque al parecer el virus induce una reacción equivocada de las defensas del cuerpo, que terminan atacando estas estructuras”. Colombia estudia 12 casos sospechosos del síndrome, también en relación con el zika.</p><p class="intertitulo">‘Turismo no se ha afectado’</p><p>Aunque no hay señales que permitan pensar que el turismo nacional haya sido impactado negativamente por causa de la diseminación del zika, sí preocupa el efecto que puedan tener alertas como las emitidas por Estados Unidos y Chile, que instaron a sus mujeres en embarazo (o que buscan estarlo) a no visitar países con presencia de la enfermedad, como Colombia. (Además: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/atencion-para-mujeres-embarazadas-con-zika/16474746" target="_blank">Presentan lineamientos de atención clínica para gestantes con zika</a>)</p><p>Sandra Howard, viceministra de Turismo, interpreta estas alertas como un “exceso de celo, aun cuando se entiende que esos países quieran brindarles las mayores condiciones de seguridad a sus connacionales”. También insistió en que, de momento, no hay ninguna alerta o prohibición de visita a zonas específicas del país.</p><p>En ese orden de ideas, la Viceministra señala que el sector no tiene una estrategia específica para abordar el tema, distinta a difundir permanentemente, y por distintos canales, información de prevención. (Lea: <a class="linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/colombia/barranquilla/aumentan-controles-por-zika-en-barranquilla-/16475071" target="_blank">Vigilancia especial a embarazadas con casos sospechosos de zika</a>)</p><p class="intertitulo">Tome estas precauciones</p><p><strong>1. No eche en saco roto</strong> las recomendaciones de las autoridades: si vive en las zonas de riesgo, o las visita con frecuencia, lo aconsejable es evitar embarazos, por lo menos hasta que se estabilice la epidemia a fines de julio. Si ya está embarazada y vive en esos sitios, consulte a su médico enseguida.</p><p><strong>2. Ayude a controlar los moscos.</strong> Las larvas del ‘Aedes aegypti’ proliferan en aguas quietas y limpias, así que elimine todo reservorio inútil (incluidos los floreros) y tape albercas, piscinas y agua de consumo.</p><p><strong>3. Ponga anjeos</strong> y filtros en las ventanas y puertas, duerma bajo toldillos, use repelentes, vista ropa fresca, pero que cubra la mayor parte del cuerpo, y fumigue con previa asesoría. Todo lo que pueda hacer para mantener a raya el mosquito, hágalo.</p><p><strong>4. Mucho ojo.</strong> Si presenta fiebre severa, dolores de cabeza, musculares y articulares, no importa su intensidad; pérdida de movimiento, así sea mínima; hormigueos en el cuerpo y alguna alteración durante el embarazo, por leve que sea, consulte de inmediato a su médico.</p><p>CARLOS F. FERNÁNDEZ Y SONIA PERILLA S.<br />Redacción Salud</p></div>2016-01-25T17:47:09+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/98Salud: Virus del Zika se extenderá por toda América, según la OMS2016-01-25T17:19:12+00:00Gestión Ingenio y Sociedad<p>El <strong>virus del Zika se extendería a todos los países del continente americano a excepción de Canadá y Chile</strong>, dijo este lunes la Organización Mundial de la Salud (OMS).</p><p><img src="/public/site/images/mikhail/Zica1.JPG" alt="" /></p><p>La enfermedad aún no ha sido reportada en Estados Unidos, aunque una mujer, que contrajo el virus de Zika en Brasil, dio a luz a un bebé con daño cerebral en Hawái. (Lea también: <a class="linkdenota linkdenota linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/virus-del-zika-en-colombia/16490113" target="_blank">abecé del virus que suma 13.531 casos en Colombia</a>)</p><div id="pauta_parallax" style="display: block;"> </div><p>El Ministerio de Salud de Brasil confirmó en noviembre que el virus del Zika estaba relacionado con una deformación fetal conocida como microcefalia, en la que los bebés nacen con un cerebro más pequeño de lo normal.</p><p><strong>Brasil ha reportado 3.893 supuestos casos de microcefalia, dijo la OMS el viernes pasado, 30 veces más de lo reportado en cualquier año desde 2010.</strong></p><p>Según el comunicado de la OMS, la rápida expansión de la enfermedad a 21 países y territorios de la región desde mayo de 2015 se debe a la falta de inmunidad entre la población y la prevalencia del mosquito 'Aedes aegypti' que transporta el virus. Hay poca evidencia sobre otras rutas de transmisión. (Lea también: <a class="linkdenota linkdenota linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/el-fenomeno-del-nino-y-el-zika-una-combinacion-peligrosa/16488035" target="_blank">El fénomeno del niño y el zika: una combinación peligrosa</a>)</p><p>"El zika ha estado aislado en el semen humano y se ha descrito un caso de posible transmisión sexual de persona a persona. Sin embargo, se necesita más evidencia para confirmar si el contacto sexual es una forma de transmisión del zika", indicó.</p><p>La OMS dijo que actualmente no hay evidencia de que el zika esté siendo transmitido a los bebés a través de la leche materna, pero advirtió a las mujeres embarazadas que tengan planeado viajar a zonas donde el zika esté circulando que consulten a un proveedor de servicios de salud antes de viajar y a su regreso. (Lea también:<a class="linkdenota linkdenota linkdenota linkdenota linkdenota" href="http://www.eltiempo.com/estilo-de-vida/salud/zika-extreman-medidas-para-proteger-a-embarazadas-con-el-virus/16486764" target="_blank"> Extreman medidas para proteger a embarazadas con el virus del zika</a>)</p><p>Normalmente es una enfermedad leve y existen pocos datos científicos sobre la misma, así que no está claro por qué podría estar causando microcefalia en Brasil, dijo la OMS.</p><p>La <strong>directora general de la OMS, Margaret Chan, dijo: "Aunque una relación causal entre la infección del zika en el embarazo y la microcefalia no ha sido</strong>, y debo enfatizar, establecida, la evidencia circunstancial es sugestiva y extremadamente preocupante".</p><p>El virus del Zika, que es transmitido por mosquitos, se ha producido históricamente en partes de África, sudeste asiático y las islas del Pacífico.</p>2016-01-25T17:19:12+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/97Tecnología: Científicos de la UNAM crean plásticos biodegradables a partir de una bacteria2016-01-22T20:24:10+00:00Gestión Ingenio y Sociedad<p>Azotobacter es una bacteria presente en el suelo; además de ser inocua tiene la propiedad de producir un polímero denominado polihidroxibutirato (PHB), 100 por ciento biodegradable y biocompatible. Además, puede sustituir a los plásticos convencionales derivados del petróleo, como los que se usan actualmente en las bolsas del supermercado o en los envases, o tener aplicaciones médicas: en la fabricación de válvulas cardiacas o soportes para el crecimiento de tejidos.</p><p> </p><p>En el Instituto de Biotecnología (IBt) de la UNAM se ha estudiado a fondo la genética de ese microorganismo; el conocimiento generado se ha usado para obtener cepas genéticamente modificadas, capaces de producir más plástico, y se han diseñado los procesos de cultivo adecuados.</p><p> </p><p>Ambos, las cepas y los procesos, están en trámite de patente ante el Instituto Mexicano de la Propiedad Intelectual, refirieron Carlos Felipe Peña y Daniel Segura, investigadores de la entidad universitaria y quienes encabezan el proyecto, junto con Guadalupe Espín, de ese mismo instituto.<br /> Azotobacter: versatilidad bacteriana</p><p> </p><p>La bacteria que ocupa a los universitarios no es patógena y la lista de sus aplicaciones es larga, como la agricultura, pues tiene otra propiedad interesante que es la de producir amonio a partir de aire, es decir, un fertilizante para el crecimiento de plantas.</p><p> </p><p>Nosotros, explicó Peña, “nos hemos enfocado en la capacidad que tiene de sintetizar polímeros”. Por su versatilidad, Azotobacter no sólo produce PHB, que es un polímero intracelular, sino además sintetiza un polímero extracelular, el alginato, con enorme potencial de aplicación en el área de alimentos, y que además puede ser utilizado en la industria farmacéutica.</p><p>Esos microorganismos pueden asimilar una gran variedad de sustratos. “No son quisquillosos, les gusta comer varias cosas; tampoco tienen necesidades de oxígeno o aireación muy altas, lo que facilita su cultivo”, acotó Peña.</p><p> </p><p>Tiene un genoma promedio, el típico de una bacteria, es decir, poco más de cuatro millones de pares de bases. “Participamos en la secuenciación hace ya algunos años; se conocen muchos detalles, necesarios para hacer las modificaciones y proponer estrategias de cultivo”, abundó Segura.</p><p> </p><p>De ese modo, se hicieron tres modificaciones importantes para obtener la cepa: se eliminaron genes que participaban en el sistema de control de la bacteria (porque “no engorda a lo loco”) y que funcionaban como “frenos” de la producción para favorecer la acumulación del polímero.</p><p> </p><p>Así, esta cepa de Azotobacter tiene una producción de 85 por ciento de PHB y eso significa que por cada gramo de bacterias, 0.85 gramos es de polímero. “Es como si en una persona de 100 kilogramos, 85 fueran de grasa”, ejemplificó Peña.</p><p> </p><p>También, se ha modificado a la bacteria no sólo para que tenga mayor producción, sino para que los plásticos posean propiedades diferentes. “El polímero que se sintetiza y los plásticos que de ahí se obtienen son algo quebradizos, entonces hemos diseñado cepas que por ingeniería genética originan unos más flexibles. Otros grupos académicos o las industrias que ya los generan no los obtienen con la calidad de los nuestros”.</p><p> </p><p>Las cadenas de polímero que sintetiza la bacteria son hebras, lineales, muy largas, cuyo tamaño se puede manipular con las condiciones de cultivo que se establecen, y eso es bueno en cuanto a sus propiedades, expuso.</p><p> </p><p>Por ser microorganismos estables se ha facilitado el desarrollo de un bioproceso que sea como un traje a la medida para este tipo específico de cepas, “así podemos alcanzar una producción alta sin utilizar muchos recursos”, sostuvo Peña.</p><p> </p><p>El polímero que se extrae de las bacterias es como un polvo que se puede moldear; por ejemplo, como membranas con diferentes espesores, con características de rugosidad distintas y totalmente biodegradables.</p><p> </p><p>Aunque depende de las condiciones en que se coloquen los materiales, ya existen resultados de botellas que en alrededor de un año desaparecen por completo como parte de una composta o en el fondo de un lago. “Los microorganismos, hongos y bacterias que se comen este material son muy abundantes”. Otra ventaja es que no se genera ningún compuesto tóxico durante su degradación.</p><p> </p><p>En cuanto a las condiciones ideales para su crecimiento (que ya han sido identificadas), Peña explicó que hay una gran gama de posibilidades: en términos de su alimentación, respiración o la temperatura y pH óptimos para su desarrollo.</p><p> </p><p>La bacteria se alimenta muy bien de azúcares, principalmente sacarosa, glucosa y fructosa. En el IBt se utiliza la melaza de caña, que es más barata y contiene mucha azúcar. “En el desarrollo de bioprocesos hay que investigar cómo darle de comer, qué tipo y cantidad de azúcares le gustan y el tiempo óptimo para lograr que crezca feliz y que engorde al máximo”.</p><p> </p><p>Las bacterias diseñadas para producir más plástico han sido trasladadas desde cajas de Petri a sistemas de cultivo celular: matraces y reactores de tipo tanque agitado. En esos recipientes se observó cómo crecen, cómo se comportan, cómo producen el bioplástico y cuáles sustratos son los más adecuados para promover el crecimiento. Posteriormente, se establecieron estrategias para escalar el proceso a volúmenes que pueden ser, ya no de litros, sino de decenas o cientos de litros.</p><p> </p><p>“Arrancamos con tres gramos por litro, una cantidad pequeña. Actualmente generamos cerca de 40 gramos de bioplástico por litro de cultivo, cerca de 50 gramos de biomasa (células) por litro, que no es poca cosa en el campo del cultivo celular”, precisó Peña.</p><p> <img src="/public/site/images/mikhail/Aplicaciones_del_azotobactor.JPG" alt="" /></p><p>Los mayores rendimientos se alcanzan en 50 o 60 horas. “Podemos hacer que crezca muy rápido o lento”. Otra ventaja más de la cepa es que, desde la primera vez que se duplica, todo el tiempo produce PHB.</p><p> </p><p>Por último, en la parte de aplicación médica los científicos destacaron las pruebas con osteoblastos (células del hueso), y las células del riñón, en colaboración con la Facultad de Farmacia de la Universidad Autónoma del Estado de Morelos. “Las células se acoplan perfectamente, dadas las características biológicas y fisicoquímicas de este tipo de membranas, y les encanta crecer ahí. Funcionan perfectamente”.<br /> Se realizan más pruebas con estos materiales, pero sin duda las posibilidades que se observan hacia adelante son varias, sobre todo para el área médica, concluyeron. (Fuente: UNAM/DICYT)</p>2016-01-22T20:24:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/96Ciencia: Investigadores de la UEMC desarrollan una innovadora tecnología basada en la realidad virtual para el diagnóstico y tratamiento del ictus2016-01-22T00:00:00+00:00Gestión Ingenio y Sociedad<p>La e-salud y el soporte al diagnóstico y tratamiento de pacientes de ictus son algunas de las aplicaciones del proyecto “Eye Tracker”, desarrollado por un equipo de investigadores de la Universidad Europea Miguel de Cervantes (UEMC) de Valladolid, en España. Se trata de una tecnología que determinar a partir de un stream de vídeo la dirección de la mirada de un usuario, integrando dicha tecnología en un videojuego de realidad virtual como parte de la interacción del usuario con el sistema.</p><p> </p><p>La UEMC, a través de su Grupo de Investigación en Discapacidad Física y Sensorial (GIDFYS) en la que participa ASPAYM, y con la colaboración de la empresa especializada en videojuegos de Valladolid Rapture Games, han trabajado conjuntamente para el desarrollo de una herramienta de ayuda al diagnóstico y la rehabilitación de pacientes con pérdida parcial del campo visual. Estos pacientes son identificados por los especialistas del Hospital Clínico Universitario de Valladolid, que se encarga de realizar una primera atención y diagnóstico.</p><p> </p><p>Dado que se encuentran dificultades a la hora de cuantificar el grado de mejora de los mencionados pacientes, así como facilitar la rehabilitación de los mismos, se ha propuesto la creación de un entorno de realidad virtual en el cual, el paciente, a través de los videojuegos, pueda entrenar las regiones del campo visual afectadas por el ictus. Al mismo tiempo, la aplicación podrá ir almacenando los datos obtenidos para dar información relevante a los especialistas que guíen las sesiones.</p><p> </p><p>Para lograr estos ambiciosos objetivos se utilizó un modelo de gafas de realidad virtual denominado ‘Oculus Rift’. Actualmente, el modelo comercial no ofrece la posibilidad de realizar grabación de los ojos dentro del dispositivo, por lo que ha sido necesario realizar un prototipo sobre el que mecanizar las modificaciones físicas necesarias. </p><p> </p><p>Para ello se desmontó el dispositivo de realidad virtual y se estudiaron las partes que debían ser modificadas para la incorporación de las micro-cámaras. A continuación se realizó un escaneo de la pieza detectada mediante un láser de brazo, para la toma de medidas con una precisión de décimas de milímetro. Posteriormente, se generó un modelo simplificado a partir de dicho escaneo y se realizó una impresión 3D de la pieza.</p><p> </p><p>Al mismo tiempo, fue necesario realizar varios módulos software encargados de estimar la posición de la pupila dentro del ojo para determinar la dirección de la mirada (Eye tracker) empleando visión computacional y análisis de imagen dentro de un vídeo en tiempo real. Otro módulo cuyo objetivo era crear un pequeño entorno controlado en 3D dentro del motor de videojuegos Unreal Engine. Asimismo, fue necesario desarrollar un paquete software para realizar la integración del Eye tracker dentro del videojuego.</p><p> </p><p>Por último, se implementó un módulo de autocalibración que emplea la información que se va recogiendo del ojo para refinar la dirección hacia donde está mirando el usuario mientras se van capturando datos. Este último software se encarga de mover una esfera, en el espacio inmediatamente frente al personaje virtual, que ilustra la dirección de la mirada del usuario dentro de su campo de visión.</p><p> </p><p>El conjunto del dispositivo físico y el desarrollo software, tiene previsto realizar un estudio en pacientes reales para comprobar el grado de aceptación, facilidad de uso, precisión y mejora de las personas sensibles a ser tratadas con esta tecnología. Al mismo tiempo, se ha buscado que la implantación y difusión sea la máxima posible detectando las alternativas más económicas dentro de la gama de dispositivos disponible. De esta forma, se consigue un sistema low-cost que pueda ser adquirido por el mayor número de consultas e incluso usuarios finales que lo deseen.</p><div class="HIJOS_CONT"><div class="HIJOS"><a class="SUB_ACTIVO" href="http://noticiasdelaciencia.com/sec/salud/medicina/"> Medicina </a></div></div><div class="menuprincipalguia"> </div><div class="PORTADA_top"> </div><div class="BANNERS BANNERS-TOP"> </div><div class="fecha">Viernes, 22 enero 2016</div><div class="antetitulo">Medicina</div><h1>Investigadores de la UEMC desarrollan una innovadora tecnología basada en la realidad virtual para el diagnóstico y tratamiento del ictus</h1><div class="ACCIONES_ICONOS"><div class="ICONOS_1"> </div><div class="PUNTUACION"> </div><div class="socialblock"><div class="fb-like fb_iframe_widget" data-href="http://noticiasdelaciencia.com/not/17898/investigadores-de-la-uemc-desarrollan-una-innovadora-tecnologia-basada-en-la-realidad-virtual-para-el-diagnostico-y-tratamiento-del-ictus/" data-layout="button_count" data-width="150" data-send="false"> </div></div><div class="noticia_audioplayers"> </div></div><div class="ENTRADA html"><ins class="adsbygoogle" style="display: inline-block; width: 300px; height: 250px;" data-adsbygoogle-status="done" data-ad-client="ca-pub-5663005764905852" data-ad-slot="2756353996"><ins id="aswift_4_expand" style="display: inline-table; border: none; height: 250px; margin: 0; padding: 0; position: relative; visibility: visible; width: 300px; background-color: transparent;"><ins id="aswift_4_anchor" style="display: block; border: none; height: 250px; margin: 0; padding: 0; position: relative; visibility: visible; width: 300px; background-color: transparent;"></ins></ins></ins></div><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "> </div><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>La e-salud y el soporte al diagnóstico y tratamiento de pacientes de ictus son algunas de las aplicaciones del proyecto “Eye Tracker”, desarrollado por un equipo de investigadores de la Universidad Europea Miguel de Cervantes (UEMC) de Valladolid, en España. Se trata de una tecnología que determinar a partir de un stream de vídeo la dirección de la mirada de un usuario, integrando dicha tecnología en un videojuego de realidad virtual como parte de la interacción del usuario con el sistema.</p><p> </p><p>La UEMC, a través de su Grupo de Investigación en Discapacidad Física y Sensorial (GIDFYS) en la que participa ASPAYM, y con la colaboración de la empresa especializada en videojuegos de Valladolid Rapture Games, han trabajado conjuntamente para el desarrollo de una herramienta de ayuda al diagnóstico y la rehabilitación de pacientes con pérdida parcial del campo visual. Estos pacientes son identificados por los especialistas del Hospital Clínico Universitario de Valladolid, que se encarga de realizar una primera atención y diagnóstico.</p><p> </p><p>Dado que se encuentran dificultades a la hora de cuantificar el grado de mejora de los mencionados pacientes, así como facilitar la rehabilitación de los mismos, se ha propuesto la creación de un entorno de realidad virtual en el cual, el paciente, a través de los videojuegos, pueda entrenar las regiones del campo visual afectadas por el ictus. Al mismo tiempo, la aplicación podrá ir almacenando los datos obtenidos para dar información relevante a los especialistas que guíen las sesiones.</p><p> </p><p>Para lograr estos ambiciosos objetivos se utilizó un modelo de gafas de realidad virtual denominado ‘Oculus Rift’. Actualmente, el modelo comercial no ofrece la posibilidad de realizar grabación de los ojos dentro del dispositivo, por lo que ha sido necesario realizar un prototipo sobre el que mecanizar las modificaciones físicas necesarias. </p><p> </p><p>Para ello se desmontó el dispositivo de realidad virtual y se estudiaron las partes que debían ser modificadas para la incorporación de las micro-cámaras. A continuación se realizó un escaneo de la pieza detectada mediante un láser de brazo, para la toma de medidas con una precisión de décimas de milímetro. Posteriormente, se generó un modelo simplificado a partir de dicho escaneo y se realizó una impresión 3D de la pieza.</p><p> </p><p>Al mismo tiempo, fue necesario realizar varios módulos software encargados de estimar la posición de la pupila dentro del ojo para determinar la dirección de la mirada (Eye tracker) empleando visión computacional y análisis de imagen dentro de un vídeo en tiempo real. Otro módulo cuyo objetivo era crear un pequeño entorno controlado en 3D dentro del motor de videojuegos Unreal Engine. Asimismo, fue necesario desarrollar un paquete software para realizar la integración del Eye tracker dentro del videojuego.</p><p> </p><p>Por último, se implementó un módulo de autocalibración que emplea la información que se va recogiendo del ojo para refinar la dirección hacia donde está mirando el usuario mientras se van capturando datos. Este último software se encarga de mover una esfera, en el espacio inmediatamente frente al personaje virtual, que ilustra la dirección de la mirada del usuario dentro de su campo de visión.</p><p> </p><p>El conjunto del dispositivo físico y el desarrollo software, tiene previsto realizar un estudio en pacientes reales para comprobar el grado de aceptación, facilidad de uso, precisión y mejora de las personas sensibles a ser tratadas con esta tecnología. Al mismo tiempo, se ha buscado que la implantación y difusión sea la máxima posible detectando las alternativas más económicas dentro de la gama de dispositivos disponible. De esta forma, se consigue un sistema low-cost que pueda ser adquirido por el mayor número de consultas e incluso usuarios finales que lo deseen.</p><p> </p><div class="RichTextAlignCenter" style="position: relative; width: 450px; height: 318px;"><img id="IMAGEN_INSERTADA_33345" title="(Foto: UEMC)" src="http://noticiasdelaciencia.com/upload/img/periodico/img_33345.jpg" alt="[Img #33345]" width="" height="" /><div class="pieDeFoto"><cite>(Foto: UEMC)</cite></div></div><p> </p><p>“La UEMC, en su afán innovador y de conciencia social a través de sus grupos de investigación, en este caso el GIDFYS, trata de aportar soluciones aplicables en el mercado actual y futuro a medio plazo, siempre explorando las tecnologías disponibles de última generación”, aseguran los investigadores. Al mismo tiempo, tiene muy presente que dichos avances “no pueden permanecer externos a la colaboración con la empresa especializada, en este caso, a través de su colaboración con la sociedad amiga Rapture Games, la cual se muestra muy predispuesta a aprovechar las sinergias que se crean entre el mundo académico y el profesional para ambas partes, máxime en casos de marcado carácter social”, recuerdan.</p><p> </p><p>Se estima que la mejor forma de comercializar la idea empresarial es a través de la venta de servicios asociados, tales como repositorios de datos, paquetes de actualización de videojuegos, comparativas con otros datos recopilados, generación de informes expertos, asesoramiento o tutorización de uso de las herramientas, creación de otras herramientas o videojuegos ad hoc para dar funcionalidades especiales según el panel de expertos que lo requieran, etc.</p><p> </p><p>“Todavía queda un gran trabajo por hacer, pero los reconocimientos y la financiación obtenidos en el marco del programa de Transferencia de Conocimientos Universidad-Empresa, suponen un gran apoyo a las actividades que se desarrollan dentro de la UEMC”, destacan desde el GIDFYS,</p><p> </p><p>El prototipo, desarrollado por los profesores del Departamento de Ciencias de la Salud que desarrollan su actividad investigadora en el CIDIF (Centro de Investigación de ASPAYM castilla y León), Mª Begoña Coco Martín, Azael J. Herrero Alonso, Carlos Baladrón Zorita, Juan Martín Hernández y Óscar Javier Prieto Izquierdo, con la colaboración de Jaime Finat, de la empresa Rapture Games, ha sido galardonado con el tercer premio en la modalidad ‘Idea Empresarial’ del certamen ‘Iniciativa Campus Emprendedor 2015’.</p><p> </p><p>La Consejería de Educación -a través de la Fundación Universidades y Enseñanzas Superiores de Castilla y León (Fuescyl)-, con la colaboración de la Agencia de Innovación, Financiación e Internacionalización Empresarial (ADE) y el patrocino de Banco Santander -a través de Santander Universidades-, puso en marcha una nueva edición de ‘Iniciativa Campus Emprendedor’ en abril del pasado año. El objetivo es favorecer la generación de ideas empresariales en el entorno universitario y materializarlas en nuevas empresas. Con esta iniciativa, la Junta de Castilla y León busca transformar el conocimiento teórico de las aulas en proyectos reales que favorezcan el desarrollo económico de la Comunidad.</p><p> </p><p>El concurso forma parte del Plan de Transferencia de Conocimiento Universidad-Empresa 2015-2017, aprobado por Orden EDU/14/2015, de 13 de enero (Bocyl de 22 de enero 2015) en el marco de la Estrategia Regional de Investigación e Innovación para una Especialización Inteligente (RIS3) de Castilla y León para el periodo 2014-2020 y ha sido seleccionado en el marco de un programa operativo cofinanciado por el Fondo Europeo de Desarrollo Regional (FEDER) y la Junta de Castilla y León. (Fuente: UEMC)</p></div>2016-01-22T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/95Tecnología: Una nueva técnica mejora la eficacia del trasplante de microbiota fecal intestinal2016-01-22T20:14:01+00:00Gestión Ingenio y Sociedad<p>Los microbios del intestino (microbiota intestinal) se pueden considerar un órgano más (cada ser humano tiene 10 veces más bacterias en su cuerpo que células propias), y por lo tanto pueden ser trasplantados para tratar enfermedades que producen alteraciones o desequilibrios en las poblaciones de microorganismos intestinales. En concreto, el trasplante de microbiota fecal ha sido eficaz en el tratamiento de la infección por Clostridium difficile. Ahora una nueva técnica permite separar la mayor parte de microbiota intestinal del resto de material fecal, según concluye un estudio elaborado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC), en España. El estudio se publica en la revista Scientific Reports.</p><p> </p><p>“La técnica que permite separar los microbios de la materia fecal consiste en un sencillo proceso de centrifugación en gradiente”, según explica Borja Sánchez, investigador del CSIC en el Instituto de Productos Lácteos de Asturias. “Este procedimiento no afecta a la composición de poblaciones microbianas originales ni en cuanto a su viabilidad, ni de distribución ni de proporción”, detalla el investigador. La eficacia de esta técnica se ha comprobado mediante análisis metagenómico de las poblaciones microbianas antes y después del tratamiento de extracción y su correspondiente ajuste estadístico.</p><p><img src="/public/site/images/mikhail/Microbiotica1.JPG" alt="" /></p><p>“Este método representa una estrategia sencilla para obtener microbiotas intestinales representativas a partir de muestras fecales”, añade Sánchez. Hasta 110 de bacterias pueden ser obtenidas a partir de 2 gramos de heces con esta metodología. Separar la microbiota intestinal supone el primer paso para optimizar pasos críticos en el trasplante de microbiota fecal, como la conservación a largo plazo de microbiotas intestinales o su normalización para posteriores usos derivados en terapias de restauración microbiana en ciertas enfermedades. Este trabajo sienta la base para el desarrollo de productos basados en microbiotas intestinales estandarizados y seguros. (Fuente: CSIC/DICYT)</p>2016-01-22T20:14:01+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/94Tecnología: Okara, un beneficioso derivado de la soja apto para celíacos2015-11-10T10:34:59+00:00Gestión Ingenio y Sociedad<p>Durante el proceso de elaboración de bebidas a base de soja —también llamadas “leches de soja”— se generan grandes volúmenes de okara, una materia sólida que comúnmente se desecha. Teniendo en cuenta que este subproducto es una excelente fuente de proteínas y fibras, profesionales del INTI (Argentina) se propusieron reutilizarlo para desarrollar alimentos nutritivos.</p><p> </p><p>“Para la elaboración de la bebida vegetal se realiza un pretratamiento del grano de soja (temperatura-tiempo) para eliminar factores antinutricionales, luego se muele y se filtra. Como resultado se obtiene una corriente líquida similar a la leche vacuna y la okara sólida queda retenida en el filtro”, explica Marcela Cordara, de INTI-Agroalimentos, Centro que llevó adelante el trabajo.</p><p> </p><p>“La okara puede representar hasta el 20% del peso de la soja que ingresa al proceso, un porcentaje importante si se tienen en cuenta las dimensiones de una producción industrial”, agrega Claudia Falabella del INTI. Los dos destinos más habituales son la alimentación animal o su disposición como residuo, si bien esto último ocasiona un problema ambiental por tratarse de un material con alto tenor de agua (superior al 80%), y que se fermenta fácilmente.</p><p> </p><p>La composición de este subproducto es atractiva desde el punto de vista nutricional, dado que contiene fundamentalmente fibra insoluble y carbohidratos de bajo índice glucémico -por ello apropiado para diabéticos-. En cuanto a su materia grasa predominan los ácidos poliinsaturados; además de no contener gluten y ser, por lo tanto, apta para celíacos.</p><p>En relación a sus propiedades sensoriales las profesionales destacan que tendrá buena aceptación por parte de los usuarios, incluyendo a consumidores no habituados a productos a base de soja. “La Okara es ligera y esponjosa, su sabor recuerda a almendras, absorbe bien otros sabores y tiene una textura arenosa- grumosa fina, con buena textura, olor y color”, detalla Falabella.</p><p> <img src="/public/site/images/mikhail/Okara.JPG" alt="" /></p><p>Su empleo directo como ingrediente alimenticio basado en sus propiedades físico-químicas es objeto de investigaciones por su potencial adición a alimentos como agente de textura y por su valor nutricional. Dado el alto contenido de humedad, para asegurar su conservación debería congelarse o deshidratarse.</p><p> </p><p>El trabajo se alinea con las acciones que se vienen implementando desde el Ministerio de Industria con el propósito de incrementar la competitividad de los productos nacionales del sector alimentario para ganar proyección tanto en el mercado interno como externo. “Con este objetivo, INTI-Agroalimentos está trabajando en el desarrollo de productos que contengan okara ya sea como ingrediente principal o como reemplazo parcial de otras materias primas”, concluye Cordara. (Fuente: INTI)</p>2015-11-10T10:34:59+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/93Medio Ambiente: Grandes tormentas solares ‘esquivan’ los sistemas de detección en la Tierra2015-10-15T21:31:10+00:00Gestión Ingenio y Sociedad<p>En 1859 se detectó desde el Observatorio de Colaba (India) la mayor y más potente tormenta solar jamás registrada, también conocida como evento o llamarada de Carrington, en honor al astrónomo inglés Richard Carrington que la observó. Aquel suceso permitió disfrutar de auroras en latitudes tan bajas como Madrid, e incluso en el mar Caribe, pero también produjo cortes e incendios en las instalaciones de telégrafo de Europa y Norteamérica.</p><p>Desde entonces las tormentas geomagnéticas producidas por el Sol representan un peligro grave para una sociedad cada vez más dependiente de la tecnología y, de manera directa, para las redes eléctricas y de comunicaciones. Para evitarlo, los científicos han desarrollado diversos índices que ayudan a analizar y prever este fenómeno.</p><p>Uno de los índices más utilizados para medir las tormentas geomagnéticas es el Dst (por sus siglas en inglés: Disturbance storm time), que se obtiene cada hora con la media de los datos tomados en cuatro observatorios: Hermanus (Sudáfrica), Kakioka (Japón), Honolulu (Hawái, EE UU) y San Juan (Puerto Rico).</p><p>Una versión más precisa es el denominado SYM-H, que valora el componente horizontal del campo magnético terrestre, cuenta con la información de más observatorios y una cadencia de un minuto. Con estos dos índices, que priman la latitud (distancia angular al ecuador) de los registros magnéticos, se pueden seguir los efectos de las grandes tormentas solares, como la que ocurrió entre octubre y noviembre de 2003, denominada la Tormenta de Halloween.</p><p><img src="/public/site/images/mikhail/Tormentas_solares.JPG" alt="" /></p><p>Pero ni Dst ni SYM-H sirvieron para detectar una perturbación magnética que afectó a la Tierra justo en aquellas fechas, concretamente el 29 de octubre de 2003, con un perfil extraordinariamente similar a la llamarada de Carrington de 1859. Afectó a las instalaciones eléctricas de Suecia y Sudáfrica, donde se quemaron varios transformadores.</p><p>Este evento se registró en el observatorio de Tihany, en Hungría, y ahora un equipo de investigadores de la Universidad de Alcalá ha analizado aquel fallo de los índices oficiales y alerta sobre las posibles consecuencias.</p><p>“Una de las conclusiones es que los índices comúnmente utilizados por los científicos, como el Dst o el SYM-H, basados en un aspecto global de la Tierra y obtenidos mediante promedios, perdieron un suceso tan importante como este, y seguramente habrían perdido también el evento de Carrington”, explica Consuelo Cid, la autora principal.</p><p>El estudio, que publica el Journal of Space Weather and Space Climate, sugiere que la comunidad científica puede estar equivocada al promediar los registros de distintos observatorios alrededor de la Tierra, ya que las perturbaciones magnéticas positivas y negativas se compensan unas con otras, y desaparece la perturbación magnética real en una región. Además, esta depende de forma importante de la hora local (de la longitud), aunque otros científicos supongan que sea de la latitud.</p><p>“Un suceso parecido al de Carrington podría ocurrir más a menudo de lo esperado; es más, podría haber ocurrido ya y haber pasado desapercibido”, apunta Cid, quien destaca la necesidad de desarrollar índices más locales que de verdad sirvan a las empresas que puedan verse afectadas por estos sucesos, como las compañías eléctricas.</p><p>De hecho, su equipo ha creado el Local Disturbance index for Spain (LDiñ), que determina la perturbación geomagnética para el territorio español en base al campo magnético registrado en el Observatorio de San Pablo (Toledo), perteneciente al Instituto Geográfico Nacional.</p><p>“Un índice parecido a LDiñ se podría aplicar en otros países del entorno, como Portugal, Francia o Italia; y en otras zonas del mundo desarrollar otros ajustados a cada región”, apunta la investigadora, quien insiste en la necesidad de colaborar con las empresas involucradas, como ha hecho su equipo de investigación con Red Eléctrica Española. (Fuente: SINC)</p>2015-10-15T21:31:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/92Tecnología: Científicos del IBEC desarrollan por primera vez Nanomotores biocompatibles que se propulsan con azúcar2015-10-14T13:11:39+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Investigadores del Instituto de Bioingeniería de Cataluña (IBEC) (España) y sus colaboradores han desarrollado nanomotores para aplicaciones biomédicas que son propulsados por enzimas, como la glucosa oxidasa,<br /> que los hace completamente biocompatibles.</p><p>En un estudio publicado en la revista Nanoletters, el Prof. Samuel Sánchez, responsable de grupo del IBEC e investigador ICREA, y sus colaboradores en el Max Planck Institute for Intelligent Systems (MPI-IS), la Universidad de Tübingen y el Max Planck for Solid State Research, en Alemania, describen la fabricación del primer nanomotor sintético en el mundo propulsado por una enzima que utiliza combustible biocompatible, lo que solventa las desventajas de los sistemas actuales.</p><p>Este nuevo mini motor biocompatible está hecho a partir de sílice mesoporoso, que es hueco, y que además no es dañino para las células ni para los tejidos. Se podrá utilizar en muchas aplicaciones biomédicas ya que su propulsión es debida a la reacción catalítica de tres enzimas que se encuentran de forma natural el cuerpo; la catalasa, la ureasa y la glucosa oxidasa. Las reacciones enzimáticas dan energía a las nanopartículas Janus -partículas cuyas superficies tienen dos propiedades físicas diferentes-, teniendo lugar de forma asimétrica en solo una de las caras del nanomotor, lo que provoca la propulsión en la dirección opuesta.</p><p>“Para que su uso sea seguro en aplicaciones biomédicas en el interior del organismo, las nanopartículas tienen que estar hechas de materiales biocompatibles y biodegradables, así como ser capaces tanto de moverse de forma autónoma utilizando combustibles de origen biológico como de liberar la carga en un punto concreto –como es el caso de la liberación de fármacos– a la pequeña escala,” dice Samuel Sánchez, quien dirige al que ha sido descrito como ‘uno de los grupos líderes en el campo de la investigación en nanomotores”, el grupo de Dispositivos Inteligentes Nano-Bio del IBEC y del MPI-IS de Stuttgart. “Hemos conseguido todas estas propiedades con nuestros nuevos nanomotores. Para su arquitectura, hemos utilizado un material que ofrece una gran capacidad de liberación de fármacos debido a su estructura hueca; y para la propulsión, hemos basado nuestros métodos en el reciente descubrimiento de que las enzimas pueden actuar como nanomotores autopropulsados, así como de ser ancladas a objetos artificiales mayores, como los nanotubos de carbono, para proporcionar una fuerza de propulsión utilizando reacciones catalíticas”.</p><p>Este tipo de reacciones biocatalíticas desencadenadas por enzimas actúan a modo de propulsión no-tóxica, debido a que están presentes en el ambiente biológico y tienen un elevado potencial de reacción. Se pueden utilizar diferentes combinaciones de enzima/combustible como la catalasa y el peróxido de hidrógeno o la glucosa y la glucosa oxidasa, lo que significa que el método es muy versátil con un potencial que se podrá extender a otras enzimas.</p><p>Los micro y nano sistemas desarrollados anteriormente estaban muy limitados para ser utilizados en el ámbito biomédico, ya que para propulsarse utilizaban la descomposición de peróxido de hidrógeno con platino como catalizador, lo que provocaba que en algunos caos la propulsión fuese de muy corta duración o, sencillamente, se convirtieran en nanosistemas pasivos incapaces de moverse de forma autónoma.</p><p>El siguiente paso será explorar cómo incrementar la fuerza conductora y la guía de sus nanomotores biocompatibles mediante métodos de manipulación externa, como la quimiotaxis, el control magnético o los ultrasonidos, dirigiéndolos a un movimiento direccional para la liberación activa de fármacos en localizaciones específicas.</p><p>Los colaboradores de la Universidad de Tübingen también han medido, por primera vez, mediantes unas pinzas ópticas, la fuerza de propulsión de los nanomotores, lo que hace posible entender un poco más cómo se comportan las nanopartículas propulsadas. (Fuente: IBEC)</p></div>2015-10-14T13:11:39+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/91Tecnología: Nuevos materiales2015-10-14T13:06:33+00:00Gestión Ingenio y Sociedad<p>Un equipo de investigadores de Reino Unido, Israel, Portugal y España, entre ellos miembros del Grupo Bioforge de la Universidad de Valladolid (UVa), ha desarrollado unos nuevos materiales capaces de generar espontáneamente sistemas de membranas que rápidamente evolucionan a la formación de tubos. La investigación en torno a estos nuevos materiales, que pueden tener importantes aplicaciones en el campo de la ingeniería de tejidos, ha sido publicada recientemente en la prestigiosa revista ‘Nature Chemistry’.</p><p>Según detalla José Carlos Rodríguez Cabello, coordinador del Grupo Bioforge, quien ha formado parte del equipo científico junto con la también investigadora de la UVa Matilde Alonso, el desarrollo de moléculas cuya composición se inspira en las complejas moléculas biológicas presentes en los seres vivos, ha dado lugar a una nueva clase de materiales con un alto carácter innovador.</p><p>En el caso de los publicados en ‘Nature Chemistry’, son dos tipos de materiales, un material exclusivo desarrollado por Bioforge y producido para el propósito del trabajo, compuesto por un polímero proteico recombinante del tipo del que el grupo de la UVa es especialista; y el otro un pequeño péptido anfifílico más convencional.</p><p>Los investigadores han demostrado que, a partir de su solución acuosa, estos materiales tienen capacidad de autoensamblarse y crear estructuras tubulares por sí mimos, sin que medie ningún proceso de fabricación ni manipulación.</p><p>"Estas estructuras tubulares son fácilmente controlables en sus aspectos geométricos y pueden dar lugar a todo tipo de ramificaciones y sistemas tubulares complejos, como los que se pueden encontrar en el aparato circulatorio", apunta Rodríguez Cabello en relación a su posible aplicación en el ámbito de la ingeniería de tejidos.</p>2015-10-14T13:06:33+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/90Medio Ambiente: La concentración de dióxido de carbono también aumenta en la alta atmósfera2015-09-24T20:00:45+00:00Gestión Ingenio y Sociedad<p>El aumento de la concentración de dióxido de carbono (CO2), que calienta la capa inferior de la atmósfera (troposfera) y produce lo que globalmente se conoce como cambio climático, también afecta a las capas altas de la atmósfera. El instrumento SABER, a bordo del satélite TIMED (NASA), ha medido entre 2002 y 2014 un incremento de la cantidad de dióxido de carbono en la alta atmósfera de entre un 5% y un 12% por década, superior al detectado en las capas bajas.</p><p> </p><p>"El CO2 es un gas con una vida media larga: cada nueva molécula que se produce permanecerá más de un siglo en la atmósfera -señala Manuel López Puertas, investigador del Instituto de Astrofísica de Andalucía (IAA-CSIC) que participa en el estudio y que codirige el instrumento SABER-. Y el dióxido de carbono de la baja atmósfera se transporta hacia las capas altas en un margen de tiempo de entre cinco y siete años, de modo que cualquier incremento tendrá una influencia también en la alta atmósfera".</p><p> </p><p>Los datos de SABER muestran un aumento en la concentración de CO2 del 5% por década hasta una altura de ochenta kilómetros (estratosfera y mesosfera), una medida similar a la obtenida en la troposfera, y un aumento de hasta el 12% a unos ciento diez kilómetros (baja termosfera).</p><p> </p><p>En la troposfera, la capa que abarca los primeros doce kilómetros de la atmósfera y donde se producen los fenómenos climáticos, el dióxido de carbono se comporta como un gas de efecto invernadero y su incremento produce un aumento de temperatura. Sin embargo, en las capas medias y altas la situación se invierte y el CO2 produce un enfriamiento.</p><p> </p><p>"Durante la última década se habían detectado enfriamientos apreciables de las capas altas de la atmósfera, de entre tres y cuatro grados por década, que eran atribuibles a un aumento de la concentración de CO2, pero esta relación no había sido constatada. Las medidas de SABER de los últimos trece años confirman un aumento inequívoco del dióxido de carbono en la alta atmósfera que no depende de efectos naturales, como el ciclo solar de once años", señala López Puertas (IAA-CSIC).</p><p> </p><p>El aumento del dióxido de carbono en estas capas atmosféricas produce un enfriamiento, lo que hace que se contraigan. Así, las capas altas de la atmósfera se hacen más tenues (menos densas), lo que podría alargar la vida media de los satélites artificiales de baja órbita al tener un menor frenado. Igualmente, esta contracción podría tener consecuencias adversas en el ya inestable equilibrio orbital de la basura espacial.</p><p> <img src="/public/site/images/mikhail/co2_en_la_alta_atmofera.JPG" alt="" width="439" height="364" /></p><p>"Este resultado viene a poner nuevamente de manifiesto el carácter acoplado de la atmósfera terrestre. Las emisiones de CO2 están produciendo un cambio en la temperatura de las distintas capas y en el equilibrio energético de la atmósfera que pueden alterar su propia estructura ", concluye López Puertas (IAA-CSIC). (Fuente: IAA)</p>2015-09-24T20:00:45+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/89Ciencia: Científicos argentinos descubren un mecanismo clave para la formación de la memoria2015-09-24T19:33:13+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>Investigadores argentinos descifraron un mecanismo biológico clave sobre el funcionamiento de la memoria y el aprendizaje. El hallazgo podría servir para inspirar, en el futuro, posibles estrategias de reparación de circuitos neuronales afectados por diferentes patologías del sistema nervioso.</p><p>El descubrimiento arrojó luz en un proceso que ocurre en la neurogénesis o nacimiento de neuronas nuevas en el giro dentado del hipocampo, región del cerebro esencial para la formación de diversos tipos de memoria. “Realizando pruebas en ratones (cuya biología es similar a la humana) observamos que las neuronas jóvenes que se forman en el giro dentado son mucho más excitables que las maduras localizadas en el resto del cerebro”, señaló a la Agencia CyTA-Leloir la doctora Antonia Marín-Burgin, jefa del grupo de investigación de Circuitos Neuronales del Instituto de Investigación en Biomedicina de Buenos Aires (IBioBA), institución dependiente del CONICET y asociado a la Sociedad Max Planck de Alemania. “En esta región del cerebro nacen nuevas neuronas a lo largo de toda la vida”.</p><p>La primera autora del estudio, la doctora María Belén Pardi, investigadora del grupo de Marín-Burgin en el IBioBa y del Laboratorio de Plasticidad Neuronal del Instituto Leloir que lidera el doctor Alejandro Schinder, explicó que las neuronas se comunican o transmiten información mediante señales eléctricas. “Vimos que la neuronas jóvenes no sólo se ‘encienden’ más que las maduras cuando les llega información desde otras zonas del cerebro, sino que también transmiten señales dentro de una mayor rango de frecuencias”, afirmó.</p><p>Es posible, dicen los autores, que la información que llega al hipocampo sea canalizada posteriormente a otras regiones de cerebro por las neuronas jóvenes o maduras dependiendo de la frecuencia de la señal que arriba. “Las señales eléctricas que llegan al hipocampo pueden ser rápidas o lentas. Podemos entender a las neuronas maduras como calles a través de las cuales únicamente las señales lentas pueden transitar. En cambio, aquellas que son más jóvenes actuarían como autopistas con carriles rápidos y carriles lentos, permitiendo la transmisión de las señales de alta frecuencia”, explicó la doctora Pardi. Como contrapartida, las neuronas maduras permiten una representación más precisa del instante en el que ocurren los estímulos, añadió.</p><p>Este tipo de investigación permite entender los códigos neuronales representados en el cerebro y cómo la organización biológica permite su existencia, sentando las bases para el desarrollo de terapias de reparación de tejidos neuronales y de neuroprótesis, indicó Pardi.</p><p>Del estudio también participó Mora Belén Ogando del laboratorio de la doctora Marín-Burgin y fue publicado en la destacada revista científica eLife, cuyo editor en jefe es el premio Nobel Randy Schekman. (Fuente: AGENCIA CYTA-INSTITUTO LELOIR/DICYT)</p></div>2015-09-24T19:33:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/88Tecnología: Hacia las baterías digeribles para energizar píldoras electrónicas2015-09-24T19:16:40+00:00Gestión Ingenio y Sociedad<p>Imaginemos una “píldora inteligente” que pueda notar los problemas en nuestros intestinos y liberar de forma activa los fármacos apropiados. Hay conocimientos biológicos suficientes para crear tal dispositivo, pero aún falta encontrar los materiales adecuados para la electrónica de tal píldora (como baterías y circuitos) que no supongan un riesgo para la salud del usuario si la píldora queda encallada dentro del cuerpo.</p><p> </p><p>Los dispositivos médicos electrónicos ingeribles no son una idea nueva. Desde los años 70 del pasado siglo, bastantes personas han tragado minúsculos aparatos de esta clase, incluyendo prototipos, que miden la temperatura y otros parámetros biomédicos. Actualmente, existen cámaras ingeribles para cirugías gastrointestinales así como sensores enlazados a medicamentos para estudiar cómo se descomponen los fármacos dentro del cuerpo.</p><p> </p><p>El principal riesgo es la toxicidad intrínseca de estos materiales, por ejemplo, si la batería queda mecánicamente fijada en el tracto gastrointestinal y la cubierta protectora se degrada. Cuando una pila convencional actúa sin barreras dentro del cuerpo humano tras haber sido tragada, puede causar estragos. Es bien conocido lo peligroso que puede resultar ingerir pilas eléctricas. Cada año, miles de niños acuden a urgencias después de tragarse pilas de botón, las baterías diminutas, planas y redondas que abastecen de energía a juguetes, audífonos, calculadoras y muchos otros dispositivos. Ingerir esas pilas tiene graves consecuencias, incluyendo quemaduras que dañan de forma permanente el esófago, desgarros en el tracto digestivo, y en algunos casos, incluso la muerte.</p><p>La alternativa deseable para energizar dispositivos electrónicos que deban ser ingeridos es, por tanto, recurrir a nuevas clases de pilas que resulten inocuas, aunque su vida útil sea muy breve. Después de todo, para recorrer los intestinos en un trayecto normal solo se necesita que la batería funcione unas 24 horas y en caso de que se quede atascada, se disuelva en un plazo razonable y sin peligro.</p><p> </p><p>El equipo de Christopher Bettinger, de la Universidad Carnegie Mellon en Estados Unidos, está explorando cómo podrían ser empleados en bioelectrónica ciertos minerales disponibles de forma habitual dentro del cuerpo si la persona sigue una dieta sana, o incluso los pigmentos de la piel o del ojo. Los dispositivos ingeribles que se usan ahora están energizados por pilas convencionales, como la que podemos encontrar en un reloj de pulsera. Bettinger y sus colegas creen factible que se pueda llegar a prescindir de esa clase de pilas, ya que los líquidos naturales dentro del cuerpo pueden ejercer el papel de electrolitos que muevan la corriente a través del dispositivo. Hay laboratorios que ya han demostrado que la electrónica construida usando este método puede deshacerse en agua después de 2 a 3 meses de estar expuesta a ella.</p>2015-09-24T19:16:40+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/87Tecnología: Buscan biomarcadores de proteínas para prevenir la nefropatía diabética2015-09-24T19:11:15+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>La nefropatía diabética (ND) es la principal causa de enfermedad renal crónica a nivel mundial. Debido a que el padecimiento va en aumento es de importancia realizar una detección temprana, por ello un grupo de investigadores del Instituto Nacional de Medicina Genómica (INMEGEN), en México, analizan el papel que juegan las proteínas en esta complicación de la diabetes para determinar si algunas de ellas pueden ser predictores de daño en el riñón.</p><p> </p><p>La alteración en el riñón que se genera en pacientes con diabetes debido al descontrol de la glucosa en la sangre se llama nefropatía diabética y actualmente se detecta mediante albuminuria, creatinina urinaria y con exámenes de tasa de filtración glomerular (filtración de proteínas).</p><p> </p><p>Sin embargo, “cuando se descubren estos parámetros altos ya existe un daño renal y es imposible revertirlo. La idea es encontrar biomarcadores de la nefropatía antes de que se presente la enfermedad y así en un momento dado poder ofrecer terapias adecuadas a los pacientes para mejorar su calidad de vida”, menciona la doctora en genética de la diabetes Laura del Bosque Plata, encargada del proyecto.</p><p> </p><p>El estudio realizado en el INMEGEN, en colaboración con el Instituto Nacional de la Nutrición y Ciencias Médicas “Salvador Zubirán” y el Hospital Juárez de México, busca las proteínas diferenciales que se expresan en pacientes con diabetes que padecen nefropatía y en quienes no sufren esta complicación.</p><p> </p><p>Para realizar el estudio los investigadores seleccionaron a un grupo de personas con diabetes sin nefropatía y otro con la enfermedad, y a partir del uso de geles de doble dimensión marcados con fluorescencia DIGE, por sus siglas en inglés, compararon la expresión del proteoma. Se identificaron proteínas con expresión diferencial entre las que se encuentran la haptoglobina y alfa-1-antitripsina, precisa la doctora Laura del Bosque Plata.</p><p> </p><p>Sin embargo, estas investigaciones conllevan muchos años para obtener resultados contundentes y aún falta analizar otros grupos de individuos con diferentes características clínicas. “Ya vimos que los diabéticos con y sin nefropatía presentan la expresión diferencial de ciertas proteínas. Ahora habría que esperar varios años (de cinco a 10), para valorar la progresión y predicción que ofrecen para detectar nefropatía.</p><p> </p><p>Por ejemplo podrían usarse como biomarcadores tempranos de nefropatía si se observa que los individuos con diagnóstico reciente de diabetes, que presentan niveles altos de alguna o varias de estas proteínas, muestran con los años la complicación, aclara Laura del Bosque Plata.</p><p> </p><p>Refiere que aunque ya se contaba con conocimientos de que algunas de estas proteínas intervienen en los procesos de nefropatía diabética no se conoce del todo su sensibilidad para detectar el daño renal de manera temprana.</p><p> </p><p>Lo que sigue es validar su expresión con técnicas inmunológicas como la de ELISA. “El reto es saber cuáles son útiles como biomarcadores, para ello se necesitan proteínas de fácil medición y ensayos de análisis”.</p><p> </p><p>La doctora Laura del Bosque Plata también colaboró con el grupo de investigadores de la Universidad de Chicago que identificó el primer gen asociado con la diabetes tipo II. “Estamos en una etapa de descubrimiento, se tiene que dar seguimiento a estos hallazgos, el reto es saber cuáles de las proteínas que encontramos con expresión diferencial, son útiles en la práctica clínica, por ello se necesita darles seguimiento en diferentes estudios clínicos”. (Fuente: AGENCIA ID/DICYT)</p></div>2015-09-24T19:11:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/86Tecnología: Una nueva tecnología produce energía eléctrica limpia y autosustentable2015-09-07T20:03:42+00:00Gestión Ingenio y Sociedad<p>Un dispositivo semejante a una caja de un televisor, que no hace ruido y es capaz de generar energía eléctrica suficiente para abastecer las necesidades de una casa, sin usar combustibles, agua ni elementos atmosféricos, es posible gracias a un singular desarrollo de científicos mexicanos.</p><p>¿Cómo lo hicieron? Los ingenieros del Corporativo Jhostoblak, desarrollaron un sistema que funciona mediante un movimiento de turbinas de quinta generación, el cual se produce por efecto de no atracción de campos continuos electromagnéticos, es decir, cuando se tratan de juntar dos fuerzas del mismo polo, es evidente que se repelen. El proceso es constante y, aunado a la ruptura de los principios de la ley de la fuerza y la potencia, permiten la producción de energía eléctrica limpia las 24 horas de los 365 días del año.</p><p>“En términos sencillos, todo es movimiento perpetuo a partir de imanes que van acoplados de forma secuencial, armónica y de manera estratégica para hacer funcionar a otros que son del mismo polo. Entonces, al tratar de no pegarse entre sí se crea una fuerza que hace que las turbinas giren con firmeza para producir energía eléctrica por medio de un generador especial”, explican los miembros del equipo.</p><p>Con la implementación de esta tecnología pueden resolverse los problemas de suministro energético, las alteraciones por picos de generación de electricidad, reducir el costo de mantenimiento de los equipos que usan energía y disminuir el efecto por calentamiento global, así como la quema indiscriminada de elementos fósiles, aseguran los entrevistados.</p><p>Asimismo, subrayan que este producto, denominado Sistema EGS, tiene la capacidad de contribuir con la generación de energía eléctrica que actualmente se produce en las plantas hidroeléctricas, termoeléctricas, solares y eólicas.</p><p>Detallan que el equipo es pequeño, pero genera la energía suficiente para abastecer una casa con refrigerador, televisión, horno de microondas, estufa, calentador de agua y computadora, entre otros aparatos.</p>2015-09-07T20:03:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/85Tecnología: Cámara de tamaño milimétrico para captar imágenes tridimensionales desde dentro del cerebro2015-08-31T13:35:57+00:00Gestión Ingenio y Sociedad<p>Para hacer operaciones quirúrgicas en el cerebro, los cirujanos necesitan ver detalles finos, a muy pequeña escala. Debido a ello, les resultaría de gran ayuda disponer de una cámara diminuta capaz de captar imágenes tridimensionales desde dentro del cerebro. De ese modo, verían mejor los sutiles rasgos del tejido cerebral con el que trabajasen y ello se traduciría en intervenciones quirúrgicas más seguras y rápidas.</p><p> <img src="/public/site/images/mikhail/cámara_para_el_estudio_del_snc.JPG" alt="" /></p><p>Un endoscopio (un dispositivo que examina el interior de un órgano o tejido corporal) con dicha cámara está siendo desarrollado en el Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, Estados Unidos. A menudo la tecnología creada inicialmente para la astronáutica se puede adaptar para muchas otras aplicaciones prácticas, o sirve para forjar habilidades técnicas que luego pueden emplearse en otros campos. Es una demostración rotunda de que invertir dinero en la astronáutica es invertir dinero en el progreso científico y tecnológico, incluyendo el sector médico.</p><p> </p><p>Dotado con una de las cámaras tridimensionales más pequeñas de mundo, el sistema MARVEL (por las siglas en inglés de Multi Angle Rear Viewing Endoscopic tooL) está diseñado para cirugía cerebral mínimamente invasiva.</p><p> </p><p>El dispositivo es fruto de los esfuerzos del equipo de Harish Manohara, investigador principal del proyecto, y el Dr. Hrayr Shahinian, cirujano de gran prestigio internacional en el campo de la cirugía de la base del cráneo.</p><p> </p><p>La cámara de MARVEL tiene apenas 4 milímetros (0,2 pulgadas) de diámetro y 15 milímetros (0,6 pulgadas) de largo. Está unida a un “cuello” flexible que puede hacer barridos a izquierda o derecha, mirando por las esquinas con un arco de hasta 120 grados. Esto da pie a un endoscopio altamente maniobrable.</p><p> </p><p>Las operaciones con la pequeña cámara no precisarán la tradicional craneotomía abierta, un procedimiento en el que los cirujanos extraen partes grandes de cráneo. Las craneotomías son más invasivas y resultan en permanencias más prolongadas en los hospitales que la cirugía que utiliza un endoscopio.</p><p>Ya se emplean endoscopios de imagen estereográfica que utilizan sistemas tradicionales de cámara dual para cirugías mínimamente invasivas en otros lugares del cuerpo. Pero la cirugía cerebral precisa de una miniaturización más drástica. Esta es la razón por la que, en vez de dos, MARVEL solo tiene una lente de cámara.</p><p> </p><p>Para generar las imágenes en 3D, la cámara de MARVEL dispone de dos aperturas, semejantes a la pupila del ojo, cada una con su propio filtro de color. Cada filtro transmite diferentes longitudes de onda de luz roja, verde y azul, bloqueando al mismo tiempo las bandas a las que el otro filtro es sensible. El sistema incluye una fuente de luz que produce los seis colores a los que los filtros están adaptados. Las imágenes de cada uno de los dos conjuntos son entonces mezcladas para crear el efecto 3D.</p><p> </p><p>Ahora que los investigadores han demostrado un prototipo de laboratorio, el próximo paso es un prototipo clínico que cumpla los requerimientos de la Administración estadounidense de Alimentos y Medicamentos (FDA). Los investigadores afinarán la ingeniería de la herramienta a fin de hacerla apta para su uso en situaciones reales del ámbito médico.</p><p> </p><p>En el futuro, la tecnología de la cámara MARVEL podría tener también aplicaciones para la exploración espacial. Una cámara en miniatura como esta podría ser incluida en robots pequeños que exploren otros mundos, enviando gracias a ella vistas tridimensionales complejas de estructuras geológicas de interés.</p><p><a href="http://noticiasdelaciencia.com/not/15791/camara-de-tamano-milimetrico-para-captar-imagenes-tridimensionales-desde-dentro-del-cerebro/">Tomado de NCYT</a></p>2015-08-31T13:35:57+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/84Ciencia: Los genes supresores de tumores frenan el crecimiento en las células del entorno2015-08-31T13:22:26+00:00Gestión Ingenio y Sociedad<p>El desarrollo saludable de un organismo depende de que sus tejidos y órganos crezcan hasta el tamaño adecuado, cesando el crecimiento cuando es necesario y manteniendo la estabilidad en su forma y función. Un desarrollo correcto depende de la disponibilidad de nutrientes para las células en su entorno, un proceso que está firmemente controlado por mecanismos de señalización que se dan dentro y entre las células que forman estas estructuras. Alteraciones en esta señalización pueden llevar a un crecimiento desequilibrado dentro de un tejido u órgano y puede provocar enfermedades como el cáncer.</p><p> </p><p>Las vías de señalización TOR y PI3K regulan el crecimiento de los tejidos según la disponibilidad de nutrientes y a menudo se encuentran sobreactivadas en los cánceres en seres humanos. En el estudio publicado en PLoS Biology, la estudiante de doctorado Ana Ferreira y el jefe de grupo y profesor de investigación ICREA Marco Milán, del Instituto de Investigación Biomédica (IRB Barcelona), informan que la sobreactivación de estas dos vías no solo causa el exceso de crecimiento de células y tejidos, sino que también restringen el crecimiento de las poblaciones de células vecinas.</p><p> </p><p> Los autores presentan evidencias de que el proteoglicano Dally, una proteína conocida por modular la difusión, estabilidad y actividad de la molécula de señalización promotora del crecimiento llamada Dpp (en moscas) o TGF-β (en humanos), está regulado por estas dos vías de señalización y media en los efectos a las poblaciones vecinas. “Lo hacen al competir por Dpp”, comenta Ana Ferreira, primera autora del artículo.</p><p>“PTEN, un gen que reduce la actividad de la vía PI3K, es uno de los supresores de tumores que más comúnmente se pierden en los cánceres en seres humanos. Entender si esta vía también afecta a la propagación de TGF-β en mamíferos puede ayudarnos a conocer mejor las primeras etapas de la tumorigénesis y la selección de las células promotoras de tumores”, confirma Ferreira.</p><p> <img src="/public/site/images/mikhail/Genes_supresores_de_lo_tumores.JPG" alt="" /></p><p>“Las células promotoras de tumores podrían ser seleccionadas por su capacidad para competir por los factores de crecimiento, los cuales suelen encontrarse en cantidades limitantes, y su capacidad para restringir el crecimiento de las poblaciones de células vecinas”, comenta Marco Milán, jefe del Laboratorio de Desarrollo y Control de Crecimiento del IRB Barcelona. “Se estima que el 70% de los hombres con cáncer de próstata ha perdido una copia del gen PTEN en el momento del diagnóstico. Será interesante determinar si este mecanismo, identificado en moscas de la fruta, está también presente en los seres humanos”.</p>2015-08-31T13:22:26+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/83Tecnología: Salto impresionante en la longevidad de las pilas eléctricas2015-08-24T23:59:51+00:00Gestión Ingenio y Sociedad<p>Una investigación ha abierto las puertas a una nueva clase de pilas eléctricas recargables con una vida útil asombrosamente larga, al poderse recargar cientos de miles de veces.</p><p>Para un teléfono móvil, un ordenador portátil, un automóvil eléctrico, y muchos otros aparatos, recargar las baterías es una operación que se realiza con mucha frecuencia. Cada vez que se completa un ciclo de carga y descarga, se acorta la vida útil de la batería, y usualmente la cantidad de ciclos que una batería puede soportar antes de que su capacidad merme demasiado como para seguir cumpliendo su función no suele llegar al millar.</p><p>Ahora, respaldados por la empresa Samsung con sede en Corea del Sur, unos investigadores del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, la Universidad de California en San Diego y la Universidad de Maryland, todas estas instituciones en Estados Unidos, han adoptado un nuevo enfoque tecnológico para revolucionar uno de los tres componentes básicos de la batería o pila eléctrica: el electrolito. Esta línea de investigación y desarrollo se basa en la idea de que un electrolito sólido, en vez de líquido como lo son los usados actualmente en las pilas recargables comunes, podría aumentar de manera espectacular la vida útil de la batería, incrementar la cantidad de energía almacenada en un espacio dado, y además mejorar la seguridad de la pila, evitando peligrosos sobrecalentamientos.</p><p>El electrolito en las baterías de ion-litio, usadas comúnmente en infinidad de aparatos, desde teléfonos móviles a coches eléctricos, acostumbra a ser un disolvente orgánico líquido cuya función es transportar partículas cargadas de uno de los dos electrodos de la batería al otro, durante la carga y la descarga. Este electrolito ha sido responsable de sobrecalentamientos que en algunos casos, aunque pocos afortunadamente, han provocado incendios. Otros equipos de investigación han intentado encontrar un sustituto sólido para el electrolito líquido, pero el equipo de Yan Wang y Gerbrand Ceder, del MIT, es el primero en mostrar que esto puede hacerse en una fórmula que satisfaga completamente las necesidades de las aplicaciones de las baterías.</p><p>Los electrolitos de estado sólido, debidamente diseñados, podrían marcar un antes y un después en la historia de la tecnología, al permitir la creación de lo más parecido a la batería perfecta, con importantes mejoras en vida útil, seguridad y coste.</p>2015-08-24T23:59:51+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/82Tecnología: Café contra cáncer de colon2015-08-24T11:09:16+00:00Gestión Ingenio y Sociedad<p>El consumo regular de café con cafeína podría ayudar a prevenir el rebrote del cáncer de colon después del tratamiento médico y mejorar las oportunidades de curación, según los resultados recientes de un extenso estudio en el que se ha constatado por primera vez esta llamativa asociación.</p><p> </p><p>El estudio, llevado a cabo por el equipo del Dr. Charles S. Fuchs y el Dr. Brendan J. Guercio, del Instituto Oncológico Dana-Farber en Boston, dependiente de la Universidad de Harvard, en Estados Unidos, se hizo sobre casi 1.000 pacientes que rellenaron cuestionarios sobre su perfil dietético al principio del estudio, durante la quimioterapia y de nuevo aproximadamente un año después. Este diseño eliminó la necesidad de que los pacientes tuvieran que recordar sus hábitos de consumo de café años después, una fuente de sesgo potencial en muchos estudios de seguimiento.</p><p> </p><p>Los pacientes, todos ellos tratados con cirugía y quimioterapia para el cáncer de colon en estado III, disfrutaron del mayor beneficio al consumir cuatro o más tazas de café al día (unos 460 miligramos de cafeína), según los resultados del estudio. Las probabilidades de rebrote del cáncer en estos pacientes fueron un 42 por ciento menores que las de quienes no bebían café. El riesgo de fallecer por cáncer o cualquier otra causa de muerte prematura, fue para los consumidores de café un 34 por ciento inferior.</p><p>Dos o tres tazas de café diarias mostraban un beneficio más modesto, mientras que una taza o menos estaba asociado a una escasa protección.</p>2015-08-24T11:09:16+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/81Ciencia: Los primates llevan 16 millones de años infectados por virus asociados al VIH2015-08-21T15:49:59+00:00Gestión Ingenio y Sociedad<p>Los virus que provocan enfermedades se enfrentan a sus huéspedes en una batalla en la que los genes antivirales incrementan la supervivencia del huésped, y el virus, por su parte, selecciona las mutaciones que contrarrestan los antivirales del hospedador.</p><p>Ahora, en un estudio publicado en la revista PLOS Pathogens, científicos del Boston College (EE UU) han investigado la historia de las adaptaciones que realizan tanto los virus como sus huéspedes, y sugieren que, en concreto, los lentivirus relacionados con el VIH han infectado a los simios africanos desde hace 16 millones de años.</p><p><img src="/public/site/images/mikhail/retrovirus.JPG" alt="" /></p><p>Interesado en la historia de los lentivirus, Welkin Johnson, líder de la investigación, estudió un gen antiviral –que tienen en su genoma algunos primates– que codifica para una proteína llamada TRIM5.</p><p>“El gen de TRIM5 forma parte de los llamados factores de restricción que han evolucionado para proteger a las células del huésped de la infección de un virus”, comenta Johnson. Según el estudio, esta proteína, una vez que el lentivirus ha entrado en las células del huésped, interactúa con su membrana impidiendo que se multiplique.</p><p>Dada su especificidad para los retrovirus, los investigadores plantearon que la evolución del gen de TRIM5 en los monos africanos revelaría el tiempo que los lentivirus, muy vinculados a los SIV actuales, llevan infectándolos.</p><p>Para trazar un árbol filogenético de TRIM5, los científicos analizaron y compararon las secuencias de ADN de genes que codifican proteínas de 22 especies de primates africanos. Identificaron un grupo de cambios adaptativos únicos de las proteínas TRIM5 en solo un subconjunto de monos, los cercopitécidos (Cercopithecidae).</p><p>Las variaciones en esta familia de primates, entre los que se incluyen macacos y babuinos, sugieren que los lentivirus ancestrales comenzaron su colonización en África hace entre 11 y 16 millones de años.</p><p>“La correlación entre las adaptaciones específicas para un linaje del virus y la capacidad de restringir los virus endémicos del anfitrión apoyan la hipótesis de que los ancestros de los SIV modernos llevan en África desde hace 16 millones de años”, concluye Johnson. (Fuente: SINC)</p>2015-08-21T15:49:59+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/80Tecnología: Crean el primer mapa digital del suelo marino de la Tierra2015-08-12T16:59:48+00:00Gestión Ingenio y Sociedad<p>Un equipo de investigadores de la Escuela de Geociencias de la Universidad de Sídney (Australia) ha publicado en la revista Geology un mapa digital del suelo marino que ayudará a los científicos a entender cómo los océanos han respondido y responden a los cambios ambientales.</p><p> </p><p>Es la primera vez que se hace un mapeo digital de la composición del fondo marino, que cubre 70% de la superficie de la Tierra. Se han comparado 15.000 muestras procedentes de los buques de investigación y se ha desarrollado una impresión sin precedentes del mundo con un detalle sorprendente. El mapa más reciente era de la década de 1970 y estaba dibujado a mano.</p><p>"Para comprender los cambios ambientales en los océanos necesitamos entender que es lo que mejor se conserva en el registro geológico en el fondo del mar", dice la investigadora principal del estudio, Adriana Dutkiewicz, de la Universidad de Sídney.</p><p>El trabajo revela que las cuencas oceánicas profundas parecen ser mucho más complejas de lo que se pensaba.</p><p>"El fondo del océano profundo es un cementerio formado en gran medida por los restos de criaturas marinas microscópicas llamadas fitoplancton, que prosperan en aguas superficiales iluminadas por el sol. La composición de estos restos puede ayudar a descifrar cómo los océanos han respondido en el pasado con el cambio climático", argumenta el científico. </p><p>El grupo especial de fitoplancton de las diatomeas –un tipo de algas unicelulares– produce alrededor de una cuarta parte del oxígeno que respiramos y contribuye más a la lucha contra el calentamiento global que la mayoría de las plantas en tierra. Sus restos muertos se hunden hacia el fondo del océano, encerrando su carbono.</p><p><img src="/public/site/images/mikhail/Mapa_fondo_marino.JPG" alt="" /></p><p>El nuevo mapa de la geología del fondo marino demuestra que la acumulación de estas diatomeas en las profundidades es casi completamente independiente de las floraciones en las aguas superficiales en el océano Austral.</p><p>"Esta desconexión demuestra que entendemos la fuente de carbono, pero no su declive", explica Dietmar Muller, coautor del trabajo y profesor de la Universidad de Sydney. “Se necesita más investigación para comprender mejor esta relación”, añade.</p><p>"Nuestra investigación abre la puerta a futuros viajes de investigación marina destinados a una mejor comprensión del funcionamiento y de la historia del ciclo del carbono marino. Es urgente entender cómo el océano responde al cambio climático", señala Dutkiewicz.</p><p>Algunos de los cambios más significativos en el mapa del fondo marino se encuentran en los océanos que rodean Australia. “La vida en el océano Austral –añade Dutkiewicz– es mucho más rica de lo que se pensaba”.</p><p>"Las imágenes recientes de las llanuras heladas de Plutón son espectaculares, pero el proceso de desvelar los secretos geológicos ocultos en las llanuras abisales de nuestro propio planeta está igualmente lleno de sorpresas”, apunta Simon O'Callaghan, coautor del estudio y científico del National ICT Australia. (Foto: SINC)</p>2015-08-12T16:59:48+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/79Medio Ambiente: Estudian plaga de langosta centroamericana en México2015-08-09T22:12:08+00:00Gestión Ingenio y Sociedad<p>La Universidad Autónoma de San Luis Potosí (UASLP) (México), por medio del Laboratorio Nacional de Geoprocesamiento e Información Fitosanitaria (LaNGIF) y la Universidad de Texas A&M (TAMU, por sus siglas en inglés) firmaron un segundo convenio de colaboración para investigar a la plaga de langosta centroamericana que afecta diversas zonas de México.</p><p>En 2011 inició el convenio con apoyo del Consejo Nacional de Ciencia y Tecnología (Conacyt) y la Universidad de Texas. Sin embargo, en días recientes se aprobó el proyecto “La caracterización de estructuras genéticas y biotopos de brotes de langosta centroamericana usando RAMAN y Geo tecnologías”. Por parte de la entidad estadounidense participará el doctor Hojun Song, del Departamento de Entomología de la TAMU y la investigación mexicana estará a cargo del LaNGIF de la UASLP.</p><p>En entrevista para la Agencia Informativa Conacyt, la doctora Guadalupe Galindo Mendoza, coordinadora técnica del LaNGIF de la UASLP, explica los alcances que tendrá este proyecto, así como el papel de la alianza académica entre dicha institución y la Universidad de Texas AM.</p><p>En México existen más de mil 300 plagas, de acuerdo con el Inventario Nacional de Plagas Reglamentadas que realizó el LaNGIF. Una de ellas es la langosta centroamericana.</p><p>La langosta es un insecto que ataca grandes zonas de cultivos en el mundo. De acuerdo con una ficha del Sistema Nacional de Vigilancia Epidemiológica Fitosanitaria (SINAVEF) de la UASLP y realizada por el doctor Carlos Contreras Servín, la langosta centroamericana Schistocerca piceifrons piceifrons es la que más daños ocasiona en el país.</p><p><img src="/public/site/images/mikhail/Langosta_que_invaden1.JPG" alt="" /></p><p>La plaga de langosta centroamericana afecta a 16 sistemas producto; ataca pastizales, zonas ganaderas y agrícolas. Esta especie come pastos, caña de azúcar, maíz, cítricos, hortalizas y plátano. “La región gregaria abarca una superficie de entre 2 y 3.5 millones de hectáreas y afecta a 10 estados de la República Mexicana”, según datos proporcionados por Galindo Mendoza. La entrevistada añadió que una manga de langostas puede devorar en un día entre cinco y siete hectáreas de cultivo.</p><p>Según la doctora Galindo Mendoza, este insecto “tiene una gran adaptación a los cambios climáticos, es sensible a la temperatura y la insolación.” Agregó que la zona gregaria más fuerte está en Yucatán, pero se ha extendido a Campeche y Tabasco.</p><p>“Otra de las zonas donde aparece es la región epidemiológica de la Huasteca: abarca desde Tamaulipas, San Luis Potosí, Hidalgo y la parte norte de Veracruz”, detalló la investigadora.</p><p>“Esta plaga es evidencia del impacto ambiental y del cambio climático; reacciona ante más acumulación de CO2 y gases invernadero, así como las áreas ganaderas que emiten metano”, agregó Galindo Mendoza.</p><p>En 2015 se espera un fenómeno del Niño débil a moderado, en palabras de la doctora Galindo, lo que dará un clima propicio para el desarrollo de esta plaga. Aseguró además que el próximo año se podría dar una alerta muy fuerte de igual manera para Centroamérica, el norte de Colombia y la parte norte de África, “puede ser algo muy grave porque puede tardar hasta dos años en combatirse.”</p><p>Durante la entrevista, la doctora Galindo refirió que, de acuerdo con la Organización de la Naciones Unidas para la Alimentación y la Agricultura (FAO, por sus siglas en inglés), “la plaga de langosta se compara con otros desastres naturales como huracanes o tornados”.</p><p>La línea de investigación que desarrollará el equipo mexicano de San Luis Potosí será con base en geo tecnologías y espectroscopía RAMAN. A partir del monitoreo con imágenes de satélite con sistemas de información geográfica y drones detectarán en qué momento la langosta se adapta a las condiciones de cambios fuertes.</p><p>Mediante un Sistema de Alerta Temprana (SAT) los investigadores recolectan y procesan “información sobre amenazas previsibles con el objetivo de alertar a las instituciones públicas y a la población afectada ante un fenómeno natural que pueda causar un desastre.”</p><p>De acuerdo con información proporcionada por la investigadora de la UASLP, el objetivo fundamental de este trabajo en conjunto es “mejorar la respuesta ante la emergencia para minimizar daños e impactos económicos, políticos y sociales, para reducir la vulnerabilidad de la economía rural del mercado agrícola.”</p><p>Otra de las líneas que seguirá la investigación por parte de la Universidad de Texas A&M es el estudio genético de la langosta. “El doctor Hojun Song será el encargado del estudio genético de la langosta y de determinar cómo la volución de la langosta se ha adaptado y consume la agricultura”, detalló la doctora.</p><p>De acuerdo con el boletín de prensa emitido por la institución universitaria, “este es un proyecto interdisciplinario que promoverá la investigación binacional y la excelencia educativa que se traducirá en oportunidades únicas para los estudiantes e investigadores.” La investigadora, asimismo, refirió que la verdadera importancia del proyecto es “evidenciar cuántos productores en potencia pierden su patrimonio.” (Fuente: Ameyalli Villafán/Agencia Informativa Conacyt)</p>2015-08-09T22:12:08+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/78Tecnología: Un nanocalentador ofrece aplicaciones contra el cáncer2015-08-03T10:42:18+00:00Gestión Ingenio y Sociedad<p>Investigadores del Instituto de Ciencia de Materiales de Aragón (ICMA, un centro mixto CSIC-Universidad de Zaragoza), en España, con la colaboración de la Universidad de Averio y la Universidad de Toulouse, han desarrollado un dispositivo de tamaño nanométrico que actúa como calentador y termómetro al mismo tiempo y permite realizar mediciones de temperaturas absolutas de manera instantánea, en décimas de segundo, y sin contacto.</p><p><img src="/public/site/images/mikhail/nanocalentador1.JPG" alt="" /></p><p>Este dispositivo supone un gran avance en el campo de la terapia de hipertermia magnética utilizada en el tratamiento contra el cáncer ya que permite controlar la temperatura mientras se desarrolla el tratamiento. La terapia de hipertermia magnética, utilizada para hacer frente a células cancerosas, consiste en conseguir el debilitamiento o la muerte de células cancerosas mediante la aplicación de calor.</p><p>Esta técnica es considerada actualmente como el cuarto tratamiento más importante contra el cáncer. En particular, la hipertermia magnética es una terapia localizada que emplea el calor generado por nanopartículas magnéticas al ser expuestas a un campo magnético alterno inocuo para el cuerpo humano.</p><p>El nanobjeto desarrollado es 2.000 veces más pequeño que el grosor de un pelo y puede calentarse a distancia al aplicarle un campo magnético, algo similar a lo que sucede con las ollas en las cocinas de inducción. Además este pequeñísimo objeto obtenido en el ICMA dispone de un recubrimiento especial que permite introducirlo en el interior de las células.</p><p>Para poder actuar como termómetro, el nanoobjeto cuenta con dos sustancias luminiscentes, una cuya emisión de luz no depende de la temperatura y otra cuya emisión sí está en función de la temperatura, de esta forma si medimos con un microscopio la luz emitida por cada una de estas sustancias y las relacionamos podemos conocer la temperatura absoluta en un punto de la célula, este punto puede ser tan pequeño como nos permita la resolución de la cámara y los aumentos del objetivo.</p><p>En la actualidad se pretende calentar el nanoobjeto utilizando el campo magnético generado por una pequeña bovina acoplada al microscopio mientras se mide a tiempo real como aumenta su temperatura. Este nanoobjeto permite estudiar a escala nanométrica cómo se transmite el calor de una fuente con calor al medio que lo rodea. La investigación confirma que al acercarse a la nanoescala las propiedades físicas son distintas de las que se observan en objetos de tamaño más grandes, lo que también se observa con la conducción de calor.</p><p>El desarrollo de esta investigación es un ejemplo de trabajo multidisciplinar, que en este caso ha unido a químicos, físicos, médicos, biólogos e ingenieros. Las metodologías empleadas en las que el ICMA cuenta con un reconocimiento internacional incluyen la física de materiales a muy bajas temperaturas, tecnologías láser para procesado de materiales, técnicas de dispersión para el estudio de los materiales e instrumentación científica propia. (Fuente: Instituto de Ciencia de Materiales de Aragón, ICMA (CSIC-UNIZAR))</p>2015-08-03T10:42:18+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/77Ciencia: Ciertos genes pueden causar diabetes al exponerse al medio ambiente2015-08-02T23:58:29+00:00Gestión Ingenio y Sociedad<p>Los médicos, por lo regular, señalan a la diabetes tipo II como consecuente de la ingesta exagerada de alimentos y falta de ejercicio; sin embargo, existen cerca de 50 genes que generan cambios en el DNA, conocidos como polimorfismos, que cuando se combinan con el medio ambiente presentan un mayor riesgo de desarrollar la enfermedad, menciona la doctora Marta Patricia Ostrosky Wegman, directora del Instituto de Investigaciones Biomédicas de la Universidad Nacional Autónoma de México (UNAM).</p><p>“Esto no quiere decir que todo el que se exponga a factores contaminantes va a padecer diabetes, sólo aquellos que tienen polimosfirmos susceptibles a desarrollarla”, precisa la doctora en Farmacología”.</p><p>Agrega que existen sustancias que se conocen como obesógenos y diabetogenos, como pesticidas, cadmio, el químico bisfenol A, entre otras, que pueden alterar los genes.</p><p>El más conocido es el arsénico, que proviene de los mantos freáticos y contamina el agua de estados como Coahuila, Sonora, Hidalgo y Chihuahua. En México, la minería y la sobreexplotación de acuíferos subterráneos son el principal factor para que este metaloide afecte el vital líquido.</p><p>La investigadora de la UNAM, quien por más de 20 años ha llevado a cabo diversos estudios científicos al respecto, descubrió que las personas que ingieren este tipo de agua son susceptibles a desarrollar diabetes, debido a que el arsénico modifica la enzima calpaina 10, que altera la secreción de insulina en el páncreas.</p><p>Respecto a esto, señaló que en una investigación in vitro realizada en la zona de la Comarca Lagunera (conformada por cuatro ciudades de los estados de Coahuila y Durango) se determinó que las personas que ingieren mayores cantidades de agua contaminada con arsénico cuentan con polimorfismos en los genes de calpaina 10, que altera las células y evita que el organismo aproveche la glucosa, por ello muestran susceptibilidad a desarrollar diabetes.</p><p>Por ello, la Comarca Lagunera desde hace años implementa medidas para combatir la contaminación de agua con arsénico; una de ellas es mezclar el líquido limpio con el contaminado, así como la promoción de la ingesta de agua embotellada en las zonas donde es posible adquirirla.</p><p>Ostrosky Wegman detalla que el arsénico además de ser un diabetógeno es un factor para desarrollar cáncer de piel y vejiga. “No podemos ser tan drásticos y decir que sólo comer carbohidratos y no hacer ejercicio causa diabetes. Hay otros parámetros en los que tienen que ver los genes y su interacción con el medio ambiente. Debemos conocer cuáles son las sustancias tóxicas que se acumulan en el medio ambiente y evitar su exposición”. (Fuente: AGENCIA ID/DICYT)</p>2015-08-02T23:58:29+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/76Ciencia: Descubren el exoplaneta rocoso más cercano a la Tierra2015-08-02T23:44:28+00:00Gestión Ingenio y Sociedad<p>En los cielos del hemisferio norte se puede observar, sobre todo en otoño, la constelación de Casiopea. Se reconoce fácilmente por sus cinco brillantes estrellas formando una W, pero en esta región del cielo también se encuentra otra menos llamativa, aunque visible a simple vista en noches oscuras y despejadas: HD 219134.</p><p>Este instrumento es capaz de medir la velocidad radial de la estrella que alberga un planeta con una precisión que no tiene rival en el hemisferio norte. Fue esto lo que permitió identificar al exoplaneta gracias al leve ‘balanceo’ que su presencia induce gravitacionalmente sobre la estrella.</p><p>La medida permite determinar la masa del planeta, que en este caso es de cuatro veces y media la masa terrestre. Se considera una 'supertierra', aunque solo es un poco más grande que nuestro planeta, pero mucho más pequeño que Urano y Neptuno.</p><p>Al conocer el volumen y la masa se puede determinar la densidad y se puede establecer si el planeta es rocoso como la Tierra o gaseoso como Júpiter. Esta investigación requirió la potencia de otro instrumento: el telescopio espacial Spitzer de la NASA, que trabaja en las longitudes de onda infrarrojas.</p><p>Midiendo la luminosidad de HD 219134, Spitzer registró una mínima disminución de luz en un intervalo de pocas horas: el tránsito de HD 219134b. De la magnitud de esta disminución se estableció que el radio del planeta es apenas 1,6 veces el radio terrestre, que combinado con la masa medida por HARPS-N lleva a una densidad de aproximada de 6 g/cm³, un valor muy parecido al de nuestro planeta.</p><p>HD 219134b es el miembro más interno de un sistema planetario compuesto por otros tres planetas. Son, respectivamente, otra supertierra de 2,7 masas terrestres en una órbita con periodo de 6,8 días, un planeta neptuniano de 9 masas terrestres y 47 días de periodo, y finalmente un planeta gigante (62 masas terrestres, casi dos tercios de Saturno) mucho más distante con tres años de periodo.</p><p>"Es un resultado sin precedentes. Es el exoplaneta rocoso más próximo, con características muy similares a las de la Tierra", insiste Giampaolo Piotto, de la Universidad de Padua y miembro del equipo que ha llevado a cabo el descubrimiento, que añade: "Es un planeta incandescente, no hospitalario para la vida, pero lo más importante es que cada vez nos acercamos más a la identificación de un planeta análogo a la Tierra". (Fuente: Telescopio Nazionale Galileo)</p><p>Ahora un equipo internacional de investigadores acaba de descubrir orbitando alrededor de esta estrella a un nuevo exoplaneta, HD 219134b. Se trata del planeta rocoso más próximo a la Tierra fuera de nuestro sistema solar. El hallazgo se va a publicar en la revista Astronomy & Astrophysics, con la investigadora Ati Motalebi del Observatorio de Ginebra (Suiza) como primera autora.</p><p>El exoplaneta rocoso se ha podido identificar mientras eclipsaba a intervalos regulares el disco de su estrella madre, una enana de tipo K, similar a nuestro Sol pero ligeramente más fría y más pequeña. El año de HD 219134b, es decir, su periodo orbital, dura tan solo tres días, lo que hace que esté próximo a su estrella y tenga una temperatura casi incandescente.</p><p> Este planeta no es exactamente un gemelo de la Tierra, en un sentido estricto, pero es un objeto raro para los astrónomos, ya que lo alberga una estrella brillante (de quinta magnitud) y a tan solo 21 años luz de distancia.</p><p> "Es el planeta rocoso más cercano a nosotros que se ha confirmado, lo que ofrece perspectivas emocionantes para estudiar su atmósfera en un futuro cercano" explica Giusi Micela, directora del Observatorio Astronómico de Palermo del Instituto Nacional de Astrofísica (INAF) en Italia y coautora del trabajo.</p><p> Este nuevo mundo se ha descubierto con el instrumento HARPS-N, el ‘cazador de planetas’, un espectrógrafo de muy alta resolución instalado en el Telescopio Nazionale Galileo (TNG) en el Observatorio Astrofísico del Roque de Los Muchachos (La Palma, Canarias).</p>2015-08-02T23:44:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/75Tecnología: Biodiesel: de la cocina al motor2015-07-23T10:17:27+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>La tortilla empieza a freírse. En pocos instantes los tacos dorados están listos y el aceite quemado se dispone al drenaje, como es costumbre. Sin embargo, este común ingrediente de cocina es capaz de mover un camión completo. Es por eso que la Universidad Autónoma de Guadalajara (UAG), en México. le apuesta a la fabricación de biocombustible a base de aceite de cocina reciclado.</p><p>Desde 2014 la UAG, a través del Centro de Sustentabilidad y Energía Renovable (CSER), cuenta con su propia planta de biodiesel, la cual abastece de este combustible a dos camiones de la casa de estudios.</p><p>De la recolección del aceite usado en las cafeterías de la universidad y cinco restaurantes, las tres personas que trabajan en la planta producen un promedio de 200 litros al mes, con los cuales se completa una mezcla donde el biodiesel ocupa el 20 por ciento de los tanques.</p><p>El ingeniero Jesús Uriarte Camacho, líder del proyecto, señaló que la tecnología de la planta fue desarrollada en su totalidad dentro de la universidad. Las instalaciones permiten producir hasta 60 mil litros al mes a partir de la misma cantidad de aceite de cocina reciclado.</p><p>Cabe señalar que la planta de la UAG elabora un biodiesel que, a decir del investigador, se asemeja mucho al diesel fósil, para facilitar la utilización del producto en motores diseñados para funcionar con una mezcla de diesel.</p><p>El biodiesel permite que las emisiones tóxicas, gases de efecto invernadero y demás contaminantes que emite un vehículo se reduzcan desde 60 hasta 80 por ciento, además de que fomenta la conservación del agua al evitar que el aceite sea dispuesto en el drenaje.</p><p>La materia prima para elaborar el biodiesel puede ser extraída de plantas, siendo las más comunes la higuerilla, la jatrofa y la palma de aceite. También se pueden utilizar el cártamo, el maíz y la canola, aunque existe un debate sobre la ética de utilizar como base para producción de biodiesel plantas que sirvan para consumo humano.</p><p>Asimismo se puede elaborar biodiesel utilizando desperdicios animales, y aceite residual de cocina.<br /> Se vienen tecnologías superiores</p><p>A pesar de que México está en las primeras etapas para la producción y utilización de biodiesel, en varios países del mundo éste comienza a ser una tecnología superada por nuevos descubrimientos. Uno de éstos son las celdas de hidrógeno, que sirven para obtener electricidad a partir de la separación de la molécula del agua.</p><p>En países como Brasil, Argentina y Alemania ya se comienza a priorizar este tipo de energía sustentable por sobre el biodiesel, ya que no produce ningún tipo de contaminante. “Es la tecnología del futuro; su eficiencia es el doble de cualquier motor de combustión interna”, asegura el ingeniero.</p><p>Sin embargo, en materia de energías sustentables “para pasar de A a C se tiene que pasar por la B, y la B es el biodiesel”, señaló Uriarte Camacho. “Tenemos que transitar. Si nos retrasamos demasiado tal vez nos retrasemos también en otras tecnologías. Son temas que culturalmente toman tiempo”.</p><p>El experto confía en que la Reforma Energética brinde un espacio para el crecimiento del uso del biodiesel, así como la implementación de programas y políticas públicas que obliguen a la mezcla de diesel con biodiesel para vehículos automotores, a fin de evitar la excesiva contaminación.</p><p>Uriarte Camacho señaló que el biodiesel es una buena opción para comercializar, siempre y cuando los volúmenes de venta sean grandes. “La rentabilidad del biodiesel es muy poca o nula con producción por debajo de 10 mil litros mensuales. Cuando vendes por volumen, de 100 mil litros o más al mes, ya se obtiene una utilidad muy considerable y se convierte en una opción económicamente viable”.</p><p>Sin embargo, el investigador advirtió que se requieren de inversiones fuertes y tiempos prolongados para que el negocio del biodiesel florezca, ya que en el caso de los cultivos, el nivel de producción óptimo se alcanza del tercer al quinto año luego de la siembra.</p><p>En tanto, la universidad está buscando establecer relación con el gobierno jalisciense para iniciar el uso de biodiesel en las flotillas de municipios, para luego abastecer a las unidades de transporte público de la Zona Metropolitana de Guadalajara.</p><p> “Se tiene la expectativa de presentar la producción de biodiesel como un proyecto de negocio”, apuntó el ingeniero, quien señaló que empresas como Kenword y Coca Cola están interesadas en comprar a la planta universitaria. (Fuente: Montserrat Muñoz/Agencia Informativa Conacyt)</p></div>2015-07-23T10:17:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/74Tecnología: Hacia el diseño de un nuevo y espectacular material sin fricción2015-07-23T09:58:42+00:00Gestión Ingenio y Sociedad<p>Unos científicos han estado trabajando hacia la identificación y la mejora de un nuevo mecanismo para eliminar la fricción, actividad que les ha conducido a desarrollar un material híbrido capaz de exhibir superlubricidad en la macroescala, algo no logrado previamente en estas circunstancias.</p><p><img src="/public/site/images/mikhail/superlubicidad1.JPG" alt="" /></p><p>El equipo de Sanket Deshmukh y Subramanian Sankaranarayanan, del Laboratorio Nacional estadounidense de Argonne en Illinois, descubrió mediante simulaciones digitales que cuando los materiales lubricantes (grafeno y otra forma de carbono) se deslizan uno sobre otro, el grafeno (que es una capa de carbono de 1 átomo de grosor) empieza a enrollarse conformando una especie de “rollos” cilíndricos huecos que ayudaron a eliminar prácticamente toda fricción. Estos así llamados nanorrollos representaron un mecanismo completamente nuevo para la superlubricidad, un estado en el que la fricción esencialmente desaparece.</p><p>Los nanorrollos combaten la fricción de una forma muy parecida a lo que hacen las bolas de los rodamientos al crear una separación entre superficies.</p><p>La superlubricidad es una propiedad altamente deseable. Considerando que casi un tercio del contenido del depósito de combustible en cada automóvil se gasta en superar la fricción, un material que pueda alcanzar la superlubricidad de manera asequible beneficiaría enormemente a la industria y a los consumidores. Tales materiales podrían también ayudar a incrementar la vida útil de incontables componentes mecánicos que se deterioran debido a la fricción incesante que sufren mientras hacen su trabajo.</p>2015-07-23T09:58:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/73Ciencia: Las alteraciones en el ciclo de sueño provocan obesidad y cáncer en ratones2015-07-22T14:11:42+00:00Gestión Ingenio y SociedadLas alteraciones en el ritmo circadiano provocan desde un aumento de peso hasta el desarrollo de un tumor. Sin embargo, los estudios en humanos no habían podido determinar si el cambio en los patrones de sueño eran la causa de estas enfermedades o si simplemente ambas están correlacionadas.<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p> </p><p>Para solventar este problema, investigadores holandeses han presentado un modelo experimental en ratones que permite someterlos a cambios –similares a los sufridos por los humanos– en el ritmo circadiano, un reloj interno que regula las funciones biológicas del cuerpo durante los distintos periodos del día.</p><p> </p><p>“El mecanismo del reloj circadiano y de la carcinogénesis es similar en ratones y en humanos, por lo que este sistema permite estudiar cómo las diferentes alteraciones circadianas afectan al cuerpo y cómo se puede intervenir para reducir los efectos adversos”, destaca Bert van der Horst, biólogo del Centro Médico de la Universidad Erasmus (Holanda), que ha liderado el estudio, publicado en Current Biology.</p><p> </p><p>Los investigadores probaron este nuevo modelo en hembras de ratón con predisposición genética a sufrir cáncer de mama. En circunstancias normales, los roedores debían desarrollar el cáncer en 50 semanas, pero este periodo se acortó a solo ocho semanas en aquellos que fueron sometidos a alteraciones en los ciclos de luz y oscuridad. Además, estos animales ganaron un 20% de peso. </p><p> </p><p>“La conclusión es que los cambios crónicos en los horarios de luz son un factor que provoca cáncer, obesidad y otros problemas metabólicos”, concluye Van der Horst.</p><p> </p><div class="RichTextAlignCenter" style="position: relative; width: 441px; height: 380px;"><img id="IMAGEN_INSERTADA_29441" title="Los investigadores probaron este nuevo modelo en hembras de ratón con predisposición genética a sufrir cáncer de mama. (Foto: Nils J)" src="http://noticiasdelaciencia.com/upload/img/periodico/img_29441.jpg" alt="[Img #29441]" width="" height="" /><div class="pieDeFoto"><cite>Los investigadores probaron este nuevo modelo en hembras de ratón con predisposición genética a sufrir cáncer de mama. (Foto: Nils J)</cite></div></div><p> </p><p>“Los resultados concuerdan con los hallazgos en otros estudios epidemiológicos en humanos y proporcionan evidencias de que la alteración circadiana es un factor carcinogenético”, añade Till Roenneberg, biólogo en la Universidad Ludwig-Maximilian en Munich (Alemania) y otro de los autores del estudio. </p><p>Normalmente, los detractores de las investigaciones centradas en el ritmo circadiano habían señalado que el tipo de vida era uno de los principales factores que aumentaba el riesgo para la salud. Ejemplo de ello serían las mujeres que trabajan de noche. Estas tienen niños a mayor edad, comen peor, hacen menos ejercicio y beben más alcohol; prácticas asociadas con la obesidad y el cáncer de mama.</p><p>Otros científicos habían destacado la importancia de otros factores como la desincronización interna, la falta de producción de melatonina, la carencia de sueño o la escasez de luz solar.</p><p>Sin embargo, el estudio demuestra que la ausencia de sol (con los consiguientes bajos niveles de vitamina D) y de melatonina no son factores subyacentes en la ganancia de peso y el desarrollo de cáncer de mama.</p><p>Para futuras investigaciones, los científicos pretenden establecer biomarcadores en humanos y ratones que señalen una alteración en el ritmo circadiano. (Fuente: SINC)</p></div>2015-07-22T14:11:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/72Ciencia: La verdadera conducta de los canales iónicos de las células2015-07-22T14:05:10+00:00Gestión Ingenio y Sociedad<p>La idea de que los canales iónicos (los poros en la membrana celular que regulan el intercambio de iones entre el interior y el exterior de las células) son como tubos rígidos a través de los cuales se mueven moléculas de tamaños diversos, parece que es errónea, a juzgar por los resultados de una investigación llevada a cabo por expertos de la Escuela Internacional de Estudios Avanzados (SISSA) en Trieste, Italia, y el centro del sincrotrón Elettra en la misma ciudad.</p><p>El equipo de Luisa Napolitano y Vincent Torre, de la SISSA, ha usado cristalografía de rayos X para observar canales iónicos cambiando su diámetro a medida que se ajustan al tamaño de los iones que los atraviesan.</p><p>“En este campo, la cristalografía de rayos-X está considerada la prueba definitiva: si algo se demuestra con esta técnica, entonces tiene que ser verdad”, explica Torre.</p><p><img src="/public/site/images/mikhail/canal_del_potasio.JPG" alt="" /></p><p>Roderick MacKinnon, ganador en 2003 del Premio Nobel por sus descubrimientos sobre los canales de potasio, ha venido defendiendo la idea de que el filtro de selección, el núcleo del canal iónico a través del cual viajan propiamente los iones, es una especie de tubo rígido e inmutable, por el que se puede hacer pasar cualquier ion. Sin embargo, muchos han cuestionado esta hipótesis y han sugerido que el canal podría ser más flexible de lo pronosticado, si bien no han podido demostrarlo directamente.</p><p>En la nueva investigación, con cristalografía de rayos-X, se ha logrado demostrar finalmente que el filtro de selección de los canales iónicos es dinámico en vez de rígido. Tiene la capacidad de cambiar su diámetro.</p><p>En las pruebas realizadas por el equipo de investigación sobre una de las principales familias de canales iónicos, se observó el paso de seis iones de tamaños muy diferentes, desde uno de litio, el más pequeño, hasta uno de dimetil amonio, muy grande, y quedó claro que el diámetro del filtro cambió linealmente con el tamaño de la molécula que lo cruzaba.</p><p>En definitiva, el canal iónico no es una estructura rígida sino que se ajusta para acomodar las moléculas que lo atraviesan, tal como subraya Napolitano.</p>2015-07-22T14:05:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/71Ciencia: Humidificación y desecación en charcas, ¿clave oculta para el origen de la vida?2015-07-22T14:01:42+00:00Gestión Ingenio y Sociedad<p>Cualquiera que haya observado un charco de agua secándose al sol ha contemplado un entorno que podría haber impulsado el tipo de reacciones químicas que los científicos creen fueron esenciales para la formación de la vida en la Tierra primitiva. Esta es la conclusión que puede extraerse de los resultados de una investigación reciente.</p><p> </p><p>El equipo de Jay Forsythe y Nicholas Hud, del Instituto Tecnológico de Georgia (Georgia Tech) en la ciudad de Atlanta, Estados Unidos, ha demostrado que se pueden formar unas moléculas importantes para la vida contemporánea, conocidas como polipéptidos, simplemente mezclando hidroxiácidos y aminoácidos (de los que se cree que existieron juntos en la Tierra temprana), y sometiéndolos después a ciclos de humidificación y desecación.</p><p> </p><p>Este proceso sencillo, que pudo acaecer en el pasado remoto dentro de una charca secándose al sol y volviéndose después a formar como tal con la siguiente lluvia, funciona porque los enlaces químicos creados por un compuesto facilitan que se formen con el otro.</p><p> </p><p>Los resultados de la investigación apoyan la teoría de que la vida pudo comenzar en tierra temporalmente reseca, quizás incluso en el desierto, donde los ciclos de enfriamiento nocturno y formación de rocío son seguidos por el calentamiento diurno y la evaporación. Se necesitan apenas 20 de estos ciclos día-noche, húmedo-seco, para formar una mezcla compleja de polipéptidos en el laboratorio.</p>2015-07-22T14:01:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/70Tecnología: WiFi de gran alcance mediante ondas de TV2015-07-21T00:00:00+00:00Gestión Ingenio y Sociedad<p>Unos ingenieros han demostrado el primer sistema que permite transmisiones inalámbricas de datos a través de los canales de UHF, durante las emisiones activas de TV. Si la tecnología fuera incorporada en la próxima generación de televisores u otros dispositivos comparables, podría expandir de forma notable el alcance de las redes WiFi, en lo que se ha dado en llamar “superWiFi”.</p><p>Debido a la popularidad de la TV por fibra óptica, por satélite y por internet, el UHF es una de las porciones más infrautilizadas del espectro inalámbrico en países como Estados Unidos. Tal como enfatiza Edward Knightly, de la Universidad Rice en Houston, Texas, Estados Unidos, uno de los ingenieros del equipo que ha llevado a cabo la mencionada demostración, eso es una lamentable ironía porque se estima que la demanda de servicios de datos móviles se multiplicará por diez en los próximos cinco años, y la banda UHF es perfectamente adecuada para los datos inalámbricos.</p><p>Las señales en la banda UHF, que va desde los 400 a los 700 megahercios, a diferencia de las de mayor frecuencia usadas en el WiFi tradicional, son capaces de viajar a kilómetros de distancia y no se ven bloqueadas por paredes o árboles.</p><p>Para demostrar que los operadores de servicios inalámbricos podrían utilizar el espectro UHF sin interferir con las emisoras de televisión, el equipo de Knightly y Xu Zhang ha desarrollado una tecnología llamada WATCH (por las siglas de la expresión en inglés “Wifi in Active T CHannels”).</p><p>WATCH no necesita coordinarse con los transmisores de TV tradicionales o que se efectúen cambios en estos. Al contrario, las señales de TV se emiten de manera normal y el sistema WATCH vigila de forma activa si un televisor cercano está sintonizado a un canal para evitar interferir con la recepción.</p>2015-07-21T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/69Tecnología: Transistor hecho de 1 molécula y varios átomos2015-07-21T19:55:39+00:00Gestión Ingenio y Sociedad<p>Un equipo internacional de físicos ha utilizado un microscopio de Efecto Túnel para crear un transistor minúsculo que consta de una sola molécula y un pequeño número de átomos.</p><p> </p><p>La conducta observada en el transistor es notablemente diferente del comportamiento convencional y podría aportar datos útiles para el desarrollo de futuras tecnologías de transistores muy miniaturizados, así como para estudios fundamentales sobre transporte de electrones en nanoestructuras moleculares.</p><p> </p><p>Estos científicos, de la Universidad Libre de Berlín en Alemania, el Instituto Paul Drude (PDI) en la misma ciudad germana, y otras instituciones, se valieron de un muy estable microscopio de Efecto Túnel para fabricar el citado transistor, el cual consta de una sola molécula orgánica y varios átomos metálicos cargados, que fueron posicionados con la punta del microscopio sobre la superficie de un cristal de arseniuro de indio.</p><p>La molécula es de ftalocianina, y ocupa el centro de un hexágono conformado por 12 átomos de indio, sobre la citada superficie de arseniuro de indio.</p><p>El buen acabado de estos transistores fabricados mediante microscopio de Efecto Túnel, y el hecho de que son reproducibles con relativa facilidad, ayudarán a explorar procesos elementales en los que intervienen corrientes fluyendo a través de moléculas individuales.</p><p>Conocer a fondo y controlar bien estos procesos y las nuevas clases de conductas derivadas de ellos, será de gran ayuda para lograr que los dispositivos basados en moléculas sueltas se puedan integrar debidamente en las tecnologías existentes de semiconductores.</p>2015-07-21T19:55:39+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/68Tecnología: Crean un dispositivo para transportar drones a zonas de catástrofe2015-07-21T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un grupo de estudiantes de varias carreras de la UNS (Bahía Blanca), en Argentina, proyectó un globo aerostático solar con GPS para transportar y lanzar drones en zonas de catástrofe. Un dron es un vehículo sin tripulación reutilizable, capaz de mantener un nivel de vuelo controlado y sostenido, y propulsado por un motor a explosión o eléctrico.</p><p><a href="https://youtu.be/Q0kFEhfJRPQ" target="_blank"><img src="/public/site/images/mikhail/transporte_de_drones_video.JPG" alt="" /></a></p><p>La idea ganó a nivel mundial el certamen “24 horas de la Innovación”. Se trata de una competencia mundial organizada por la École de Technologie Supérieure (ÉTS) de Montreal, donde participaron más de 2.300 interesados a nivel mundial entre alumnos, docentes y creativos de los cinco continentes. Los organizadores establecen desafíos y los concursantes deben idear proyectos para responder a ellos.</p><p> </p><p>“La incógnita planteada era extender el vuelo de estas aeronaves no tripuladas. Nosotros nos explayamos dándole a ese objetivo un aditivo especial: asistir en momentos de catástrofes, como la pérdida de una persona en un bosque o la caída de un avión en el mar”, explica a Argentina Investiga Gabriela Peña, una de sus autoras.</p><p> </p><p>“Cada año, desastres naturales y otros siniestros provocan miles de víctimas -incluso fatales- en zonas inhóspitas. Transportar personal y equipos a esos lugares es difícil y riesgoso. Especialmente, cuando no se sabe qué se va a encontrar, y asistir a equipos de rescate en momentos de catástrofe puede ayudar a ganar tiempo y salvar vidas Nosotros proponemos una solución: el Dron Autónomo de Intercambio (DAI)”, agrega.</p><p>Esta invención funciona como una plataforma para otros drones y resuelve el problema principal que éstos presentan: su baja autonomía. El sistema es elevado por un globo aerostático híbrido y cuenta con un GPS para su ubicación precisa. A éste se le puede incorporar un panel solar para recargar su batería, cuya eficiencia aumenta al orientarlo hacia el sol. El DAI tiene cuatro baterías en carga constante que luego serán reemplazadas en los drones. La comunicación entre éstos y el DAI se realiza por radiofrecuencia, que garantiza una interacción fluida e inmediata.</p><p> </p><p>“Un dron habitual de precio moderado vuela unos 25 minutos y nos dimos cuenta de que no se puede agrandar la batería porque modifica sus características, peso, aerodinámica, etc.” explican. “El DAI es ubicado en el centro de la zona a explorar y los drones vuelan por turnos hasta que sus baterías estén casi agotadas. De esta forma es posible extender el tiempo de vuelo de los drones más allá de los límites actuales”, explican. El video de presentación del proyecto, que subieron a Youtube para que sea evaluado por el jurado, puede verse aquí:</p><p>El conjunto ganador está compuesto además por Braian Vaylet, Gisella Sieben, Carlos Cáseres, Juan Desages, Anselmo Estrada Roa, Andrés García Amado, Joaquín Iurchuk, Franco Vela y Cecilia Fernández Montefiori. Ellos estudian Ingeniería Electricista, Ingeniería Electrónica e Ingeniería en Sistemas. “Funcionamos muy bien como equipo, y vimos que desde nuestras especialidades cada uno tenía algo que aportar. Era la primera vez que participábamos y teníamos expectativas, pero nunca creímos que podríamos ganar el primer premio mundial”, agregan.</p><p> </p><p>En la competencia, por la región de América del Norte ganó la Universidad de Veracruz (México); en Asia ganó la Universidad de Shanghai (China); por América del Sur, Antel (Uruguay); por Europa, la Université de Technologie de Troyes (Francia); y por África, la Université M’Hamed Bougara (Argelia).</p><p> </p><p>En 2013 un equipo de la UNS también había ganado el primer premio mundial en esta competencia, al proponer un sistema de medición y monitoreo de parámetros en la agricultura en tiempo real a partir del uso de tecnologías digitales. El trabajo tiene como fin el empleo racional de agroquímicos, semillas y agua dulce. Según destacan sus creadores, permitiría ahorrar más de 6.900 millones de pesos al año en insumos desaprovechados, generar ahorros en agua y combustible, y una agricultura más ecológica. El sistema realiza un mapeo por medio de señales infrarrojas que permite conocer la longitud de onda reflejada por cada planta de acuerdo a la tonalidad de su color. Con esta información se define su estado y se identifica la falta de nutrientes específicos, agua o presencia de enfermedades. (Fuente: Argentina Investiga)</p>2015-07-21T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/67Ciencia: El cerebro, la obra maestra de la naturaleza2015-07-19T15:41:14+00:00Gestión Ingenio y Sociedad<p>Todo comenzó con el dibujo. Los padres de la neurociencia sólo podían recurrir a él para convencer a sus colegas de la veracidad de sus observaciones al microscopio. Por si fuera poco, la enorme complejidad de la estructura del sistema nervioso les impedía dibujarlo todo y debían elegir únicamente aquellos elementos importantes para lo que quisieran describir en cada momento. Así fue como el científico se convirtió en intérprete del mundo microscópico.<br /><img src="/public/site/images/mikhail/Neuronas1.JPG" alt="" /></p><p>Estas limitaciones, unidas al carácter rudimentario de las ópticas de los primeros microscopios y de los incipientes métodos de tinción, condujeron a fisiólogos e histólogos a ver en el cerebro el campo idóneo para la expresión artística. Ese "puente fascinante" entre ciencia y arte ha inspirado a uno de nuestros neurocientíficos más eminentes, Javier DeFelipe, un libro de gran formato y exquisita factura, El jardín de la neurología, publicado por el Consejo Superior de Investigaciones Científicas (CSIC) y el Boletín Oficial del Estado (BOE).<br /><br />El subtitulo del lujoso volumen explica ya bastante sobre sus intenciones: Sobre lo bello, el arte y el cerebro. DeFelipe lo explica con más detalle en el prefacio al indicar que ha sido su intención seleccionar una galería de imágenes del sistema nervioso -de hombres y animales- que, "de una manera asombrosamente estética, representan conceptos y descubrimientos importantes en el ámbito de la neurociencia".<br /><br />La finalidad del libro no es otra que mostrar tanto al entendido como al lector normal que «el estudio del sistema nervioso no sólo es relevante porque representa uno de los grandes retos de la investigación de las próximas décadas, sino porque posee una insospechada belleza natural», desvela el profesor de investigación del CSIC, líder del Cajal Blue Brain y codirector y coordinador científico del proyecto mundial Human Brain Project.<br /><br />El jardín de la neurociencia, que toma su nombre de la expresión empleada por Santiago Ramón y Cajal, pone de manifiesto la belleza intrínseca del cerebro, pero ofrece además un ángulo sorprendente de la cuestión: el insólito parecido que guardan las imágenes del sistema nervioso obtenidas mediante las modernas técnicas de imagen con las creaciones de grandes pintores e incluso con obras de arte naturales como el plumaje de un pavo real.<br /><br />DeFelipe señala que las imágenes que ofrece el microscopio de luz polarizada de los neurotransmisores cristalizados más importantes del cerebro -glutamato, GABA, noradrenalina, serotonina, acetilcolina y dopamina- «se parecen a las pinturas cubistas o al arte abstracto de Franz Marc o Juan Gris».</p><p>En la estampa multicolor que ofrecen las neuronas sensoriales de la raíz dorsal de un embrión de ratón, el investigador advierte un parecido indudable con un cuadro de Marc Chagall, The dreamer, y es difícil quitarle la razón cuando establece un paralelismo entre la imagen de una progenie de neuroesferas y una pintura de Joan Miró, y entre una cascada de fibras musgosas en el cerebelo y un cuadro de Monet.<br /><br />En el aspecto que muestran tres axiones motores, resaltados en color amarillo y azul, del músculo de un ratón transgénico de camino a sus dianas, las fibras musculares, DeFelipe ve muy verosímilmente un florero pintado por Paul Cézanne.<br /><br />Las expresiones de aromatasa, que es la enzima responsable de la síntesis de estrógenos, sugieren por su parte deslumbrantes creaciones de la naturaleza. Una de ellas, correspondiente al cerebelo, recuerda al plumaje policromado del pavo real, incluidos sus característicos ojos. Otra revela la aromatasa en astrocitos después de una lesión cerebral y evoca la presencia de fuego en el cerebro, lo que resulta quizá una metáfora certera de la realidad.<br /><br />El planteamiento de DeFelipe, tan bien sustentado en las imágenes de gran calidad del libro, se antoja una demostración de cómo la vida puede imitar al arte y, dejándose llevar por el ejemplo del investigador, permite refutar la convicción que recorre todo el arte del siglo XX acerca de la incapacidad de la naturaleza para crear belleza verdadera.<br /><br />Desde los impresionistas, los artistas plásticos parecieron hacer suya la idea de Baudelaire de que «la naturaleza no tiene imaginación». El padre del simbolismo literario quería «las praderas teñidas de rojo, los ríos amarillo de oro y los árboles pintados de azul», y los pintores de la vanguardia se lanzaron en tromba a ese proceso de emancipación del naturalismo.</p><p>Los sorprendentes giros de la vida han querido que, como postula DeFelipe, las imágenes del cerebro recuerden justamente a algunas de esas obras que huían de forma deliberada de la representación exacta de la realidad, gracias -eso sí- al desarrollo de la microscopía confocal y a la disponibilidad de nuevos fluoróforos, reactivos de inmunofluorescencia y ratones transgénicos que expresan selectivamente en las neuronas proteínas fluorescentes en distintos colores.<br /><br />Las nuevas técnicas han abierto otro periodo de inspiración artística que se ha traducido en exposiciones como la famosa Paisajes neuronales, inaugurada en Barcelona en 2006 y presentada posteriormente en 17 ciudades españolas y 15 de otros países.<br /><br />El comité organizador de Paisajes neuronales escogió como obra estéticamente más atractiva la de Tamily Weissman y Jeff Lichtman, de la Universidad de Harvard, que mostraba la apariencia sedosa del hipocampo con corteza de un ratón Brainbow y a Lidia Blázquez-Llorca le sugería una "paleta de pintor".<br /><br />Javier DeFelipe se adentra un paso más en su jardín al aventurar que las trayectorias de las fibras nerviosas que conectan distintas partes del cerebro, y que "se pueden visualizar in vivo como un mapa de colores que se obtiene mediante un tratamiento matemático" de las imágenes que ofrece la resonancia magnética, parecen reflejar "el flujo mental del proceso creativo del pintor abstracto o de artistas como Monet o Van Gogh".</p><p>Absorto ante «el asombroso parecido entre el arte que crea nuestro cerebro y la belleza natural de sus paisajes neuronales, especialmente cuando ocurre inadvertidamente para el artista», el investigador alude a las pinturas al óleo de vides del artista Cristóbal Guerra (Gáldar, 1960), tan semejantes a las imágenes que se obtienen mediante el microscopio confocal de las alteraciones de las neuronas más abundantes de la corteza cerebral, las células piramidales, en enfermos de Alzheimer.<br /><br />Las placas de beta-amiloide típicas de esta enfermedad presentan semejanzas claras con las nebulosas y otros cuerpos celestes que hacen meditar al autor sobre la relación «entre el macrocosmos y el microcosmos» y le sitúan ante el vértigo de observar al mismo tiempo la diferencia entre las dimensiones formidables de un agujero negro, por ejemplo, y las pocas millonésimas de metro que mide una de las citadas placas.<br /><br />El deterioro cognitivo progresivo del mal de Alzheimer, sumado al hecho que sus alteraciones van afectando a regiones cada vez más amplias del cerebro, trae a la memoria del científico la famosa pintura de Van Gogh La noche estrellada.</p><p>"En este cuadro las estrellas son como las placas que parecen moverse (propagación de las placas) impulsadas por un viento -los trazos en forma alargada que aparecen en la parte central del lienzo- que invade el cerebro del paciente", escribe DeFelipe, que concluye lo que, con todo su poder evocador y el mejor espíritu "intruso", es sólo una parte de esta obra monumental ensalzando el "bello ejercicio mental" que representa "intentar que ambos universos se condensen en nuestro cerebro a través del arte y la ciencia".<br /><br />Tan admirador de Ramón y Cajal como de Juan Ramón Jiménez, Javier DeFelipe reivindica la prosa poética del autor de Platero y yo como otro puente que enlaza disciplinas que necesitan unas de otras para dar cuenta de una realidad cuya comprensión de todas maneras se nos escapa.<br /><br />"Magnífica síntesis de arte, ciencia y humanidad", en palabras de Eudald Carbonell, el libro no se limita al sugerente ejercicio de establecer analogías entre imágenes reales y obras de arte sino que también expone los avances y retos de la neurociencia actual además de recorrer la historia de la neurona y de los métodos que se usaban en los albores de esta rama del saber que aún hoy sigue siendo la más enigmática, como indica el paleontólogo y arqueólogo gerundense en la presentación del volumen editado por el CSIC y el BOE.<br /><br />A su innegable utilidad científica, pues cada ilustración lleva su leyenda original y su fuente bibliográfica exacta, El jardín de la neurología añade un cuerpo principal de bellísimos dibujos de la época dorada de la creatividad artística aplicada a la neurociencia. Esas recreaciones salieron de los pinceles de grandes pintores como Santiago Ramón y Cajal, Camillo Golgi o Anders Retzius, que al mismo tiempo estaban fundando la neurociencia moderna.</p><p><a href="http://www.elmundo.es/ciencia/2015/07/19/559f9068ca4741ee098b4574.html" target="_blank">Tomado de el mundo</a></p>2015-07-19T15:41:14+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/66Sociedad: La propuesta educación terciaria2015-07-14T00:00:00+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/rector_y_director1.JPG" alt="" /><strong>Por Francisco Cajiao (Rector de UNICAFAM)</strong></p><p>Siguiendo lo dispuesto en el artículo 59 del Plan de Desarrollo, el Ministerio de Educación dio a conocer un documento que establece los lineamientos generales de lo que será el Sistema Nacional de Educación Terciaria (SNET), así como la fundamentación conceptual que justifica su desarrollo e implementación.<br /><br />En un país que históricamente ha estado rezagado con respecto a otras naciones de América Latina en materia educativa, la iniciativa merece la atención de quienes naturalmente se han ocupado de la formación superior y del sector productivo del país.<br /><br />En nuestra tradición cultural se ha dado muy poca valoración al desarrollo de la formación técnica, así como a los aprendizajes prácticos adquiridos a través de diversos caminos que incluyen la educación no formal, la práctica en los lugares de trabajo o las instituciones de formación profesional. Es claro que en un país de doctores, como se dice, la formación universitaria parecería ser la única que provee respetabilidad y ascenso social.<br /><br />Esto también coincide con las características de nuestro desarrollo, esquivo desde el origen de la nación a la creación de industria manufacturera, perezoso en los procesos de transformación de materias primas y renuente a la investigación científica y tecnológica en empresas capaces de impulsar la innovación en campos de alta complejidad. <br /><br />En las primeras décadas del siglo XX, cuando la industrialización tocaba a la puerta en América Latina, teníamos las más bajas tasas de escolaridad del continente y una economía centrada en la producción de bienes y servicios en pequeña escala, para lo cual no era necesario disponer de mano de obra altamente calificada. Basta recordar que apenas en 1957 aparece el Sena, como institución de formación profesional.<br /><br />Es comprensible que donde no hay una industria altamente exigente en tecnología e innovación resulten poco reconocidas la destreza y maestría requeridas para el desarrollo de actividades que exigen la experticia de quien domina saberes prácticos que usualmente no desarrollan los profesionales universitarios. También es indispensable tener en cuenta que el desarrollo contemporáneo ha borrado fronteras que antes parecían muy claras. Las tecnologías de punta que se ocupan de la innovación en electrónica, por ejemplo, requieren una enorme fluidez entre saberes teóricos avanzados, destrezas prácticas muy específicas y capacidad de creación estética.<br /><br />Por esto, el diseño de un sistema de educación capaz de contener y relacionar de manera dinámica todas las formas de aprendizaje en la etapa postsecundaria se convierte en un valioso desafío para el país. Establecer interacciones y fluidez entre la formación universitaria, la formación técnica y la formación para el trabajo ofrecerá a jóvenes y trabajadores nuevas oportunidades de conseguir el reconocimiento a sus aprendizajes, para facilitarles nuevas rutas de desarrollo.<br /><br />El documento presentado por el Ministerio es prolijo en un diagnóstico que incluye, entre otras, las limitaciones de un sistema educativo que más parece un archipiélago de subsistemas que no se comunican, la necesidad de revisar conceptos para crear un lenguaje común en denominaciones, una laberíntica profusión de reglamentaciones y procesos que riñen con la posibilidad de llevar a la práctica mayor flexibilidad y adecuación de los procesos de formación a las necesidades del mercado y la indispensable articulación con la educación básica y media.<br /><br />Es importante que universidades e instituciones de diversas modalidades de formación postsecundaria, así como gremios y empresarios, respondan a la invitación de avanzar con profundidad y premura en la discusión y desarrollo de iniciativas que permitan construir mejores formas de organizar la educación de nuestros jóvenes.</p><p>También pueden leer el artículo del propio autor "<a href="http://www.eltiempo.com/opinion/columnistas/la-educacion-no-ha-pasado-por-la-habana-francisco-cajiao-columnistas-el-tiempo/15450840" target="_self">La educación no ha pasado por La Habana</a>"</p><p>Tomado de <a href="http://www.eltiempo.com/opinion/columnistas/la-propuesta-educacion-terciaria/16089675" target="_blank">elTiempo</a></p>2015-07-14T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/65Tecnología: Nuevos componentes para computación bacteriana2015-07-13T22:04:27+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/Bacterias_y_computadoras.JPG" alt="" /></p><p>Sensores, conmutadores de memoria y circuitos pueden ser codificados en una bacteria común del intestino.</p><p>Bacterias de las especies “amistosas” que viven dentro de nuestro sistema digestivo están recibiendo el equivalente a una actualización de software que amplía las capacidades de un programa. Si esta llamativa iniciativa fructifica del modo previsto, algún día la nueva tecnología podría permitir programar a dichas bacterias para detectar, y quizá incluso combatir, enfermedades como el cáncer de colon y diversos trastornos inmunitarios.</p><p>El equipo de Timothy Lu, profesor de ingeniería biológica y de ingeniería electrónica y ciencias de la computación en el Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, ha desvelado una serie de sensores, conmutadores de memoria y circuitos que pueden ser codificados en una bacteria común del intestino humano, la llamada Bacteroides thetaiotaomicron.</p><p>Estos elementos de computación básicos permitirán a las bacterias detectar, memorizar y responder adecuadamente ante las señales del intestino, con aplicaciones futuras que podrían incluir la detección temprana y el tratamiento de enfermedades inflamatorias intestinales o del cáncer de colon.</p><p>En otros trabajos de investigación y desarrollo, ya se construyeron circuitos genéticos dentro de organismos modelo como la bacteria E. coli. Sin embargo, tales cepas solo se encuentran en cantidades pequeñas dentro del intestino humano.</p><p>Ante esto último, el equipo de Lu y Christopher Voigt, profesor de ingeniería biológica en el MIT, se propuso trabajar con bacterias como las B. thetaiotaomicron, que están presentes en muchas personas en niveles abundantes, y que pueden colonizar de forma estable el intestino durante largos períodos de tiempo.</p><p>El equipo desarrolló una serie de piezas genéticas que pueden emplearse para programar de forma precisa la expresión genética dentro de las bacterias. Usando estas piezas, los científicos construyeron cuatro sensores que pueden ser codificados en el ADN de la bacteria y que ante la señal adecuada reaccionan activando y desactivando genes dentro de las B. thetaiotaomicron.</p>2015-07-13T22:04:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/64Ciencia: Plutón, observado con el Telescopio William Herschel2015-07-13T21:57:42+00:00Gestión Ingenio y Sociedad<p>Mañana martes 14 de julio a las 13.00 h., casi diez años después de su lanzamiento, la sonda New Horizons llegará a su destino: Plutón. La misión de esta sonda es realizar observaciones del planeta enano y sus lunas para estudiar su composición, estructura y atmósfera con un nivel de detalle que los telescopios terrestres no pueden alcanzar.</p><p> </p><p>La actual campaña cuenta con dos telescopios terrestres: el Telescopio William Herschel (WHT), del Grupo de Telescopios Isaac Newton, en el Observatorio del Roque de los Muchachos (La Palma) y el Gemini Sur, del NOAO (National Optical Astronomy Observatory) en Chile. También se trabaja con el telescopio espacial Spitzer, de la NASA.</p><p> </p><p>“La calidad de los cielos canarios –explica Javier Licandro, director del grupo de investigación del Sistema Solar del IAC- es una de las mejores en el mundo para las observaciones astronómicas. Esta calidad, combinada con la instrumentación de última generación y la larga experiencia de los equipos, hace de este sitio el lugar más apropiado para estudiar Plutón desde la Tierra”.</p><p> </p><p>Las diferencias observadas en los espectros obtenidos desde telescopios terrestres se corresponden con la presencia de amplias zonas de diferente brillo y color observadas en cada uno de los hemisferios del planeta interceptados por la sonda espacial New Horizons. Según Licandro, “la combinación de imágenes y espectros permite establecer que las regiones más oscuras tienen un mayor contenido de moléculas orgánicas complejas que las regiones más brillantes, donde es más abundante el hielo de metano y otros hielos volátiles”.</p><p> </p><p>Dale P. Cruikshank, un científico de la NASA especializado en planetas y miembro del equipo de la New Horizons, explica que las observaciones terrestres son igualmente importantes, “ya que ayudan a enlazar los primeros datos que se tienen de Plutón con su apariencia primigenia, además de ayudar a conectar las futuras observaciones telescópicas con su comportamiento pasado”.</p><p> </p><p>En palabras de Noemí Pinilla-Alonso, coordinadora de las observaciones, antigua investigadora del IAC y colaboradora del grupo de Sistema Solar de este instituto, “una monitorización constante de la superficie de Plutón es necesaria porque este planeta es conocido por ser espectral y fotométricamente variable a lo largo de las estaciones y probablemente del calendario secular”. Y añade: “Recogiendo datos en diferentes longitudes de onda, estamos en situación de poder caracterizar la distribución de los diferentes materiales que contribuyen a configurar la superficie y la atmósfera en modos distintos, desde las capas de hielos volátiles (zonas brillantes y blanquecinas compuestas de metano, nitrógeno y monóxido de carbono) hasta los complejos residuos orgánicos (de color rojizo)”.</p><p> </p><p>El año pasado ya Plutón fue observado durante seis noches con el WHT y se comprobó que los espectros mostraban pequeñas variaciones de color y de abundancia de metano cuando, al rotar, el planeta enano mostraba diferentes caras hacia la Tierra. Ahora mismo, en La Palma se están llevado a cabo observaciones con la cámara ACAM en el WHT durante 11 noches, , desde el 3 al 14 de julio, coincidiendo con la máxima aproximación de la sonda.</p><p>Vania Lorenzi, estudiante de doctorado de la Universidad de La Laguna (ULL) y astrónoma de soporte del Telescopio Nacional Galileo (TNG), situado también en el Observatorio del Roque de los Muchachos, comenta que en los espectros obtenidos en las longitudes de onda en el visible se pueden ver dos características principales de la superficie de Plutón: “La más obvia –subraya- son las bandas de absorción debido al hielo de metano. La segunda característica es la inclinación del espectro, que es un indicador del color de su superficie. Este agente de color no es uniforme sobre toda la superficie de Plutón, sino que cambia notablemente a lo largo de su rotación, equivalante a 6,4 días terrestres. El nuevo espectro ofrecerá una importante calibración independiente de MVIC (Multispectral Visible Imaging Camera)”.</p><p> </p><p>Hasta el momento, y gracias a diversas observaciones realizadas con telescopios terrestres y espaciales como el Hubble o el Spitzer, se sabe que Plutón es un cuerpo formado de hielo y roca de 2.300 km de diámetro, cubierto en la superficie de hielo de metano, de nitrógeno, de monóxido de carbono y materiales oscuros, probablemente orgánicos complejos (tipo hidrocarburos), que le dan su característica tonalidad rojiza. También se ha confirmado que tiene 5 satélites, uno de ellos muy grande, Caronte, de 1.200 km de diámetro y cubierto de hielo de agua. En particular, las observaciones espectroscópicas permiten estudiar los cambios en la composición superficial del planeta, tanto de los hielos como de las moléculas orgánicas complejas.</p><p> <img src="/public/site/images/mikhail/Plutón1.JPG" alt="" /></p><p>Las tareas actuales empezaron en 2004 durante la fase criogenizada del satélite Spitzer que obtuvo flujos de diferentes regiones de Plutón durante una rotación completa. En enero de 2006 se lanzó la sonda New Horizons desde Florida, a la que se le agregó un pequeño artefacto que contiene las cenizas de Clyde Tombaugh, el astrónomo que descubrió Plutón en febrero de 1930. Poco después de que la New Horizons hubiera cruzado la órbita de Marte, en agosto de 2006, la Unión Astronómica Internacional (IAU, de sus siglas en inglés) creó una nueva categoría entre los cuerpos pequeños del Sistema Solar, los planetas enanos, entrando así en el grupo de los desconocidos Ceres, Haumea, Makemake o Eris. Pese a ello, la misión no ha perdido un ápice de su fascinación inicial. Sus resultados están siendo muy satisfactorios y son celebrados internacionalmente tanto por científicos como por aficionados a la astronomía. (Fuente: IAC)</p>2015-07-13T21:57:42+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/63Ciencia: ¿Muchas menos galaxias de lo creído en el universo?2015-07-11T13:41:28+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/número_de_galaxias1.JPG" alt="" /></p><p> </p><p>Podría haber menos galaxias en las zonas del cosmos más alejadas de la Tierra que lo que se ha venido asumiendo en los últimos tiempos, según un nuevo estudio.</p><p> </p><p>En años recientes, los telescopios más potentes, incluyendo el Hubble, han permitido a los astrónomos mirar hacia las profundidades del universo. Los hallazgos que se han hecho han llevado a estimar que este alberga una cifra de galaxias que en realidad podría ser mucho menor, según las conclusiones de la nueva investigación. El cosmos puede estar más vacío de lo que se ha venido creyendo.</p><p>El estudio realizado por el equipo de Brian O’Shea, de la Universidad Estatal de Michigan en Estados Unidos, reduce la cantidad estimada de las galaxias más lejanas en una proporción de 10 a 100 veces.</p><p>Estimaciones anteriores situaban el número de galaxias de brillo demasiado débil en el universo temprano en torno a cifras de cientos o miles de veces superiores a las de las escasas galaxias brillantes que son visibles con el Telescopio Espacial Hubble.</p><p>El equipo de O’Shea cree que la cifra verdadera podría estar más cercana a diez veces más que las brillantes, y no a cientos ni miles de veces más.</p><p>O’Shea y sus colaboradores utilizaron la supercomputadora Blue Waters de la Fundación Nacional estadounidense de Ciencia para llevar a cabo simulaciones con las que examinar la formación de galaxias en el universo temprano. Se consiguió simular miles de galaxias a un tiempo, incluyendo sus interacciones a través de la gravedad o de la radiación.</p><p> </p><p>De entre las galaxias simuladas, a iguales condiciones con una muestra equivalente del cosmos real, las brillantes concordaban en cantidad con las galaxias auténticas observadas en los confines del universo. En cambio, la cifra de galaxias con brillo demasiado débil resultantes de las simulaciones era muy inferior a la cifra de tales galaxias estimada anteriormente para el universo real.</p>2015-07-11T13:41:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/62Ciencia: La ULE participa en el descubrimiento del primer caso conocido de “pulgones carnívoros”2015-07-07T16:25:47+00:00Gestión Ingenio y Sociedad<p>Investigadores de las universidades de León, Valencia, Oxford, Berlín, y del Instituto de Química Avanzada de Cataluña han descubierto una interacción entre áfidos (pulgones) y hormigas sin precedentes, en lo que constituye el primer caso conocido de mimetismo agresivo, que ha sido dado a conocer en la revista científica PNAS.</p><p> <img src="/public/site/images/mikhail/pulgones1.JPG" alt="" /></p><p>Los pulgones son unos pequeños insectos (su tamaño es de pocos milímetros), de colores muy variados (sobre todo verdes, amarillos o negros), con una amplia distribución (en el mundo hay unas 4.500 especies y en España unas 650) y que son fitófagos de un buen número de plantas. Algunos de ellos establecen asociaciones con las hormigas en lo que constituye un típico caso de mutualismo (la relación en la que ambos participantes se benefician). Las hormigas actúan a modo de ‘granjeras’, y prestan servicios de higiene y protección a los rebaños de pulgones que cuidan, a los que libran de depredadores especializados como las mariquitas, los dípteros, o los neurópteros. Por su parte, los pulgones se alimentan de la savia de las plantas y generan una secreción dulce, como una gota de miel, que expulsan por la parte final de su abdomen y que es recolectada por sus guardianas.</p><p> </p><p>La investigación ahora hecha pública revela que en una misma especie de pulgón coexisten dos tipos de individuos, fruto de estrategias dispares, que los hacen diferentes de forma y color y, lo más llamativo, de comportamiento. Los unos actúan como siempre y mantienen su tradicional relación de cooperación. Sin embargo, los otros son capaces de engañar a las hormigas con un peculiar procedimiento en el que con una especie de ‘disfraz oloroso’ se hacen pasar por sus larvas para ser transportadas a la cámara de cría y una vez allí parasitar a las larvas de hormiga auténticas, de las que chupan la hemolinfa (el equivalente en los insectos a la sangre de los mamíferos).</p><p> </p><p>Nicolás Pérez Hidalgo, investigador de la ULE, explica que el descubrimiento es muy importante ya que “es la primera vez que se encuentra un pulgón que se alimenta de otro insecto y que además es capaz de sintetizar compuestos químicos para engañar a las hormigas”.</p><p>Algunos medios de divulgación que se han hecho eco del artículo publicado en la prestigiosa revista PNAS se han referido a estos pulgones como “lobos con piel de cordero”, o insectos “Jekyll y Hyde”, capaces de presentar dos caras muy diferentes: la de pacíficos compañeros y la de agresivos comensales que se infiltran en los hormigueros para alimentarse de las larvas.</p><p> </p><p>Pérez Hidalgo apunta que buena parte del trabajo de campo se ha llevado a cabo en la Maragatería, “llevamos realizando estudios desde hace 15 años en un pueblito de la cuenca del Turienzo, que se llama San Martín del Agostedo”.</p><p> </p><p>El procedimiento de muestreo en el campo consiste en “levantar piedras en busca de colonias de hormigas y pulgones y después establecer las crías en el laboratorio para hacer los experimentos de adopción”.</p><p> </p><p>“Hemos observado, -explica Adrián Salazar, investigador de la Universidad de Valencia que se encuentra temporalmente en León trabajando con el grupo de áfidos de la ULE- , que una de las especies de pulgón con la que trabajamos y que vive en la parte subterránea de las gramíneas, tiene dos formas distintas; una es redondeada y verde y la otra es aplanada y con tonos amarillos o blancos. La primera tiene un comportamiento normal, es fitófaga y se alimenta de las plantas. Sin embargo, la otra, en épocas desfavorables, es capaz de sintetizar compuestos químicos que imitan a los de las larvas de hormiga, de manera que las obreras adultas los transportan a su hormiguero”.</p><p> </p><p>Es curioso reseñar que el camuflaje que permite este peculiar comportamiento no se basa en la forma o apariencia, sino que fundamentalmente es de carácter olfativo, ya que las hormigas se guían en general por las sustancias químicas, y estos tipos de pulgones son capaces de generar un compuesto que las engaña, de manera que, como explica Pérez Hidalgo, “la hormiga se los lleva a casa, y una vez allí el pulgón depreda sobre algunas de sus hijas”.</p><p> </p><p>El trabajo no ha hecho más que comenzar, ya que ahora es preciso investigar si este comportamiento se repite en otras especies de pulgones, de los muchos que se relacionan con el grupo de hormigas estudiado. Todo ello precisa de complejos análisis de las cutículas (los disfraces olorosos) de los pulgones, secuenciación de ADN tanto de hormigas como de pulgones y, por supuesto, de numerosas horas de meticulosas observaciones de comportamiento.</p><p> </p><p>El grupo que ha realizado este descubrimiento está formado por David Martínez-Torres, Adrián Salazar, Enrique Font (Universidad de Valencia), Nicolás Pérez Hidalgo (Universidad de León), Pau Carazo (Universidad de Oxford), Carmen Quero (Instituto Química Avanzada de Cataluña-CSIC), y Benjamín Fürstenau (Freie Universität de Berlín). (Fuente: ULE)</p>2015-07-07T16:25:47+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/61Tecnología: Mexicanos buscan crear primer transformador inteligente del mundo2015-07-07T16:20:46+00:00Gestión Ingenio y Sociedad<p>Uno de los sectores donde se proyecta mayor inversión durante los próximos años es el relacionado con la generación eléctrica. De acuerdo con la Secretaría de Energía (Sener), en México, 62 mil 271 millones de dólares (mdd) serán invertidos en materia de transmisión, distribución y generación eléctrica.</p><p> </p><p>Durante la presentación del Programa de Desarrollo del Sistema Eléctrico Nacional (Prodesen) 2015-2029 trascendió que el rubro al cual se destinará el mayor porcentaje de recursos es generación, con un total de 45 mil 045 mdd, es decir, 72 por ciento del total. Entretanto, a transmisión se destinarán 9 mil 513 mdd, y a distribución mil 713 mdd.</p><p> </p><p>En ese contexto, un grupo de investigadores mexicanos adscritos a una asociación civil del estado de Querétaro trabaja en la construcción del primer transformador inteligente, proyecto que forma parte de la carrera mundial para llegar a dicho desarrollo.</p><p> </p><p>En entrevista con la Agencia Informativa Conacyt, Natalia de Jesús Nila Olmedo, presidenta del Laboratorio de Investigación en Control Reconfigurable (Licore), dijo que el proyecto es desarrollado por un grupo multidisciplinario y en colaboración con la academia.</p><p> </p><p>“Somos una asociación civil queretana, la cual surgió de un grupo de posgrado de la Universidad Autónoma de Querétaro (UAQ); para este proyecto colaboramos con la propia universidad y con la Universidad de Guanajuato (UGTO), la Universidad Tecnológica de San Luis Potosí (UTSLP) y la Universidad Tecnológica de Morelia (UTM); asimismo, con el Centro de Ingeniería y Desarrollo Industrial (Cidesi)”, explicó.</p><p> </p><p>Respecto a la innovación que están realizando, señaló que se trata de un transformador inteligente de estado sólido, cuya investigación inició gracias a un apoyo de Estados Unidos. “(Ese país) nos dio aproximadamente medio millón de dólares para comenzar el proyecto, recursos que permitieron desarrollar el primer prototipo”, subrayó.</p>2015-07-07T16:20:46+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/60Tecnología: El avión futurista Solar Impulse finaliza con éxito su etapa más larga de la vuelta al mundo2015-07-06T16:45:14+00:00Gestión Ingenio y Sociedad<p>El avión ultraligero Solar Impulse, que en marzo inició la vuelta al mundo partiendo desde Abu Dabi, ha recorrido con éxito su etapa más larga cruzando el Océano Pacífico, desde Japón a Hawái, impulsado únicamente por energía solar. El reto ha consistido en sobrevolar 7.212 kilómetros durante cinco días consecutivos con la ayuda de unos motores propulsados exclusivamente por la energía que proporcionan 17.200 células fotovoltaicas.</p><p>Inicialmente, la travesía sobre el Oceáno Pacífico hacia Hawái empezó desde Nanjing (China) el pasado 30 de mayo. Sin embargo, debido a condiciones meteorológicas adversas, el 1 de junio el Solar Impulse tuvo que interrumpir su trayecto aterrizando en Nagoya (Japón), a la espera de que el clima mejorara. Además, tras el aterrizaje, una de las alas de la aeronave fue dañada por los fuertes vientos, y tuvo que ser reparada. El equipo esperó en Japón durante más de dos semanas antes de emprender de nuevo su trayectoria más difícil el 28 de junio.</p><p><img src="/public/site/images/mikhail/avión_futurista.JPG" alt="" /></p><p>André Borschberg, promotor del proyecto junto con Bertrand Piccard, ha sido el encargado de pilotar la aeronave durante esta etapa, que ha completado en cinco días y noches consecutivos sin bajar a tierra. Para poder afrontar este desafío, Borschberg recibió previamente un entrenamiento físico y psíquico intensivo, incluyendo técnicas de meditación, para poder mantenerse despierto y concentrado durante todo el recorrido.</p><p>De este modo, la aeronave completa más de la mitad de su recorrido –más de 17.800 kilómetros, de un total de 35.000–, que ha incluido paradas en Muscat (Oman), Ahmedabad y Varanasi (India), Mandalay (Birmania) y Chonging (China). Cada etapa ha tenido sus dificultades, pero sin duda cruzar el Océano Pacífico, sin una gota de combustible, representa un verdadero hito en la historia de la aviación. La siguiente etapa del Solar Impulse consistirá en volar sobre los Estados Unidos y el sur de Europa para regresar al punto de partida.</p><p>Para que el avión sea especialmente ligero – tan solo pesa 2,3 toneladas – y eficiente energéticamente, se han utilizado materiales de alta tecnología de Bayer MaterialScience, patrocinadora oficial del proyecto desde el año 2010. La compañía se ha responsabilizado del diseño completo de la carcasa de la cabina, utilizando para la puerta del avión Baytherm® Microcell, una espuma aislante de poliuretano muy eficaz cuyo rendimiento es un diez por ciento superior al de los materiales estándar y que protege al piloto de las importantes oscilaciones térmicas (desde los 40°C bajo cero durante la noche hasta los 40°C grados durante el día). En el exterior de la cabina se ha empleado espuma rígida de poliuretano para aislar las baterías, y el resto de la cámara está fabricada con otro tipo de espuma rígida de poliuretano de la compañía.</p><p>Bayer MaterialScience también suministra el material compuesto de poliuretano y fibra de carbono del que están hechos los cierres de la puerta, así como las delgadas láminas de policarbonato transparente de alto rendimiento para la ventana frontal. Además, la compañía suministra las materias primas utilizadas en el revestimiento plateado que cubre gran parte de la aeronave, así como los adhesivos con los que se fija el material textil que hay debajo de las alas.</p><p>El proyecto promovido por Bertrand Piccard y André Borschberg es fruto del trabajo de más de 13 años. Mediante este proyecto, sus promotores buscan demostrar el enorme potencial de la tecnología en materia de eficiencia energética, energías renovables y nuevas soluciones para el transporte. (Fuente: Bayer)</p>2015-07-06T16:45:14+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/59Tecnología: Expertos modifican la estructura del grafeno para aprovechar mejor sus propiedades2015-07-06T16:41:21+00:00Gestión Ingenio y Sociedad<p>A lo largo de esta semana, la International Conference on Electron Dynamics in Semiconductors, Optoelectronics and Nanostructures (EDISON’19) ha congregado en la Universidad de Salamanca (España) a cerca de 150 científicos de diversos países. Las investigaciones en torno al grafeno han centrado buena parte de las novedades que los expertos han ido mostrando a lo largo de cuatro días en la Hospedería Fonseca.</p><p> </p><p>“Las propiedades del grafeno ya se conocen, pero aquí se han presentado avances en el sentido de modificar la estructura básica de este material, crear más capas con otros materiales o diseñar materiales similares, con una estructura parecida, para mejorar sus propiedades”, ha explicado en declaraciones a DiCYT Tomás González, catedrático de Electrónica de la Universidad de Salamanca.</p><p> </p><p>El centro IMDEA-Nanociencia de Madrid, con el investigador Rodolfo Miranda a la cabeza, ha sido uno de los protagonistas, al explicar cómo modificaciones en el grafeno pueden ser útiles en el campo de la espintrónica, que aprovecha las propiedades magnéticas de las partículas de materiales semiconductores.</p><p> </p><p>Los especialistas que se reúnen en el congreso EDISON que trabajan con grafeno lo hacen en el ámbito de la ciencia básica. Se trata de un material formado por láminas de carbono de un solo átomo de espesor con propiedades extraordinarias y prometedoras aplicaciones, aún por explotar. “El paso siguiente no corresponde a los físicos, sino a los ingenieros, que pueden aprovechar esas propiedades para desarrollar aplicaciones”, señala Tomás González.</p><p> </p><p>En general, este encuentro ha abordado “procesos físicos relacionados con dinámica de portadores”, que son, principalmente, los electrones, las partículas subatómicas que están cargadas de electricidad. Estudiar cómo se mueven y qué ocurre cuando cambian de nivel de energía o se desplazan es fundamental para el avance de la tecnología actual, sobre todo en relación a materiales semiconductores. “Y todo ello en dimensiones muy pequeñas, nanométricas, millonésimas de milímetro”, apunta el investigador de la Universidad de Salamanca.</p><p>A largo plazo, estas investigaciones cristalizarán en muchos campos, por ejemplo, las comunicaciones. “Se han presentado estudios sobre frecuencias de terahercios que están por encima de lo que hoy se utiliza para telecomunicaciones. El día que haya dispositivos funcionando bien para esas frecuencias, tendremos comunicaciones más rápidas y eficientes”, comenta. La seguridad y la biomedicina también se beneficiarán de estos avances.</p><p><img src="/public/site/images/mikhail/Grafemo1.JPG" alt="" /> </p><p>Entre los participantes más destacados del congreso han estado Moty Heiblum (Weizmann Institute of Science, Israel), cuya presentación trató sobre emparejamiento de electrones en presencia de efecto Hall cuántico; Amalia Patane (University of Nottingham, Reino Unido), que habló sobre la física y aplicaciones de nanocapas y uniones de InSe; Lino Reggiani (Università del Salento, Lecce, Italia), que ofreció una charla sobre dispositivos electrónicos basados en proteínas; Debdeep Jena (Cornell University, USA), que explicó cómo diseñar dispositivos basados en nitruros para aplicaciones de terahercios; Lieven Vandersypen (TU Delft, Holanda), cuya presentación se centró en computación y simulación cuántica con puntos cuánticos; y Katsumi Tanimura (University of Osaka, Japón), que mostró cómo detectar propiedades de portadores fotoexcitados en semiconductores.</p><p> </p><p>El encuentro, clausurado hoy, ha servido también para que todos estos expertos conozcan de primera mano el trabajo de la Universidad de Salamanca en estos campos. Los científicos del área de Electrónica del Departamento de Física Aplicada trabajan en dispositivos de terahercios, tanto en modelado como en medidas experimentales en dispositivos que son capaces de operar a esas frecuencias; y también en grafeno, tanto en su línea teórica como experimental.</p><p> </p><p>Los especialistas internacionales, muchos europeos y varios de Estados Unidos y Japón, han tenido la oportunidad de conocer las nuevas instalaciones que tienen estos investigadores en el Edificio Multiusos I+D+i de la Universidad de Salamanca, recientemente inaugurado, con espacios como Sala Blanca, que permite procesar dispositivos de tamaños nanométricos. "Han quedado gratamente impresionados, para nosotros estas instalaciones supondrán un avance significativo”, asegura Tomás González. Sin embargo, “necesitamos personal para explotarlas”, advierte, “gente joven que las pueda poner en marcha y técnicos”. (Fuente: JPA/DICYT)</p>2015-07-06T16:41:21+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/58Tecnología: Viaductos con aerogeneradores, nueva fuente de energía renovable2015-06-30T17:05:43+00:00Gestión Ingenio y Sociedad<p>El viaducto del Barranco del Juncal, en Gran Canaria (España), ha servido de referencia a científicos españoles y británicos para comprobar que el viento que sopla entre los pilares de este tipo de infraestructuras puede mover aerogeneradores y producir energía.</p><p>El estudio se basa en modelos y simulaciones por ordenador llevados a cabo por el investigador Óscar Soto y otros colegas de la Universidad de Kingston (Reino Unido). Los científicos han representado los distintos tipos de turbinas mediante discos porosos para valorar su resistencia al aire y probar diversas configuraciones.</p><p>“Como es natural, cuanta más superficie abarque el rotor, más potencia se puede extraer; sin embargo, hemos visto que en turbinas pequeñas la relación de potencia producida por m2 es mayor”, explica Soto, pero señala que la configuración de dos turbinas idénticas sería la más viable para incorporar a los viaductos: "Así se consigue un mayor equilibrio, tanto desde el punto de vista estructural como eléctrico, lo que influye en un menor costo económico".</p><p>Si solo se valorara la potencia producida, las mejores soluciones serían instalar dos rotores de tamaño diferente –para abarcar la mayor superficie posible–, o bien una matriz de 24 turbinas pequeñas –por su potencia por unidad de superficie y peso ligero–, pero respecto a la viabilidad triunfa la opción de los dos rotores iguales con un tamaño medio.</p><p>Los resultados confirman que cada viaducto presenta sus posibilidades energéticas y potencial eólico característicos. En el caso de El Juncal, la potencia evaluada rondaría los 0,25 MW por cada turbina. Al ser dos, sumarían un total de 0,5 MW, lo que se clasifica dentro de la gama de aerogeneradores de media potencia.</p><p>“Esto equivaldría al consumo medio de unas 450 o 500 viviendas”, apunta Soto, quien añade: “Una instalación de este tipo evitaría la emisión de unas 140 toneladas de CO2 al año, una cantidad que representa el efecto de depuración de unos 7.200 árboles”.</p><p>Esta investigación ha sido promovida por la empresa canaria ZECSA. En ella también han participado científicos de la Universidad de Vigo para analizar las conexiones eléctricas que se necesitarían para desarrollar el proyecto, junto a otros de la Universidad de Las Palmas, que se han encargado de su integración en el ámbito de las energías renovables.</p><p><img src="/public/site/images/mikhail/aereogeneradores.JPG" alt="" /></p><p>De hecho, el trabajo se ha publicado en la revista Renewable and Sustainable Energy Reviews y se enmarca dentro de la iniciativa PAINPER, un plan de aprovechamiento de infraestructuras públicas para impulsar las energías renovables.</p><p>“PAINPER es una iniciativa que surgió a raíz de las dificultades observadas para la implantación de este tipo de energía en territorios masificados por infraestructuras, así como en espacios protegidos donde es escasa la superficie útil para nuevas instalaciones”, apunta Aday C. Martín, gerente de ZECSA, quien considera que la energía renovable de los aerogeneradores en los viaductos se podría sumar a la obtenida en otras instalaciones eólicas, solares, geotérmicas y de biomasa. (Fuente: SINC)</p>2015-06-30T17:05:43+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/57Ciencia: Descubriendo una nueva fuerza que promueve la contracción de las células durante el desarrollo y la formación de órganos2015-06-27T12:57:22+00:00Gestión Ingenio y Sociedad<p>Las células y los tejidos necesitan generar fuerzas para dar forma a los órganos y para el correcto desarrollo embrionario. Un equipo de científicos liderado por Jérôme Solon en el Centro de Regulación Genómica (España) acaba de describir un nuevo mecanismo que genera fuerzas e impulsa movimientos celulares durante el desarrollo. Los científicos se han centrado en uno de los procesos más estudiados del desarrollo: el cierre dorsal de la mosca del vinagre (Drosophila).</p><p>El cierre dorsal es un proceso en el que las células de la piel en el embrión se estiran por encima de un agujero y lo cierran. En resumen y de forma simple, los bordes de este agujero forman una especie de cremallera que estira y une las células de la piel del embrión para darle forma y pasar al siguiente estadio del desarrollo. Hay muchos grupos de investigación estudiando el desarrollo y algunos de ellos se centran en el cierre dorsal porque parece tanto genéticamente o como mecánicamente en la cicatrización de heridas en los mamíferos.</p><p>"Los mecanismos que dan forma a las células y los tejidos conocidos hasta ahora se basan en fuerzas que provienen de cambios en la estructura interna o citoesqueleto de la célula y en la red de filamentos que tiran, empujan o contraen las células. Lo que ahora hemos descubierto es que las células también pueden generar fuerzas simplemente modificando su volumen", explica Jérôme Solon, jefe del grupo Biomecánica de la Morfogénesis en el CRG, Barcelona.</p><p>Solon y colaboradores hicieron una descripción cuantitativa del cierre dorsal a nivel tridimensional. Visualizaron las células y, junto con el también físico Guillaume Salbreux del Francis Crick Institute de Londres, construyeron un modelo 3D para comprender mejor qué estaba sucediendo a nivel de cada célula individualmente. "Sorprendentemente, descubrimos que las células no se alargaban o cambiaban su forma tal como se entendía hasta ahora sino que las células se encogían y por eso cambiaban su volumen, empequeñeciendo." Cuando se observan células en la mayoría de procesos del desarrollo que implican contracción de los tejidos lo que vemos es que las células cambian de forma pasando de ser aplanadas a tener forma como de pera sin que ello afecte a su volumen. Simplemente se reparte de forma distinta. En cambio, en este caso, los investigadores han observado que las células continúan aplanadas pero han disminuido su volumen haciéndose pequeñas.</p><p>"Lo más curioso de todo es que los mecanismos que dan lugar a estos cambios son los mismos que los que encontramos en la muerte celular programada o apoptosis. Por tanto, para nosotros es importante destacar el doble rol de la apoptosis en este proceso del desarrollo en particular. Creemos que es probable que estos mecanismos jueguen un papel importante en otros procesos de formación de órganos y tejidos, como por ejemplo la cicatrización de heridas o el desarrollo de extremidades o del cerebro", concluye Solon. (Fuente: CGR)</p>2015-06-27T12:57:22+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/56Ciencia: Adelgazar de forma saludable mejora los síntomas de ansiedad y depresión en personas con sobrepeso y obesidad2015-06-27T12:39:16+00:00Gestión Ingenio y SociedadUna dieta saludable diseñada para perder peso y reducir complicaciones asociadas al sobrepeso y la obesidad consigue, además, mejorar los síntomas de ansiedad y depresión en personas obesas con síndrome metabólico. Esta es una de las conclusiones de la tesis de la soriana Aurora Pérez Cornago, doctora del departamento de Ciencias de la Alimentación y Fisiología de la Facultad de Farmacia de la Universidad de Navarra (España).<p> </p><p>Su trabajo, ‘Underlying processes behind weight loss in overweight individuals following different energy-restricted diets: psychological, metabolomic and epigenetic mechanisms', ha estado dirigido por J. Alfredo Martínez y Marian Zulet, expertos en Nutrición de la Universidad de Navarra, miembros del Instituto de Investigación Sanitaria de Navarra (IDISNA) y del Centro de Investigación Biomédica en Red-Fisiopatología de la Obesidad y la Nutrición (CIBERobn).</p><p>Este estudio forma parte del proyecto RESMENA (Reducción del Síndrome Metabólico en Navarra), subvencionado por el departamento de Salud del Gobierno de Navarra y la Universidad de Navarra.</p><p>Tras seis meses de seguimiento de una dieta hipocalórica, los 100 navarros participantes perdieron de forma significativa peso, grasa corporal y perímetro de la cintura. Además, mejoraron sus niveles de glucosa, colesterol, transaminasas, presión arterial y los marcadores indicativos de la inflamación y daño oxidativo asociados a la obesidad. Proporcionalmente, este patrón dietético se asoció con una reducción del 38% de los síntomas de depresión y de un 28% en los de ansiedad.</p><p> </p><p>Parte de los resultados del trabajo de Pérez Cornago se han publicado en revistas científicas consideradas de alto impacto en su sector como Psychoneuroendocrinology, Clinical Nutrition y Nutrients. Este estudio completa las investigaciones de Rocío de la Iglesia y Patricia López Legarrea, ambas doctoras por la Universidad de Navarra.</p><p>Para llevar a cabo la investigación Pérez Cornago cursó el Máster Europeo en Alimentación, Nutrición y Metabolismo (E-MENU) de la Universidad de Navarra y el Máster en Salud Pública de la Universidad de Pública de Navarra. Además, durante la tesis realizó una estancia de investigación en University College Dublin, Irlanda, para la que obtuvo una beca de movilidad del Ministerio de Educación, Cultura y Deporte. (Fuente: U. Navarra)</p>2015-06-27T12:39:16+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/55Tecnología: Una malla de colágeno ayuda a cerrar heridas diabéticas y de presión2015-06-27T00:00:00+00:00Gestión Ingenio y Sociedad<p>Se trata de una especie de parche biodegradable, elaborado a base de colágeno tipo I, obtenido de fascia de vaca, una membrana que envuelve y aísla órganos y músculos. El dispositivo fue creado por el Grupo de Ingeniería de Tejidos de la Universidad Nacional (U.N.), en Colombia, y ya ha sido probado en modelos animales (conejos), en los cuales ha demostrado que mejora la cicatrización.</p><p>Su efectividad, del 90 por ciento, también ha sido evidenciada en personas con úlceras venosas, diabéticas o de presión, es decir, áreas de piel lesionada por permanecer en una misma posición durante mucho tiempo.</p><p>Tras más de una década de investigaciones, la nueva propuesta para la cicatrización de heridas y la generación de piel estará al alcance de la medicina.</p><p>A través de recursos estatales, se podrá hacer la primera producción industrial, con el fin de obtener los lotes necesarios para solicitar el registro sanitario ante el Instituto Nacional de Vigilancia de Medicamentos y Alimentos (Invima) y llevar a cabo los primeros estudios clínicos controlados. De esta forma, se convierte en el primer dispositivo médico de estas características desarrollado en la U.N.</p><p>Este adelanto científico demuestra que es posible llevar a la aplicación clínica una investigación financiada con recursos públicos. La obtención de este producto es el resultado del trabajo adelantado por el mencionado grupo, bajo el liderazgo de la química farmacéutica, la doctora Martha Raquel Fontanilla, quien desde su formación ha implementado tecnologías que permiten ofrecer sustitutos de tejidos naturales, los cuales estimulan la rehabilitación de zonas del cuerpo con afectaciones en la piel y en la mucosa oral.</p><p>“Se trata de una labor de grupo para obtener un producto desarrollado localmente, pues si bien existen soportes semejantes, la mayoría son importados”, destaca la profesora Fontanilla.</p><p>Aunque todavía no se han realizado estudios comparativos con productos existentes en el mercado, el dispositivo se ha probado en 15 pacientes, en los cuales ha demostrado ser eficaz.</p><p>“Los tratamientos de regeneración de tejidos suelen ser muy costosos y por eso las EPS optan por no cubrirlos, sin embargo, quienes más requieren un procedimiento de este tipo son personas de estratos bajos, que simplemente son tratadas con cremas o vendajes”, manifiesta Ronald Jiménez, candidato a doctor en Ciencias Farmacéuticas de la U.N., cuya investigación actual se centra en el diseño y desarrollo de sistemas de entrega controlada que se pueden aplicar en ingeniería de tejidos y medicina regenerativa.</p><p> </p><p>En los países en desarrollo existe la necesidad de implementar metodologías de bajo costo y asequibles para el tratamiento de úlceras venosas, diabéticas o de presión. Colombia no es la excepción. Por ejemplo, un estudio de prevalencia elaborado por la Facultad de Enfermería de la U.N. encontró que las úlceras por presión, acompañadas por dermatitis, se dan por falta de cuidados médicos en el 22 por ciento de los casos. El mayor porcentaje de pacientes que padecen esta patología son mayores de 65 años.</p><p> </p><p>El colágeno tipo I es la proteína que los investigadores del grupo utilizan para la elaboración del parche biodegradable. Lo obtienen de fascia de vaca, que después de ser extraída y liofilizada, mediante deshidratación por frío, es procesada para mejorar su estabilidad y permitir su manipulación. Dicha etapa hace que el parche que se utiliza para regenerar la zona afectada sea poroso.</p><p> </p><p>Las mallas de colágeno son estructuras tridimensionales que sirven como andamio para que las células se adhieran y se multipliquen. Se pueden aplicar en diferentes tipos de herida, pues se diseñan de acuerdo al tamaño del área a regenerar, lo que permite que se amolden a las necesidades clínicas.</p><p> </p><p>“Lo que hemos hecho cuando se aplica en humanos es poner la malla, prehumedecida en plasma del paciente, en la zona afectada después de que se ha removido el tejido muerto. Posteriormente lo cubrimos con vendas. El mismo procedimiento se repite cada ocho días, hasta cuando la herida ha cerrado”, amplía Lady Espinosa, doctora en Biotecnología de la U.N. e integrante del grupo.</p><p>Según los investigadores, la aplicación del producto debe hacerla un médico o una enfermera con experiencia en el manejo de heridas, pues se requieren acciones que impidan la aparición de infecciones que obstaculizan o retrasan la recuperación de los pacientes. (Fuente: UN/DICYT)</p>2015-06-27T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/54Ciencia: Triangulación perfecta Luna Venus Júpiter sobre las Islas Cíes2015-06-26T11:52:10+00:00Gestión Ingenio y Sociedad<div id="mediablogbody" class="yom-mod yom-art-content " style="margin: 0px 0px 5px; padding: 0px 0px 20px; zoom: 1; border-top-style: none; border-color: #344e7f;"><div id="yui_3_9_1_1_1435317974905_1054" class="bd" style="margin: 0px; padding: 0px; zoom: 1; font-size: 14.039999961853px; font-family: Georgia, Times, 'Times New Roman', serif; line-height: 1.6em;">Esta preciosa imagen, tomada por<strong style="font-style: normal; font-weight: bold;"><span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="https://www.facebook.com/F.ReyDaluz" data-rapid_p="1">Fernando Rey</a></strong><span class="Apple-converted-space"> </span>en el Parque Nacional das Illas Atlánticas (más conocido por muchos como<strong style="font-style: normal; font-weight: bold;"><span class="Apple-converted-space"> </span>Islas Cíes</strong>) es de una belleza excepcional. Además, recoge una<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">triple conjunción</strong>, ya que en ella se aprecia a la<strong style="font-style: normal; font-weight: bold;"><span class="Apple-converted-space"> </span>luna</strong><span class="Apple-converted-space"> </span>(izquierda y punto más brillante) acompañada de dos planetas,<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;"><a class="yom-entity-link" style="color: #5d4370; text-decoration: none;" href="https://es.noticias.yahoo.com/temas/venus/" data-rapid_p="2">Venus</a></strong><span class="Apple-converted-space"> </span>a la derecha (segundo punto más brillante) y<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">Júpiter</strong>, culminando la triangulación en el punto más alto. La foto no solo nos parece hermosa a ti y a mi, la mismísima NASA la eligió ayer 24-06-2015 su "imagen astronómica del día" en la prestigiosa web<span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="http://apod.nasa.gov/apod/ap150624.html" data-rapid_p="3">APOD</a>).</div><div class="bd" style="margin: 0px; padding: 0px; zoom: 1; font-size: 14.039999961853px; font-family: Georgia, Times, 'Times New Roman', serif; line-height: 1.6em;"><img src="/public/site/images/mikhail/Lunas_de_Jupiter1.JPG" alt="" /></div><div id="yui_3_9_1_1_1435317974905_1054" class="bd" style="margin: 0px; padding: 0px; zoom: 1; font-size: 14.039999961853px; font-family: Georgia, Times, 'Times New Roman', serif; line-height: 1.6em;"><p style="margin: 11px 0px 0px; padding: 0px;"><strong style="font-style: normal; font-weight: bold;">[Relacionado</strong>:<span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="https://es.noticias.yahoo.com/blogs/astronomia-terricolas/luna-roja-y-rayo-verde-183429296.html" data-rapid_p="4">Luna roja y rayo verde</a><strong style="font-style: normal; font-weight: bold;">]</strong></p><p style="margin: 11px 0px 0px; padding: 0px;">El autor del la imagen, el<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">biólogo de Vigo</strong><span class="Apple-converted-space"> </span>Fernando Rey, captó la espectacular triangulación el pasado<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">domingo 21 de junio de 2015</strong><span class="Apple-converted-space"> </span>casi por casualidad. Cuando decidió subirla a los foros que la NASA gestiona para elegir candidatas a imagen astronómica del día, donde cada día compiten cientos de instantáneas, no confiaba en conseguir tal logro, pero lo hizo.</p><p style="margin: 11px 0px 0px; padding: 0px;">Fernando<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">trabaja en el Parque Nacional</strong><span class="Apple-converted-space"> </span>das Illas Atlánticas, por lo que pasa muchas horas allí fotografiando la naturaleza y los astros nocturnos con su cámara Olympus. En<span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="http://www.lavozdegalicia.es/noticia/sociedad/2015/06/25/nasa-posa-islas-cies/0003_201506H25P52994.htm#viewmedia" data-rapid_p="5">La Voz de Galicia</a>, comentan que, desde que la NASA publicó la imagen, el teléfono no ha parado de sonar para felicitar al autor de tan hermosa vista.</p><p style="margin: 11px 0px 0px; padding: 0px;"><strong style="font-style: normal; font-weight: bold;">[Podría interesarte</strong>:<span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="https://es.noticias.yahoo.com/blogs/astronomia-terricolas/entrevistamos-daniel-l%C3%B3pez-astrofot%C3%B3grafo-espa%C3%B1ol-galardonado-por-la-123602659.html" data-rapid_p="6">Entrevistamos a Daniel López, astrofotógrafo español galardonado por la NASA</a><strong style="font-style: normal; font-weight: bold;">]</strong></p><p style="margin: 11px 0px 0px; padding: 0px;">Tal y como puede leerse en la web de la NASA, la noche del domingo pasado<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">la luna estaba en fase creciente</strong>. A su derecha Venus, el lucero del alba, que puede observarse a diario al amanecer y anochecer. Y<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">más inhabitual es poder ver a simple vista a Júpiter</strong>, que sobre los otros dos astros formaba la punta superior del triángulo. Para poder captar la imagen se realizaron tomas de larga exposición.</p><p style="margin: 11px 0px 0px; padding: 0px;"><strong style="font-style: normal; font-weight: bold;">Hasta mediados de agosto los dos planetas (Venus y Júpiter) podrán observarse superpuestos al anochecer.</strong><span class="Apple-converted-space"> </span>De hecho, los aficionados a la astrofotografía tendrán una oportunidad para repetir la imagen en una semana, aprovechando la mayor separación aparente de ambos planetas. Seguramente el paisaje no sea de tal belleza, aunque los cielos nocturnos son siempre hermosos<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;">si carecen de contaminación lumínica y las condiciones climáticas son favorables</strong>, algo de lo que si gozó Fernando Rey y que sin duda contribuyó a que pudiera tomar una imagen tan bella como para seducir a la mismísima NASA.</p><p style="margin: 11px 0px 0px; padding: 0px;"><strong style="font-style: normal; font-weight: bold;">[Relacionado</strong>:<span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="https://es.noticias.yahoo.com/blogs/astronomia-terricolas/las-gem%C3%ADnidas-y-el-teide-como-nunca-las-192349971.html" data-rapid_p="7">Las Gemínidas (y el Teide) como nunca las has visto</a><strong style="font-style: normal; font-weight: bold;">]</strong></p><p id="yui_3_9_1_1_1435317974905_1522" style="margin: 11px 0px 0px; padding: 0px;">La instantánea, titulada<span class="Apple-converted-space"> </span><a style="color: #5d4370; text-decoration: none;" href="http://apod.nasa.gov/apod/ap150624.html" data-rapid_p="8">Triple conjunción sobre un parque nacional gallego</a><span class="Apple-converted-space"> </span>se publicó como "<strong style="font-style: normal; font-weight: bold;">imagen astronómica del día</strong>" en la famosa web de la NASA<span class="Apple-converted-space"> </span><strong style="font-style: normal; font-weight: bold;"><a style="color: #5d4370; text-decoration: none;" href="http://apod.nasa.gov/apod/ap150624.html" data-rapid_p="9">APOD</a></strong><span class="Apple-converted-space"> </span>ayer 24-06-2015. </p></div></div>2015-06-26T11:52:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/53Tecnología: ¿Computación mediante nanotubos de carbono?2015-06-25T15:00:55+00:00Gestión Ingenio y Sociedad<p>A medida que nos aproximamos a los límites de la miniaturización de la electrónica convencional, se están persiguiendo con tenacidad creciente alternativas a los transistores basados en el silicio, los elementos de construcción de múltiples dispositivos electrónicos de los cuales dependemos.</p><p> </p><p>La computación mediante nanotubos de carbono es una fascinante posibilidad que se puede abrir a raíz de una investigación reciente.</p><p> </p><p>Ciertos materiales compuestos, elaborados a base de nanotubos de carbono de pared única, son muy prometedores para muchas cosas, incluyendo su uso como material en una forma muy poco convencional de computación.</p><p> </p><p>Inspirados por la forma en la que han evolucionado los organismos vivos en la naturaleza para llevar a cabo tareas complejas con notable facilidad, un grupo de investigadores de la Universidad de Durham en el Reino Unido y la de São Paulo en Brasil está explorando métodos “evolutivos” similares para crear dispositivos de procesamiento de información.</p><p> </p><p>El equipo de Mark K. Massey, profesor en la Universidad de Durham, ha explorado el uso de tales materiales compuestos elaborados con nanotubos de carbono de pared única, para hacer posible una forma exótica de computación. En vez de crear circuitos a partir de conjuntos de componentes separados (transistores en la electrónica digital), el nuevo concepto de computación se basa en tomar un material aleatoriamente desordenado y después “adiestrarlo” para producir el resultado deseado.</p><p>Aunque se halla en su etapa inicial, el concepto ya ha mostrado que, usando un método similar al de la evolución natural, los materiales pueden ser adiestrados para imitar a los circuitos electrónicos, sin necesidad de diseñar la estructura material en una forma concreta.</p><p> </p><p>El material con el que ha estado experimentando el equipo de Massey es una mezcla de nanotubos de carbono y polímero, que crea una estructura eléctrica compleja. Cuando se aplican voltajes (o estímulos siguiendo el símil biológico) en los puntos del material, cambian sus propiedades eléctricas. Cuando se aplican las señales correctas al material, este puede ser adiestrado o experimentar una “evolución” para desempeñar una función útil.</p><p> </p><p>Si bien el grupo no espera ver que su método compita con los ordenadores de silicio de alta velocidad, podría acabar siendo una tecnología complementaria. Con una mayor investigación, podría llevar a nuevas técnicas para fabricar dispositivos electrónicos. El método podría encontrar en el futuro aplicaciones en campos como por ejemplo el de los aparatos de baja potencia y bajo coste.</p>2015-06-25T15:00:55+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/52Ciencia: El astrofísico que negó la teoría del Big Bang y apoyó el origen extraterrestre de la vida2015-06-24T11:19:34+00:00Gestión Ingenio y Sociedad<p>En 1945, una vez acabada la guerra, Hoyle regresó a Cambridge y en su universidad disfrutaría de sus años más productivos científicamente. En 1967 fundó el prestigioso Instituto de Astronomía de Cambridge (entonces llamado Instituto de Astronomía Teórica), del que sería su primer director. En 1971 fue nombrado presidente de la Royal Astronomical Society y en 1972 Caballero del Imperio Británico ('Sir').</p><p><img src="/public/site/images/mikhail/Fred_Hoyle.JPG" alt="" /><br />Pero en 1973 dimitió de su puesto de director del Instituto de Astronomía, quedando sin salario estable y desconectado del mundo de la astronomía oficial. Fue entonces cuando se mudó al Distrito de los Lagos, en el noroeste de Inglaterra, y se dedicó a escribir libros (muchos de ellos de ciencia ficción) y a explorar ideas heterodoxas, la mayor parte de las cuales han sido rechazadas por la ciencia oficial. El 24 de noviembre de 1997 sufrió una caída durante una excursión campestre que tuvo graves efectos en su estado físico e intelectual. Murió el 20 de agosto de 2001 tras un ataque cerebrovascular en Bournemouth.<br />Nucleosíntesis<br /><br />En 1946, Hoyle demostró que los núcleos de las estrellas pueden llegar a tener temperaturas de miles de millones de grados, mucho más altas que las que son precisas para desencadenar reacciones nucleares, y que a esas temperaturas, el equilibrio entre procesos nucleares debe conducir a una gran abundancia de carbono y de hierro, tal y como se observa en la naturaleza.<br /><br />Estatua de Hoyle en Cambridge.<br />También identificó las reacciones nucleares que crean los elementos de la tabla periódica que se encuentran entre el carbono y el hierro, y propuso que algunas de las reacciones precisas para crear los elementos más pesados sólo sucedían cuando las estrellas estallaban en forma de supernovas. Estos trabajos dieron lugar al nacimiento de toda una disciplina astrofísica, la nucleosíntesis, que explica el origen de los elementos más pesados que el helio a partir de diferentes reacciones nucleares.<br /><br />Desafío al Big Bang<br /><br />Hoyle nunca estuvo de acuerdo con la teoría desarrollada por George Lemaître sobre la expansión del Universo. Aunque esta teoría fue verificada experimentalmente poco después por Hubble, confirmado que el universo había tenido un origen, Hoyle se refería a todo ello como si se tratase de pseudociencia. En una emisión de la BBC en 1949 se refirió por primera vez a esta teoría, con una clara intención peyorativa, con el término 'Big Bang'. No podía pensar en ese momento que, con este comentario irónico, estaba acuñando la designación mundialmente popular a esa teoría a la que tanto empeño dedicaría tratando de refutarla.<br /><br />Mosaico con Hoyle en la National Gallery, Londres. | Boris Anrep<br />El astrónomo británico era defensor de su 'teoría del universo estacionario' que intentaba justificar que el universo se mantenía eternamente idéntico a sí mismo, sin ningún cambio, que no había tenido un origen, ni tendría un final. Para lograr que el alejamiento de las galaxias entre sí, que había sido observado por Hubble, no ocasionase una dilución del universo, Hoyle se vio obligado a suponer que había materia que se creaba continuamente entre las galaxias, dando lugar a galaxias nuevas que ocupaban el espacio que se iba vaciando durante la expansión.<br /><br />Obviamente esta creación de materia propuesta por Hoyle no era más verosímil que la creación de todo el universo en un único Big Bang, pero lo que hizo prevalecer a esta última teoría sobre la del universo estacionario fue el descubrimiento del fondo cósmico de microondas en 1964, que se considera una reliquia de la gran explosión. Aunque este fondo cósmico no encuentra explicación en la teoría de Hoyle, éste murió en 2001 sin haber aceptado la validez de la teoría del Big Bang.<br /><br />Polémicas científicas<br /><br />Junto con su colaborador indio Chandra Wickramasinghe, Hoyle promovió la idea de la panspermia, defendiendo que las primeras formas de vida llegaron a la Tierra desde el espacio y que, gracias a los cometas, la vida puede extenderse por el universo.<br /><br />Wickramasinghe y Hoyle en los años de su colaboración.<br />Estos dos autores también atribuyeron un origen extraterrestre a algunas enfermedades como la polio, la enfermedad de las vacas locas, el SIDA y la pandemia de gripe española de 1918. Por ejemplo, en el caso de la gripe española, hicieron la hipótesis de que un cometa había depositado el virus en diferentes lugares del planeta simultáneamente, una hipótesis que fue rechazada unánimemente por los expertos en la pandemia.<br /><br />En 1982 publicaron el libro 'Evolución desde el espacio' en el que argumentaban que la probabilidad de obtener una célula era ridículamente pequeña. Según una comparación que se ha hecho célebre, la probabilidad de obtener una célula a partir de una sopa química primordial es tan pequeña como la probabilidad de que un tornado pueda crear un Boeing 747 en un desguace de chatarra. A partir de aquí, aunque Hoyle se declaraba ateo, pasó a defender una teoría de tipo 'Diseño Inteligente' según la cual la vida ha debido ser creada por alguna inteligencia superior.<br /><br />También interesante<br /><br />Hoyle apoyó la teoría del origen inorgánico de los hidrocarburos terrestres según la cual el petróleo no es un depósito fósil de origen biológico, sino que surge a partir de grandes depósitos de carbono existentes en la Tierra desde su origen, o llegados a nuestro planeta mediante impactos de cometas o asteroides. Por la falta de fundamento científico, esta teoría se considera hoy obsoleta e injustificada.<br />La obra más famosa de ciencia ficción escrita por Hoyle, 'La nube negra', relata la llegada de una enorme nube de gas al sistema solar. Al apantallar la luz solar, la nube parece capaz de terminar con la vida en la Tierra. Finalmente, la nube se revela como un superorganismo mucho más inteligente que los seres humanos. Este relato conquistó a todos los lectores de la época apasionados por la ciencia.<br />Hoyle protagonizó varias polémicas en torno a la impartición de los Premios Nobel. Por ejemplo, en 1974 cuando Antony Hewish ganó el premio por el descubrimiento de los púlsares, Hoyle puntualizó inmediatamente que la descubridora real había sido Jocelyn Bell, y no Hewish, su director de tesis. Según algunos autores, estas críticas a los Nobel fueron la causa de que nunca se le otorgase el premio a él mismo, aunque sí lo recibió en 1983 su colaborador en los trabajos de nucleosíntesis, el estadounidense Willy Fowler.</p>2015-06-24T11:19:34+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/51Ciencia: El segundo satélite Sentinel, en órbita2015-06-24T00:00:00+00:00Gestión Ingenio y Sociedad<p>El segundo satélite Sentinel, Sentinel 2A, ha sido lanzado hoy. El sistema de vigilancia ambiental de la Unión Europea Copernicus adquiere así la capacidad de obtener imágenes de alta resolución en longitud de onda visible.</p><p>El satélite de 1,1 toneladas fue lanzado a bordo de un lanzador Vega (VV05) desde el Puerto Espacial Europeo en Kourou, en la Guayana Francesa, a las 0.1:52 GMT del 23 de junio (03:52 CEST; 22:52 hora local, 22 de junio).</p><p>La primera etapa se separó 1 minuto y 52 segundos tras el despegue, seguida por la segunda etapa y la cofia, a los 3 min. 37 segundos, y 3 min. 54 segundos, respectivamente, y la tercera etapa, a 6 min. 32 segundos.</p><p>Tras el primer encendido, 7 min 42 seg. tras el despegue, seguido de dos re-encendidos, la etapa superior de Vega colocó a Sentinel 2A en la órbita heliosíncrona de destino, a 788 Km de altitud. El satélite se soltó a los 54 minutos y 43 segundos de vuelo.</p><p>Los controladores en el Centro de Operaciones Espaciales (ESOC) de la ESA en Darmstadt, Alemania, establecieron la telemetría y el control de actitud, permitiendo así el comienzo de las actividades del sistema de Sentinel. El panel solar del satélite ya ha sido desplegado.</p><p>Tras esta primera fase, que normalmente dura tres días, los controladores empezarán a probar y calibrar los instrumentos. Se espera que las operaciones propias de la misión empiecen dentro de tres o cuatro meses.</p><p><img src="/public/site/images/mikhail/satelite_sentinel1.JPG" alt="" /></p><p> </p><p>El núcleo de la red del sistema de vigilancia medioambiental Copernicus, de la UE, está formado por seis familias de satélites Sentinel. Copernicus -una iniciativa emblemática para la UE- proporcionará información operacional relativa a la superficie, los océanos y la atmósfera del planeta, de utilidad para la toma de decisiones en política ambiental y de seguridad, y para cubrir las necesidades de los ciudadanos y los proveedores de servicios.</p><p>"Sentinel-2 es el segundo de una constelación de 20 satélites que observarán el planeta en detalle y mejorarán enormemente la capacidad del sistema Copernicus para proporcionar a los ciudadanos europeos los más completos paquetes de datos para vigilancia ambiental y seguridad”, señaló el director general de la ESA, Jean-Jacques Dordain.</p><p>Sentinel-2A, construido por Airbus Defence and Space con participación española, completará las imágenes de radar que proporciona el primer satélite de la flota, Sentinel-1A, que dan servicio las 24h y en cualquier condición atmosférica. Sentinel-1A fue lanzado el 3 de abril de 2014.</p><p><a href="https://youtu.be/36hRyYTCTJ4">Ver video:</a></p><p>"Sentinel-2A, con su cámara óptica, es un complemento a las imágenes de radar de Sentinel-1A”, dijo Volker Liebig, el director de Programas de Observación de la Tierra de la ESA. “Será de utilidad en sectores de gran importancia para la sociedad, como la seguridad alimentaria y la vigilancia de las selvas. Su combinación de amplio barrido y alta frecuencia de paso permitirá a los usuarios observar los cambios en el territorio, y en el crecimiento de la vegetación, con una precisión sin precedentes".</p><p> </p><p><a href="http://noticiasdelaciencia.com/not/14765/el-segundo-satelite-sentinel-en-orbita/" target="_blank">Tomado de NCYT</a></p>2015-06-24T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/50Tecnología: Llegan las baterías de litio-azufre2015-06-20T12:18:44+00:00Gestión Ingenio y Sociedad<p><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;">El número de dispositivos electrónicos móviles está creciendo de manera sostenida en todo el mundo. Como resultado, existe una necesidad creciente de contar con baterías que sean pequeñas, livianas pero también potentes. Como el potencial para el perfeccionamiento de las baterías de ión-litio parece estar ya casi agotado, los expertos se están concentrando ahora en un nuevo y prometedor dispositivo de almacenamiento de energía: las baterías de litio-azufre.</span><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;">En un paso importante hacia el desarrollo futuro de este tipo de batería, un equipo de investigación ha ideado un sistema basado en nanopartículas de carbono poroso que se valen de moléculas de azufre para lograr la mayor eficacia posible.</span><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;">En los prototipos de la batería de litio-azufre desarrollada por el equipo de Thomas Bein de la Universidad Ludwig-Maximilians en Alemania, y Linda Nazar de la Universidad de Waterloo en Canadá, los iones de litio se intercambian entre los electrodos.</span><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><img src="/public/site/images/mikhail/Azufre1.JPG" alt="" /></p><p><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;">El azufre desempeña un papel especial en este sistema: Bajo las circunstancias óptimas, puede absorber dos iones de litio por cada átomo de azufre. Es por consiguiente un excelente material para el almacenamiento de energía, debido a su bajo peso. Por otra parte, el azufre es un mal conductor, lo que significa que los electrones sólo se pueden transportar con gran dificultad durante los procesos de carga y descarga. Para mejorar el diseño de esta batería, se necesita generar fases del azufre con la mayor área posible de superficie de contacto para la transferencia de los electrones mediante la intervención de un material conductor nanoestructurado.</span></p><p><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;"><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;">Con este fin, el equipo de Thomas Bein desarrolló una red de nanopartículas de carbono poroso. Las nanopartículas tienen poros de entre 3 y 6 nanómetros, lo cual permite distribuir el azufre uniformemente. De esta manera, casi todos los átomos de azufre están disponibles para aceptar iones de litio, estando al mismo tiempo ubicados cerca del carbono conductor.</span><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><br style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;" /><span style="color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; display: inline !important; float: none; background-color: #ffffff;">El azufre es muy accesible eléctricamente en estas nuevas y muy porosas nanopartículas de carbono, y se estabiliza para que se pueda lograr una alta capacidad inicial de 1200 mAh/g y una buena estabilidad durante el ciclo.</span></span></p>2015-06-20T12:18:44+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/49Tecnología: Nuevo biosensor nanomecánico ultrasensible para “pesar” las enfermedades2015-06-12T19:26:02+00:00Gestión Ingenio y Sociedad<p>Dos científicos del Laboratorio de Nanoóptica y Plasmónica dependiente del Instituto de Física y Tecnología de Moscú (MIPT) en Rusia, han desarrollado un sensor nanomecánico ultracompacto altamente sensible para analizar la composición química de sustancias y para detectar objetos biológicos, tales como marcadores de enfermedades víricas, que aparecen cuando el sistema inmunitario reacciona a enfermedades incurables o difíciles de curar, incluyendo el SIDA, la hepatitis, el herpes y muchas otras. El sensor permitirá a los médicos identificar marcadores de tumores, cuya presencia en el cuerpo señala la aparición y crecimiento de tumores cancerosos.</p><p> </p><p>La sensibilidad del nuevo dispositivo creado por Dmitry Fedyanin y Yury Stebunov queda mejor explicada por una característica clave del sensor: este puede hacer un seguimiento en tiempo real de cambios de apenas unos pocos kilodaltons en la masa de una pieza nanométrica con forma de trampolín. Un dalton es aproximadamente la masa de un protón o un neutrón, y varios miles de daltons corresponden a la masa de proteínas individuales y moléculas de ADN. Así que el nuevo sensor óptico permitirá diagnosticar enfermedades mucho antes de que sean detectadas por cualquier otro método, lo que abrirá el camino hacia una nueva generación de sistemas de diagnóstico.</p><p><img src="/public/site/images/mikhail/Nanosensor.JPG" alt="" /></p><p>A diferencia de dispositivos similares, el nuevo sensor no tiene uniones complejas y puede ser producido mediante una tecnología estándar de fabricación utilizada en microelectrónica. El sensor consta de dos componentes: una guía de nanoondas fotónicas (o plasmónicas) para controlar la señal óptica, y el “trampolín” que tiene uno de sus extremos suspendido sobre la guía de ondas.</p><p>El trampolín es una larga y delgada tira de dimensiones microscópicas (5 micrómetros de largo, 1 micrómetro de ancho y 90 nanómetros de grosor), conectada firmemente a un chip. Para hacerse una idea de cómo funciona, imaginemos que presionamos firmemente un extremo de una regla en el borde de una mesa y que permitimos que el otro extremo cuelgue libremente en el aire. Si tocamos este último con nuestra otra mano y después la apartamos, la regla empezará a realizar oscilaciones mecánicas con una cierta frecuencia. Así es como funciona el trampolín del sensor. La diferencia entre las oscilaciones de la regla y las del trampolín se halla solo en la frecuencia, que depende de los materiales y la geometría: mientras que la regla oscila a varias decenas de hercios, la frecuencia de las oscilaciones del trampolín se mide en megahercios. En otras palabras, ¡efectúa varios millones de oscilaciones por segundo!</p><p> </p><p>Las oscilaciones del trampolín hacen posible determinar la composición química del entorno en el que es colocado el chip. Ello se debe a que la frecuencia de las vibraciones mecánicas depende no solo de las dimensiones de los materiales y sus propiedades, sino también de la masa del sistema oscilatorio, que cambia durante una reacción química entre el trampolín y el entorno. Colocando diferentes reactivos en el trampolín, los investigadores hacen que reaccione con sustancias específicas o incluso objetos biológicos.</p>2015-06-12T19:26:02+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/48Ciencia: Descubierto el mecanismo molecular que origina las molestias de la enfermedad del ojo seco2015-06-12T19:20:50+00:00Gestión Ingenio y Sociedad<p>Un estudio en el que ha participado el Consejo Superior de Investigaciones Científicas (CSIC), en España, ha descubierto el mecanismo molecular responsable de las molestias características de la enfermedad del ojo seco, la enfermedad ocular más frecuente del mundo y que se da especialmente en personas mayores. El trabajo ha sido publicado en la revista Nature Communications.</p><p> </p><p>El ojo seco viene causado por trastornos en la cantidad y calidad de la lágrima. Da lugar a dolor e irritación ocular continua, parpadeo aumentado y visión alterada, pudiendo llegar a ocasionar ceguera. “Hasta ahora sabíamos que el sistema nervioso es sensible al aumento en la concentración de sales, que a su vez causa la disminución en el volumen de la lágrima propia de la enfermedad del ojo seco, pero desconocíamos el mecanismo molecular responsable de la excitación de estos nervios”, explica el investigador Carlos Belmonte, del Instituto de Neurociencias, centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad Miguel Hernández.</p><p><img style="display: block; margin-left: auto; margin-right: auto;" src="/public/site/images/mikhail/estudio_del_ojo1.JPG" alt="" width="314" height="412" /></p><p>Según los autores del estudio, la proteína TRPM8 podría ser la responsable de las señales nerviosas que les llegan al cerebro a los enfermos de ojo seco y les provocan el aumento del parpadeo y las sensaciones de dolor.</p><p>Hemos trabajado con ratones modificados genéticamente para suprimir la acción de la proteína TRPM8, que está presente en las fibras nerviosas de la superficie ocular, y hemos podido comprobar que, en condiciones similares de concentración de sal en la lágrima, nuestros ratones parpadeaban menos que los ratones que no habían sido sometidos a esta modificación genética”, concluye el investigador del Félix Viana del Instituto de Neurociencias.</p>2015-06-12T19:20:50+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/47Ciencia: La galaxia al borde de un gran vacío cósmico cercano2015-06-12T19:08:27+00:00Gestión Ingenio y Sociedad<p>El Vacío Local es una enorme extensión de espacio que tiene al menos 150 millones de años-luz de diámetro, y que parece estar completamente desprovisto de galaxias e incluso simples estrellas. En un borde de esta inquietante región cósmica está situada la galaxia NGC 6503, a 18 millones de años-luz de la Tierra.</p><p>La mayoría de galaxias tienden a estar agrupadas en cúmulos. En cambio, NGC 6503 está notablemente apartada de otras, sobre todo por extenderse ante sí esta misteriosa zona vacía. No se sabe el motivo de esta aparente ausencia de astros en dicha región, y ni siquiera puede descartarse que sí contenga galaxias, aunque demasiado pequeñas y oscurecidas como para resultar avistables con los instrumentos astronómicos actualmente disponibles.</p><p> <img src="/public/site/images/mikhail/Galaxia.JPG" alt="" /></p><p>Habrá pues que esperar a disponer de tecnología más potente antes de poder rastrear ese gran vacío local y determinar qué hay en él. Mientras, las observaciones de la galaxia en su borde quizá puedan aportar alguna pista esclarecedora.</p><p> </p><p>NGC 6503 se halla a 18 millones de años-luz de nosotros, en la constelación boreal circumpolar del Dragón (Draco). NGC 6503 se extiende a lo largo de 30.000 años-luz, es decir, tiene aproximadamente un tercio del tamaño de la Vía Láctea.</p><p>Las observaciones más recientes hechas con el Telescopio Espacial Hubble muestran a NGC 6503 con un gran nivel de detalle, nunca antes logrado, y con una gran variedad de colores.</p><p> </p><p>Se pueden ver zonas de color rojo brillante que corresponden a gas disperso a través de sus brazos espirales, mezcladas con regiones azul brillante que contienen estrellas de nueva formación. Sendas de polvo marrón oscuro serpentean a lo largo de los brillantes brazos y el centro de la galaxia, proporcionándole una apariencia moteada.</p><p>Futuras observaciones de esta galaxia y su entorno inmediato, así como análisis de todos los datos recogidos, quizá acaben aportando información clave sobre el gran vacío que se extiende ante ella.</p>2015-06-12T19:08:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/46Ciencia: Formación de estrellas en la nube molecular Tauro2015-06-09T16:25:18+00:00Gestión Ingenio y Sociedad<p>La compleja maraña que se puede ver en esta imagen tomada por el observatorio espacial Herschel de la ESA desvela la distribución de polvo y gas en la Nube Molecular Tauro, una gigantesca guardería estelar situada a 450 años luz de nuestro planeta en la constelación de Tauro, el toro.</p><p><img src="/public/site/images/mikhail/Formación_de_una_estrella1.JPG" alt="" /></p><p>Herschel se lanzó en el año 2009 para estudiar el firmamento en las longitudes de onda del infrarrojo lejano. Durante los cuatro años que duró su misión, este observatorio desveló el brillo del polvo cósmico presente en el medio interestelar que impregna nuestra galaxia, la Vía Láctea. El polvo cósmico es un componente menor pero fundamental de la mezcla difusa a partir de la que se forman las nuevas estrellas.</p><p>Uno de los descubrimientos más destacados de esta misión fue la detección de enormes filamentos – estructuras finas y alargadas de polvo y gas que forman un tejido que surca toda la Galaxia. Antes de Herschel ya se conocían algunos ejemplos de filamentos interestelares, pero los datos recogidos por este observatorio desvelaron que estas formaciones se extendían por toda la Vía Láctea, y que jugaban un papel decisivo en el proceso de formación de las estrellas.</p><p>Los astrónomos piensan que los filamentos son fundamentales para arrancar el proceso de formación de las estrellas, ya que canalizan el polvo y el gas interestelar hacia zonas de mayor densidad, en las que la gravedad provoca el colapso y la fragmentación de los filamentos más densos en núcleos en los que se empezarán a formar las estrellas.</p><p>Esta imagen muestra una maraña de filamentos surgiendo de la nube molecular, salpicados de núcleos compactos y brillantes: las semillas de futuras estrellas. También se puede distinguir una red de hebras más finas, perpendiculares a los filamentos principales.</p><p>Este patrón podría indicar la presencia de flujos de acreción, lo que significaría que el polvo y el gas se estarían desplazando a lo largo de los filamentos, y los más grandes podrían estar extrayendo materia de su entorno. Las simulaciones numéricas del proceso de formación de estrellas en las nubes moleculares predicen una distribución similar en el medio interestelar, en la que el polvo y el gas estarían fluyendo hacia los filamentos más gruesos a lo largo de trayectorias determinadas por el campo magnético local.</p><p> </p><p>Esta imagen combina los datos recogidos por Herschel en las longitudes de onda de las 160 micras (azul), 250 micras (verde) y 500 micras (rojo), y abarca unos 5° en su lateral más largo. Estas observaciones fueron realizadas como parte del Programa Clave para el Estudio del Cinturón de Gould en los años 2010 y 2012. El análisis de la estructura de los filamentos está recogido en un artículo de P. Palmeirim et al. 2013. Esta imagen fue publicada por primera vez en la página de Ciencia y Tecnología de la ESA en mayo de 2015. (Fuente: ESA)</p>2015-06-09T16:25:18+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/45Ciencia: Nuevas pistas sobre el origen de la vida2015-06-04T21:33:35+00:00Gestión Ingenio y Sociedad<p>El origen de la vida sigue siendo uno de los grandes misterios de la ciencia. Según los expertos, en los comienzos de nuestro planeta existiría una ‘sopa primordial’ con sustancias químicas sencillas que producirían aminoácidos. Estos se convertían en las proteínas necesarias para crear las células que, a su vez, darían lugar a las plantas y los animales.</p><p> </p><p>Pero ¿cómo se ensamblaron los ‘bloques’ de aminoácidos en las proteínas que formaron la maquinaría celular? De momento no hay respuesta, pero ahora, dos estudios de la Universidad de Carolina del Norte (UNC), publicados en la revista PNAS y liderados por los científicos Richard Wolfenden y Charles Carter, arrojan nueva luz sobre el nacimiento de la vida hace 4.000 millones de años.</p><p> </p><p>"Nuestro trabajo demuestra que la estrecha vinculación entre las propiedades físicas de los aminoácidos, el código genético y el plegamiento de proteínas probablemente fue esencial desde el principio, mucho antes de que las moléculas complejas llegaran a escena", señala Carter, profesor de Bioquímica y Biofísica en la Escuela de Medicina de la UNC. “Esta estrecha interacción probablemente fue el factor clave en la evolución desde los primeros ‘bloques de construcción’ biológicos hasta los organismos”.</p><p> </p><p>Estos nuevos hallazgos van en contra de la cuestionada hipótesis del mundo ARN. Esta molécula hoy desempeña un papel en la codificación, regulación y expresión de los genes; pero, según esta hipótesis, en los comienzos de la vida se alzó del caldo primigenio de aminoácidos y de las sustancias cósmicas, para formar proteínas cortas llamadas péptidos (pequeños grupos de aminoácidos), y luego, los organismos unicelulares.</p><p> </p><p>Wolfenden y Carter argumentan que el ARN no actuó solo; de hecho, consideran que es tan probable que este ácido ribonucleico catalizara la formación de péptidos como que fuera al revés: que fueran los péptidos los que catalizaran el ARN. Este planteamiento supone un nuevo capítulo en la historia de cómo la vida evolucionó hace millones de años.</p><p><br /> <br /> La comunidad científica piensa que hace 3.600 millones años existió un ancestro común universal, llamado LUCA, del que evolucionaron todos los seres que viven actualmente en la Tierra. Es probable que fuera un organismo de una sola célula con unos pocos cientos de genes, pero ya tenía el diseño completo para la replicación del ADN, la síntesis de proteínas y la transcripción del ARN: la base del código genético que conocemos hoy.</p><p> </p><p>LUCA tenía todos los componentes básicos, como los glúcidos, lípidos y proteínas de los organismos modernos. Desde aquel organismo en adelante, es relativamente fácil ver cómo se ha desarrollado la vida. Pero antes de esos 3.600 millones años, sin embargo, no hay pruebas contundentes acerca de cómo LUCA surgió de un ‘caldero hirviente’ con los productos químicos que se formaron en la Tierra después de su creación hace alrededor de 4.600 millones de años.</p><p>"Sabemos mucho sobre LUCA y estamos empezando a aprender acerca de la química que produce los bloques de construcción como los aminoácidos, pero entre los dos hay un desierto de conocimiento", insiste Carter. "Ni siquiera hemos sabido explorarlo", añade el experto, aunque sus investigaciones representan un avance en este 'desierto'.</p><p><br /> <br /> "Ahora el doctor Wolfenden ha establecido las propiedades físicas de los veinte aminoácidos esenciales, y hemos encontrado una relación entre esas propiedades y el código genético", apunta Carter. "Ese vínculo nos sugiere que hubo un segundo y más temprano código que hizo posible las interacciones péptido-ARN necesarias para poner en marcha un proceso de selección que podemos imaginar en la creación de la primera vida en la Tierra".</p><p><br /> <br /> Por lo tanto, subraya Carter, el ARN no tuvo que surgir de la sopa primordial. En su lugar, incluso antes de que hubiera células, parece más probable que hubiera interacciones entre los aminoácidos y nucleótidos que llevaron a la ‘cocreación’ de proteínas y ARN.<br /> <br /> <br /> <br /> Por otra parte, las proteínas deben plegarse de forma específica para funcionar correctamente. En el primer artículo de PNAS, dirigido por Wolfenden, muestra que los tamaños y polaridades (forma en que se distribuyen entre agua y aceite) de los aminoácidos pueden ayudar a explicar el complejo proceso de plegamiento de las proteínas. Este fenómeno implica que una cadena de aminoácidos conforma una estructura tridimensional particular, con una función biológica específica.</p><p><br /> <br /> "Nuestros experimentos muestran cómo las polaridades de aminoácidos cambian constantemente a través de una amplia gama de temperaturas en formas que no afectarían las relaciones básicas entre la codificación genética y el plegamiento de las proteínas", dice Wolfenden.</p><p> </p><p>Esto fue importante para establecer que cuando la vida se estaba formando en los inicios de la Tierra, las temperaturas en nuestro planeta seguramente eran calientes, probablemente mucho más calientes de lo que son ahora o cuando se establecieron las primeras plantas y animales.</p><p> </p><p>Una serie de experimentos bioquímicos con aminoácidos realizados en el laboratorio de Wolfenden revelaron que esas dos propiedades –tamaño y polaridad– de los aminoácidos fueron necesarias para explicar su comportamiento dentro de las proteínas plegadas y su actividad a temperaturas altas como las de la Tierra hace 4.000 millones de años.</p><p><br /> <br /> En cuanto al segundo artículo de PNAS, liderado por Carter, se centra en cómo las enzimas aminoacil–ARNt sintetasas reconocen al ácido ribonucleico de transferencia (ARNt). Esas enzimas traducen el código genético. "Piense en el ARNt como un adaptador", compara el investigador. "Un extremo del adaptador lleva un aminoácido particular; el otro lee el mapa genético para ese aminoácido en el ARN mensajero. Cada sintetasa empareja a cada uno de los veinte aminoácidos con su propio adaptador de modo que el mapa genético en el ARN mensajero fabrique fielmente la proteína correcta cada vez".</p><p><br /> <br /> El análisis de Carter muestra que los dos extremos diferentes de la molécula de ARNt en forma de L contenían códigos o reglas independientes que especifican qué aminoácido hay que seleccionar. El extremo del ARNt que llevó el aminoácido colocó cada aminoácido según su tamaño. Por su parte, el otro extremo de la molécula de ARNt en forma de L se llama el 'anticodon', y lee 'codones' (secuencias de tres nucleótidos de ARN en mensajes genéticos que seleccionan aminoácidos según su polaridad).</p><p><br /> <br /> Los hallazgos de Wolfenden y Carter implican que las relaciones entre los ARNt y las dos propiedades físicas de los aminoácidos fueron cruciales durante la era primordial de la Tierra. A la luz de los trabajos previos de Carter, con muy pequeños núcleos activos de ARNt sintetasas llamados 'urzymas', ahora parece probable que la selección por tamaño precedió a la selección de acuerdo a su polaridad.</p><p> </p><p>Esta selección ordenada significó que las primeras proteínas no se plegaron necesariamente en formas únicas, y que sus estructuras originales evolucionaron más tarde. Carter destaca: "La traducción del código genético es el nexo que conecta la química prebiótica a la biología". Los autores creen que la etapa intermedia de la codificación genética puede ayudar a resolver dos paradojas: cómo surgió la complejidad de la simplicidad, y cómo la vida dividió el trabajo entre dos tipos muy diferentes de polímeros (proteínas y ácidos nucleicos).</p><p><br /> <br /> "El hecho de que la codificacion genética se desarrollara en dos etapas sucesivas (la primera muy simple) puede ser una de las razones de por qué la vida pudo surgir mientras que la tierra era todavía muy joven", señala Wolfenden.</p><p><br /> <br /> Un código mas temprano, que permitiera a los primeros péptidos codificados ligarse al ARN, puede haber proporcionado una ventaja selectiva decisiva, según los autores. Y este sistema primitivo podría entonces someterse a un proceso de selección natural, lanzando así una forma nueva y más biológica de evolución.</p><p><br /> "La colaboración entre el ARN y los péptidos probablemente fue necesaria para que surgiera de forma espontánea la complejidad", añade Carter, que concluye: "En nuestra opinión, fue un mundo péptido-ARN, no solo un mundo ARN". (Fuente: SINC)</p>2015-06-04T21:33:35+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/44Tecnología: Drones más inteligentes y más seguros2015-06-04T21:08:55+00:00Gestión Ingenio y Sociedad<p>Una nueva tecnología permite a los drones recuperar el vuelo estable desde cualquier posición y aterrizar por su cuenta ante averías que hagan desaconsejable seguir volando, o ante otros problemas con igual consecuencia. Será posible incluso poner drones en marcha arrojándolos simplemente al aire como una pelota de béisbol. Los drones serán más seguros e inteligentes, con la capacidad de identificar lugares de aterrizaje seguros y aterrizar automáticamente en ellos cuando sea necesario, reduciendo así el riesgo de que un fallo técnico les deje volando sin control y acaben colisionando de forma peligrosa contra estructuras, personas o vehículos.</p><p> <img src="/public/site/images/mikhail/Drones.JPG" alt="" /></p><p>Esta nueva tecnología, desarrollada por el equipo del profesor Davide Scaramuzza, de la Universidad de Zúrich (UZH) en Suiza, permite una actividad segura de drones más allá del campo visual del operador, lo cual es crucial para su uso comercial, como en la entrega de paquetes.</p><p> </p><p>La creciente popularidad de los drones ha despertado serias preocupaciones de seguridad. Dado que los drones pueden llegar a quedarse sin energía mientras vuelan, lo que les obliga a aterrizar inmediatamente, deben poder detectar puntos de aterrizaje seguros y ejecutar adecuadamente dichas operaciones. Además, cuando los drones pierden temporalmente su información de posición por GPS, surgen potenciales situaciones en las que podrían estrellarse, por ejemplo, cuando vuelan cerca de edificios donde la señal de GPS no llega. En tales situaciones, es esencial que los drones puedan depender de sistemas de reserva y mantener un vuelo estable.</p><p>Los drones del grupo de investigación de la UZH están equipados con una única cámara y sensores de aceleración. Su sistema de orientación emula al sistema visual humano y también a nuestro sentido del equilibrio. Tan pronto como se detecta una situación de fallo o una sacudida, un programa de visión por ordenador analiza las imágenes para identificar puntos de referencia en el entorno y recuperar el equilibrio. Todo el procesamiento de imágenes y el control se lleva a cabo en un procesador de smartphone situado a bordo del dron. Esto hace seguro al dron, y con capacidad suficiente para completar su misión sin ninguna comunicación o interacción con el operador.</p>2015-06-04T21:08:55+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/43Medio Ambiente: Investigan los efectos del clima sobre los ritmos de crecimiento de los árboles2015-06-04T17:09:59+00:00Gestión Ingenio y Sociedad<p>En el marco de la formación de investigadores del Instituto de Gestión Forestal Sostenible (Universidad de Valladolid - INIA), en España, el doctorando Wilson Lara, ingeniero de Montes por la Universidad Nacional de Colombia Sede Medellín, ha desarrollado un nuevo algoritmo para medir el espesor de los anillos de los árboles.</p><p><img src="/public/site/images/mikhail/arboles.JPG" alt="" width="413" height="312" /></p><p> </p><p>Wilson Lara, en su trabajo desarrollado en la Escuela de Ingenierías Agrarias de Palencia, junto con el director de dicha tesis Felipe Bravo Oviedo, catedrático de la Universidad de Valladolid, trata de comprender los efectos del cambio climático sobre el crecimiento de pinos en España continuando una línea que se viene desarrollando en Palencia desde hace 10 años.</p><p>Este tipo de estudios requiere del uso de la dendroclimatología, ciencia que estudia los efectos del clima sobre los ritmos de crecimiento de los árboles (anillos visibles en la madera). Con esta investigación se pretende entender el impacto del cambio climático sobre los bosques españoles y generar herramientas que ayuden al desarrollo científico en todo el mundo.</p><p>Para cumplir con tal principio, los algoritmos estadísticos elaborados son programados con software libre y compartidos en internet de forma gratuita. Tal es el caso del algoritmo “measuRing" elaborado en colaboración con el investigador Carlos Sierra, líder del grupo de Ecología Teórica del Instituto Alemán Max Planck para estudios Biogeoquímicos. Este algoritmo es una herramienta informática que permite medir anillos de crecimiento y densidad de la madera a partir de imágenes escaneadas.</p><p>El software ha sido programado en ambiente R y puede ser descargado de forma gratuita en internet.</p><p>Los estudios del Ingeniero Wilson Lara son financiados por el gobierno colombiano (Colciencias) para los estudios de postgrado fuera de su país de origen. (Fuente: UVA/DICYT)</p>2015-06-04T17:09:59+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/42Tecnología: Una herramienta virtual optimiza la búsqueda de artículos científicos2015-06-01T15:00:45+00:00Gestión Ingenio y Sociedad<p>Dado que en la actualidad la búsqueda de artículos científicos pertinentes y acordes con temas de investigación o citaciones es rigurosa y depende de las características que cada herramienta tenga, el estudiante Sebastián Robledo Giraldo creó, diseñó y estructuró la herramienta Tree of Sciencie (ToS).</p><p> </p><p>Esta fue desarrollada con el fin de disminuir los intervalos de tiempo durante la consulta, reducir el sesgo de las bases de datos indexadas en el buscador y mitigar el rigor de las palabras clave. Todo esto a través de la simbología de un árbol.</p><p> </p><p>“Lo más novedoso es la simplicidad, ya que con la mayoría de herramientas hay que hacer una gran cantidad de pasos para poder llegar a los autores o a los artículos pertinentes. El objetivo es utilizar conceptos orgánicos como el árbol, para poder llegar a todo tipo de investigadores, ya sean físicos, matemáticos, antropólogos, sociológicos, entre otros”, explica Robledo Giraldo.</p><p> </p><p>El proyecto se desarrolla en el Grupo en Ambientes Inteligentes y Adaptativos (GAIA), en Colombia, que hace parte de la convocatoria Fomento a la cultura e innovación, liderada por la Dirección de Investigaciones de Manizales (DIMA) y enmarcada en el proyecto Mejoramiento del sistema de información bibliográfico como soporte a la investigación, coordinado por la Biblioteca.</p><p> </p><p>En este momento y como parte de los recursos entregados en la convocatoria del DIMA, el ingeniero Giraldo, junto con un equipo interdisciplinar de cerca de 10 personas, entregó la versión 0.0.1, la cual permite la búsqueda, categorización y selección de la información.</p><p> </p><p>La administración del sitio web estará a cargo del personal de las bibliotecas de la Sede Manizales, que ya se encuentra capacitado para el manejo y mantenimiento de la herramienta.</p><p> </p><p>“La persona que desee aplicarla solo lo podrá hacer desde uno de estos espacios. Para la segunda versión, que se entregará en agosto de este año, se permitirá el ingreso al usuario desde cualquier lugar del mundo”, indica el estudiante del Doctorado en Ingeniería.</p>2015-06-01T15:00:45+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/41Tecnología: Robot guepardo capaz de saltar por encima de obstáculos mientras corre2015-06-01T14:42:43+00:00Gestión Ingenio y Sociedad<p>Las últimas mejoras a un espectacular robot cuadrúpedo basado en el guepardo, le permiten ahora ver y saltar sobre obstáculos a medida que corre, lo que le convierte en el primer robot de cuatro patas capaz de hacerlo de forma autónoma.</p><p> </p><p>El robot es obra del equipo del robotista Sangbae Kim, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos.</p><p><img src="/public/site/images/mikhail/Robot_saltadores1.JPG" alt="" /></p><p>Para poder saltar mientras corre, el robot anticipa su camino, de manera parecida a como lo hace un corredor humano: cuando detecta un obstáculo interponiéndose en su trayectoria, estima la altura y la distancia de dicho objeto. El robot mide la mejor posición desde la que saltar, y ajusta sus zancadas para aterrizar justo antes del obstáculo, antes de ejercer suficiente fuerza para empujarse hacia arriba y pasar por encima del objeto. Con arreglo a la altura del obstáculo, el robot aplica entonces una cierta cantidad de fuerza para aterrizar de forma segura sobre sus patas, antes de retomar su modo normal de correr.</p><p>Para lograr esto, el robot se ayuda de su nueva capacidad de visión, basada en un sistema LIDAR instalado a bordo, un sistema visual que utiliza los reflejos de un láser para cartografiar de manera tridimensional el terreno.</p>2015-06-01T14:42:43+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/40Ciencia: Contar con el asesoramiento adecuado es la clave del ahorro en servicios informáticos2015-06-01T12:08:06+00:00Gestión Ingenio y Sociedad<p>Hoy en día, la informática sigue siendo, para muchas empresas, un área de desconfianza, con la creencia de que genera más gasto que beneficio.</p><p> </p><p>Es cierto que todavía, para algunos directivos, la informática es algo extraño o incomprensible, y que queda lejos del control que mantienen sobre otras áreas de negocio. En muchas ocasiones, esto se traduce en altibajos en las asignaciones presupuestarias informáticas, y por eso al final, siempre queda la sensación de que se gasta más en sistemas y mantenimiento informático de lo que se debiera.</p><p> </p>Hay momentos en los que resulta necesario recortar costes en la contratación de servicios informáticos, pero llega un momento en el que no se puede prescindir de nada más. Lo importante es analizar los recursos disponibles y ver si realmente están siendo invertidos de la manera más óptima para la empresa. Ante la necesidad de contratar algunos servicios informáticos, en ocasiones ocurre que pequeñas y medianas empresas se encuentran pagando grandes cantidades de dinero por servicios que no necesitan y que finalmente terminan por no utilizar. Pero la solución no está tan lejos, dado que es posible mantener el presupuesto bajo control de una forma sencilla. La clave del ahorro en servicios informáticos es contar con el asesoramiento adecuado.2015-06-01T12:08:06+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/39Ciencia: El nuevo sistema de asesoramiento científico de la UE despierta dudas2015-06-01T12:05:06+00:00Gestión Ingenio y Sociedad<p>El presidente de la Comisión Europea, Jean Claude Juncker, causó un gran alboroto en el mundo académico cuando decidió cesar a Anne Glover como asesora científica de la UE a finales del año pasado, un puesto que esta microbióloga escocesa había ocupado desde 2012.</p><p>El cese fue solo el principio de una serie de cambios más profundos. Hace un par de semanas, Juncker anunció que el puesto de asesor científico quedaba definitivamente suprimido y que será reemplazado por una figura mucho más compleja: un panel independiente de siete científicos de alto nivel asumirá las funciones de asesoría y vigilancia del sistema de ciencia europeo –lo que se denomina watchdog en el mundo anglosajón–.</p><p>La comisión dice que con esta iniciativa se busca fortalecer la relación con los centros nacionales de investigación europeos. </p><p>Según opina James Wilsdon, profesor de ciencia y democracia de la Universidad de Sussex (Brighton, Reino Unido), en un editorial publicado en el último número de Science, “en papel, la solución parece buena, pero su diseño será complicado”.</p><p>En su texto, Wilsdon tiene buenas palabras para el trabajo realizado por Glover: “Durante tres años, fue una embajadora de primer nivel de la ciencia europea y una campeona de la evidencia científica en el diseño de políticas de Bruselas. Trabajó de manera incansable para construir una red de asesores que cubría a los 28 estados de la UE”, destaca.</p><p>Pese al malestar que causó el despido de la asesora, el profesor británico cree que la idea de recurrir a un comité para que ejerza estas funciones es adecuada. Además, agrega, “tal y como reconoció la propia Glover, el puesto no disponía de recursos para intervenir eficazmente en el delicado equilibrio de la toma de decisiones”.</p><p>Para diseñar la nueva maquinaria de asesoría científica, Juncker encargó a Carlos Moedas, comisario de Investigación e Innovación de la UE, un informe para la búsqueda de la mejor fórmula. El resultado fue el mencionado comité científico que será designado antes de final de este año.</p><p>“Estos expertos, descritos por la comisión como watchdogs del sistema, serán totalmente independientes, pero contarán con el apoyo de un equipo de unos 25 funcionarios de la Dirección de Investigación de la CE. Está previsto destinar hasta seis millones de euros para centros académicos nacionales con el fin de que puedan desempeñar un papel más activo en servicios de asesoramiento”, describe el profesor.</p><p>Además, el Joint Research Centre se ocupará de desarrollar buenas conexiones de trabajo para este comité, agrega.</p><p>En su editorial de Science, este experto dice que la solución propuesta por Moedas de otorgar una mayor participación a los centros académicos es un movimiento inteligente, ya que permitirá al comité un mejor acceso a las redes de conocimiento.</p><p>Sin embargo, “algunas de las partes del nuevo mecanismo todavía necesita ser afinadas”, subraya. “Anne Glover desató la reacción de los grupos antitransgénicos cuando habló en favor de los cultivos modificados genéticamente. ¿Podrá el nuevo grupo intervenir en debates controvertidos, o se limitará a responder a preguntas de la comisión?”, se pregunta el experto británico.</p><p>Otra duda que le surge es cómo se seleccionará a los integrantes del grupo. “La comisión ha dicho que el criterio principal será la excelencia científica, pero como ocurre en todos los organismos de la UE tendrá que tender el visto bueno de todos los países. Además, los integrantes del panel deberán proceder de varias disciplinas científicas, incluyendo ciencias naturales, sociales e ingeniería”, destaca.</p><p>La búsqueda de estos ‘siete magníficos’ empezará en cualquier momento. “Después de unos meses turbulentos, la Comisión Europea tiene la oportunidad de poner en marcha un sistema de asesoramiento científico verdaderamente independiente e interdisciplinar. Los científicos europeos, los diseñadores de políticas y, sobre todo, sus 500 millones de ciudadanos no merecen menos”, concluye James Wilsdon.</p><p>La comunidad científica europea le ha echado ya varios rapapolvos a Jean-Claude Juncker en su breve tiempo de mandato, uno de ellos por su decisión de eliminar el puesto de asesor científico y otro, a comienzos de este año, tras el anuncio de un recorte de 2.700 millones de euros en el gasto e investigación e innovación de la Unión Europea.</p><p>Los planes del presidente de la Comisión Europea eran transferir esta cifra al Fondo Europeo para Inversiones Estratégicas (EFSI por sus siglas en inglés), cuyo objetivo es incrementar las inversiones en infraestructuras europeas hasta los 315.000 millones de euros para dar un impulso a la economía de la eurozona.</p><p>Sin embargo, Juncker se ha visto obligado a dar marcha atrás en estos planes, tras las protestas de los eurodiputados que consideraron que los recortes eran demasiado grandes. Las últimas negociaciones han logrado salvar 500 millones de estos recortes. (Fuente: SINC)</p>2015-06-01T12:05:06+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/38Medio Ambiente: Pérdida de más del 70 por ciento de volumen de los glaciares en la zona del Everest para el año 21002015-05-29T21:39:41+00:00Gestión Ingenio y Sociedad<p>Si las emisiones de gases con efecto invernadero continúan aumentando, los glaciares en la región del Everest, en la cordillera del Himalaya podrían experimentar un cambio dramático en las próximas décadas. Un equipo de investigadores de Nepal, Francia y Países Bajos ha encontrado que los glaciares del Everest podrían ser muy sensibles al calentamiento futuro, y que es muy probable una pérdida de hielo sostenida a lo largo del siglo XXI.</p><p> </p><p>El modelo de glaciar utilizado por el equipo de Joseph Shea, un hidrólogo de glaciares del Centro Internacional para el Desarrollo Integrado de Montaña (ICIMOD), en Katmandú, Nepal, muestra que el volumen de los glaciares podría verse reducido entre el 70 y el 99 por ciento hacia el año 2100. La magnitud exacta de la disminución depende de cuánto sigan aumentando las emisiones de gases con efecto invernadero, y cómo afectará esto a la temperatura, las nevadas y las lluvias en la región.</p><p> </p><p>Los glaciares en la región del Himalaya contienen el volumen más grande de hielo fuera de las áreas polares. El equipo estudió los glaciares en la cuenca de Dudh Kosi en el Himalaya nepalí, hogar de algunos de los picos montañosos más altos del mundo, incluyendo el carismático Monte Everest, y de más de 400 kilómetros cuadrados de área de glaciar.</p>2015-05-29T21:39:41+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/37Medio Ambiente: ¿En qué estado estaría el agujero de la capa de ozono sin medidas?2015-05-27T18:04:28+00:00Gestión Ingenio y Sociedad<p>La capa de ozono se extiende aproximadamente de 15 a 50 km de altitud, reúne el 90% de este gas presente en la atmósfera y absorbe del 97 al 99% de la radiación ultravioleta de alta frecuencia. En las últimas décadas, la disminución del grosor de esta capa, o el agujero de la capa de ozono, ha sido objeto de preocupación para los científicos.</p><p><img src="/public/site/images/mikhail/agujero_de_la_capa_de_ozono1.JPG" alt="" /></p><p>En 1985 un equipo de científicos del Estudio Británico de la Antártida en Cambridge (Reino Unido) dio la voz de alarma en la revista Nature al descubrir que la capa de ozono de la Tierra estaba disminuyendo drásticamente en la Antártida. Debido a este desgate, aumentarían los casos de melanomas, de cataratas oculares, supresión del sistema inmunitario en humanos y en otras especies. También afectaría a los cultivos sensibles a la radiación ultravioleta.</p><p>Ante esta situación, los gobiernos firmaron el 16 de septiembre de 1987 el Protocolo de Montreal (Canadá) en el que se obligó a los países firmantes a disminuir el uso de compuestos químicos como los clorofluorocarbonos (CFC) como refrigerantes industriales, propelentes, y fungicidas de suelo (como el bromuro de metilo) que destruyen la capa de ozono. En 1993 se observó la mayor concentración atmosférica de estas sustancias. A partir de ese momento empezaron a disminuir.</p><p>Treinta años después del artículo de Nature, Martyn Chipperfield, investigador en la Universidad de Leeds (Reino Unido), y su equipo demuestran con un modelo químico-atmosférico en 3D que los objetivos del Protocolo de Montreal ya se han cumplido. Sin protocolo, “hubiéramos tenido una catastrófica reducción de la capa de ozono en todo el mundo para mediados del siglo XXI”, dice a Sinc Chipperfield, autor principal del estudio que se publica en la revista Nature Communications.</p><p>El tratado internacional de Naciones Unidas ha evitado importantes aumentos en los niveles de la radiación UV en la superficie, “que hubiera provocado grandes incrementos de la incidencia de cáncer de piel en humanos y daños en otros órganos”, añade el investigador quien recalca que el agujero de ozono del Antártico se hubiera incrementado un 40% para 2013 si no se hubieran tomado las medidas oportunas.</p><p>El trabajo demuestra que a altitudes medias, donde las personas son más sensibles al daño de los rayos UV, el porcentaje de cambios en la radiación UV en la superficie es importante. Así, en las áreas más pobladas de Australia y Nueva Zelanda, que tienen las tasas más altas de mortalidad por cáncer de piel, el modelo predice que la radiación UV en la superficie se hubiera podido incrementar entre el 8 y el 12%. En el norte de Europa, incluido el Reino Unido, los incrementos hubieran superado el 14% para 2013.</p><p>“Usamos el modelo para calcular qué hubiera pasado si los contaminantes CFC u otros gases destructores del ozono hubieran seguido creciendo sin protocolo”, observa a Sinc Chipperfield.</p><p>Según la simulación por ordenador, “ahora mismo tendríamos agujeros regulares en la zona del Ártico, en la Antártida los agujeros serían mucho más grandes y la reducción de la capa de ozono en latitudes medias sería más del doble comparado a las que se han observado en realidad en los momentos de mayor concentración”, subraya el investigador.</p><p>La disminución de la capa de ozono en las regiones polares depende de la meteorología, sobre todo en el caso de temperaturas frías a 20 km de altitud, ya que estas provocan más pérdida de ozono. El equipo usó las condiciones meteorológicas actuales observadas en las últimas décadas para proporcionar una simulación más precisa para las pérdidas de ozono de los polos.</p><p>Aunque en el momento en el que se firmó el protocolo de Montreal, “las causas exactas del agujero de ozono del Antártico no estaban claras” –comenta el investigador–, el tratado ha permitido que los países firmen para limitar modestamente los contaminantes, a la espera de reforzar su compromiso una vez que la ciencia aportara más evidencias.</p><p>“Esto ha reducido las barreras para firmar y ha facilitado los acuerdos”, concluye el autor quien añade que el protocolo también ha aportado los fondos necesarios para que los países en desarrollo opten por alternativas menos contaminantes. (Fuente: SINC)</p>2015-05-27T18:04:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/36Salud: Descubierto un mecanismo que permite que las células aprovechen el exceso de grasa2015-05-27T17:55:34+00:00Gestión Ingenio y Sociedad<p>Un equipo de investigadores del Idibaps ha descubierto cuál es el mecanismo por el que dos orgánulos celulares, los cuerpos lipídicos (CL) y las mitocondrias, interaccionan para intercambiar los ácidos grasos que contienen los primeros para que las mitocondrias puedan producir energía cuando faltan los nutrientes. Esto se consigue gracias a unos microtúbulos especiales, una especie de autopistas sobre los que se colocan los CL y se desplazan hasta llegar a las mitocondrias.</p><p>El trabajo lo publica la revista<em> Nature Communications</em> y está liderado por el Dr. Albert Pol, profesor ICREA del equipo de 'Compartimientos intracelulares y señalización' del Idibaps y profesor asociado de la Facultad de Medicina de la Universidad de Barcelona . Los primeros firmantes del artículo, realizado en colaboración con la Universidad de Queensland, en Australia, y la Universidad de California, en Estados Unidos, son el Dr. Albert Herms y la Dra. Marta Bosch, investigadores del equipo del Idibaps.<br /> <br /> Las grasas son indispensables para la vida, pero muy tóxicas en exceso. En todas las células encontramos cuerpos lipídicos (CL), unos orgánulos que almacenan el exceso de ácidos grasos que llega a la célula para reducir su toxicidad y poder suministrarlos cuando hay un requerimiento de energía. Aunque su función está bien descrita en los adipocitos, las células del organismo especializadas en la acumulación de grasa, poco se sabe sobre la función de los CL en el resto de células y el mecanismo por el que interactúan con otros orgánulos celulares. Conocer estos mecanismos sería de gran importancia dado que una acumulación excesiva de CL es la causa de enfermedades asociadas con la obesidad, como la diabetes tipo II, y de la aterosclerosis, el síndrome metabólico o el hígado graso.<br /> <br /> Los investigadores del Idibaps han observado que cuando se retiran los nutrientes de las células en cultivo, el patrón de distribución de los cuerpos lipídicos cambia y pasa de ser central, alrededor del núcleo, a periférico y disperso por el citoplasma. Al profundizar sobre el mecanismo por el que esto sucede, han descubierto que en él intervienen un tipo especial de microtúbulos del citoesqueleto, el entramado tridimensional que organiza las estructuras internas de las células e interviene en el transporte y la división celular. Los CL se disponen y se desplazan sobre estos microtúbulos, al final de los cuales se encuentran las mitocondrias, facilitando que los ácidos grasos se puedan transformar en energía. Este mecanismo sirve para que la célula obtenga energía de una forma rápida y eficiente cuando faltan los nutrientes.</p><p><strong>La enzima AMPK</strong><br /> <br /> Otra de las novedades de este trabajo es que, para que todo esto suceda, se necesita la activación de una enzima conocida como AMPK (proteína quinasa activada por AMP), que es un sensor de energía celular que ayuda en el balance energético y el consumo de calorías. Los investigadores han demostrado que la AMPK actúa de forma simultánea aumentando la movilidad de los CL, reorganizando la red de microtúbulos y activando a las mitocondrias, tanto en condiciones normales como en ayuno<br /> <br /> Muchas enfermedades tienen su origen en una deficiencia en los mecanismos bioenergéticos de las células y la acumulación de CL en diferentes tejidos está correlacionada con diferentes patologías de gran prevalencia. Este artículo demuestra cuál es el mecanismo por el que se movilizan los CL para la producción de energía, tanto en condiciones en las que faltan los nutrientes como en condiciones normales. Con este descubrimiento se podrá profundizar en el conocimiento de las causas y en el tratamiento de enfermedades como la diabetes o la aterosclerosis. "Con la administración de un fármaco como la metformina, uno de los más utilizados en el tratamiento de la Diabetes de tipo II, se desencadenan todos los procesos que movilizan los CL, quemando las grasas y doblando la eficiencia en la producción de energía ", explica el Dr. Albert Pol, coordinador del estudio.</p><p><a href="http://www.jano.es/noticia-descubierto-un-mecanismo-que-permite-24354" target="_blank">Tomado de Jano</a></p>2015-05-27T17:55:34+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/35Tecnología: La carrera por el Big Data2015-05-27T16:33:39+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>La información es poder, especialmente en el mundo de los negocios, pero es un poder que no está al alcance de todos. La clave se encuentra en saber cómo gestionar esa ingente cantidad de datos en verdadera información útil, y esa es precisamente la funcionalidad del Big Data. Un correcto empleo del Big Data deriva en innovación, diferenciación y nuevas oportunidades de negocio, tanto para las grandes corporaciones como para las pequeñas y medianas empresas. De acuerdo con un informe de Aberdeen Group, las empresas que usan correctamente el Big Data obtienen de media un 12% más de beneficios anuales.</p><p><img src="/public/site/images/mikhail/Big_data1.JPG" alt="" width="392" height="266" /> </p><p>Sin embargo, las pymes encuentran ciertos obstáculos en su carrera por el Big Data, en palabras de Tathagata Sarkar, actual vicepresidente de ingeniería en Spotcap y previamente consultor jefe en Microsoft, las principales dificultades para las pymes son: La falta de personal cualificado,“conseguir los empleados adecuados para tratar con Big Data no es una tarea fácil, ni por disponibilidad ni por salario”; La falta de infraestructuras, “predecir la escala de los datos, las capacidades requeridas y además tener tal infraestructura concentrada en una oficina es una tarea bastante exhaustiva y requiere un presupuesto amplio”, y por último, la falta de capacidad para interpretar los datos. Tathagata nos cuenta su experiencia: “Formé parte de un consorcio donde ayudábamos a startups a encontrar los problemas y soluciones relacionadas con el Big Data. Algunos de ellos estaban tan absortos en filtrar la información en sí, que simplemente les faltaba la visión a la hora de darle un uso real a esa información recopilada”.</p><p> </p><p>El experto señala que la clave para construir cualquier proyecto a través del Big Data es la escalabilidad y el rendimiento, pero es consciente de que gestionar todo desde la propia empresa puede sobrepasar los recursos disponibles, especialmente cuando se trata de empresas de menor tamaño. Sin embargo, “existe un buen rango de proveedores de servicios <em>cloud</em> que proporcionan enormes estructuras por precios muy competitivos, comparados a lo que supondría un proyecto in-house. Muchos de estos proveedores también han personalizado soluciones para el almacenamiento y análisis del Big Data como AWS Cloud, Google Cloud o Microsoft Azure”.</p><p> </p><p>De cara al futuro, el ingeniero se muestra optimista, “el Big Data reportará grandes beneficios en los próximos años”, y los principales sectores que se verán favorecidos serán principalmente: La industria financiera, “que ya ha tomado una gran ventaja”. Empresas <em>fintech</em> como <a href="https://www.spotcap.es/">Spotcap</a>, plataforma de créditos online en España, utilizan el Big Data para analizar los datos de sus clientes en tiempo real y realizar así predicciones de futuro con el objetivo de ofrecer un préstamo acorde al perfil de riesgo de cada cliente. Otros sectores que se verán beneficiados son el <em>Native Targeting</em> -el cual se nutre de los datos de los usuarios en la web y permite desarrollar estrategias de marketing mucho más precisas- y por último la industria sanitaria. De este último sector destaca la importancia que el proceso de datos puede llegar a suponer, “se abre una puerta a innumerables nuevos procesos a la hora de detección de enfermedades, diagnósticos o tratamientos“.</p><p> </p><p>Como predicción, Tathagata apuesta en la parte técnica, por la evolución de los <em>Data Lakes</em> que permitirán al usuario final hacer uso de la información recogida en tiempo real, ya sean diseños, consultas, vistas, informes, etc. “Esta práctica ya está funcionando en algunas organizaciones punteras y promete agilizar y optimizar los procesos”. Para el Big Data en sí, el entrevistado comparte su entusiasmo y prevé que en pocos años “la gestión de estos sistemas no será ya una ventaja competitiva, sino una necesidad para mantenerse en activo”.</p><p><a href="http://noticiasdelaciencia.com/not/14344/la-carrera-por-el-big-data/" target="_blank">Tomado de NCYT</a></p><p> </p></div>2015-05-27T16:33:39+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/34Ciencia: Descubren la galaxia más luminosa del universo2015-05-26T16:21:27+00:00Gestión Ingenio y Sociedad<p>Se ha descubierto una galaxia remota que brilla con la luz de más de 300 billones (millones de millones) de soles. El hallazgo ha sido posible gracias a los datos proporcionados por el satélite astronómico WISE de la NASA. Se trata de la más luminosa encontrada hasta la fecha y pertenece a una nueva clase de objetos cósmicos hallados recientemente por la WISE, las llamadas galaxias infrarrojas extremadamente luminosas, o ELIRGs, por sus siglas en inglés.</p><p> <img src="/public/site/images/mikhail/Galaxia_que_más_brilla1.JPG" alt="" /></p><p>A juzgar por las características analizadas por el equipo de Chao-Wei Tsai, del Laboratorio de Propulsión a Chorro (JPL) de la NASA, en Pasadena, California, Estados Unidos, la brillante galaxia, conocida como WISE J224607.57-052635.0, podría albergar un agujero negro gigante, el cual estaría absorbiendo cantidades colosales de gas. Los agujeros negros supermasivos atraen gas y materia de tal modo que crean a su alrededor un remolino de materia, con forma de disco, que se calienta hasta temperaturas muy elevadas, del orden de millones de grados centígrados. Esta materia tan caliente lanza al exterior radiación de alta energía, típicamente luz visible, rayos ultravioleta y rayos X. La luz es bloqueada por el manto de polvo que envuelve al agujero y a su disco. Ello hace que el polvo se caliente, con el resultado de que este irradia luz infrarroja.</p><p>Los agujeros negros de gran masa son habituales en los núcleos de las galaxias, pero encontrar uno así de grande tan “atrás en el tiempo” en el cosmos es raro. Debido a que, por estar a 12.500 millones de años-luz de distancia de la Tierra, la luz de la galaxia que alberga el agujero negro ha viajado durante 12.500 millones de años desde que fue emitida hasta que ha llegado a nosotros, los astrónomos están viendo el objeto tal y como era en esa época tan lejana del pasado. El agujero negro ya poseía miles de millones de veces la masa de nuestro Sol cuando nuestro universo tenía solo una décima parte de su edad actual de 13.800 millones de años.</p>2015-05-26T16:21:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/33Ciencia: La Universidad de Aveiro identifica secuencias de ADN específicas del virus del Ébola2015-05-26T16:13:27+00:00Gestión Ingenio y Sociedad<p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span>Especialistas en bioinformática y biología computacional del Instituto de Ingeniería Electrónica e Informática de la Universidad de Aveiro (IEETA por sus siglas en portugués) han logrado identificar secuencias de ADN específicas del virus del Ébola que permiten diferenciar las distintas especies de este virus y distinguir el brote iniciado en África a principios de 2014 de otros episodios de la enfermedad. Este trabajo, publicado recientemente en la revista científica Bioinformatics, puede tener futuras aplicaciones en el diagnóstico y tratamiento del ébola.</span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span> </span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span><img src="/public/site/images/mikhail/Secuencia_del_virus_ebola.JPG" alt="" /></span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span>Los científicos han seleccionado específicamente tres secuencias cortas del ADN que están presentes en el genoma del virus del Ébola pero no en el genoma humano. De esta forma, potencialmente, estas regiones del ADN “pueden servir para identificar el virus en muestras de origen humano o para el desarrollo de tratamientos más seguros y eficaces”, explica a DiCYT Raquel Silva, una de los responsables de la investigación.</span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span> </span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span>“Las secuencias que identificamos permiten distinguir entre especies y brotes del virus”, por eso, “nuestros resultados pueden ser utilizados en el diagnóstico”. Además, pueden tener mucha utilidad como nuevas dianas terapéuticas porque estas regiones del genoma son “claves para la replicación del virus”, señala la investigadora. En cualquier caso, es necesario corroborar estos resultados bioinformáticos con nuevos estudios en los laboratorios.</span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span> </span></p><p style="padding: 0px; margin: 0px; color: #585858; font-family: Arial, Helvetica, Tahoma, Verdana, sans-serif; font-size: 12.6000003814697px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 17.6400012969971px; orphans: auto; text-align: left; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff;"><span>El trabajo se desarrolló utilizando métodos computacionales que permiten describir un genoma utilizando la información de otro. En concreto, “usamos las secuencias de los genomas de los virus del Ébola que fueron depositados en bases de datos públicas”, comenta la investigadora, en concreto en el NCBI (siglas del National Center for Biotechnology Information o Centro Nacional para la Información Biotecnológica de Estados Unidos).</span></p><p style="padding: 0px; margin: 0px;"><span>“Esto demuestra la importancia de que la información esté disponible y del intercambio de datos entre la comunidad científica”, comenta la investigadora del IEETA, “sin el acceso a las secuencias de los genomas no habríamos podido llevar a cabo este trabajo”. Por eso, la Universidad de Aveiro también pone a disposición de todos los científicos el software que ha desarrollado para esta investigación, denominado EAGLE, y que se puede descargar en<a style="text-decoration: none; color: #000000;" href="http://bioinformatics.ua.pt/software/eagle/">http://bioinformatics.ua.pt/software/eagle/</a>.</span></p><p style="padding: 0px; margin: 0px;"><span> </span></p><p style="padding: 0px; margin: 0px;"><span>El próximo paso dentro de esta línea de investigación debe ser la validación de las secuencias de ADN identificadas como vía para el diagnóstico o el tratamiento de la enfermedad, pero para ello es necesaria la financiación, así que este equipo está buscando nuevos socios para conseguirlo. Otra opción es aplicar el mismo método que ha permitido este avance a otros patógenos de interés biomédico.</span></p><p style="padding: 0px; margin: 0px;"><span> </span></p><p style="padding: 0px; margin: 0px;"><span>“Creo que aún sabemos muy poco del virus del Ébola”, comenta Raquel Silva, que compara la escasa investigación en este campo con la de otros virus como el VIH, que ha centrado el interés de la comunidad científica y la inversión de las compañías farmacéuticas en los últimos años. En general, los brotes de ébola son reducidos, pero el actual “ha registrado más de 25.000 casos y 10.000 muertes que lamentar”, lo cual supone “una llamada de atención sobre la necesidad de aumentar la investigación” acerca de un problema que aún no tiene cura. Sin embargo, la desgracia se ha transformado en “una oportunidad sin precedentes para probar vacunas que tardarían años en llegar siguiendo los procedimientos normales”. (Fuente: José Pichel Andrés/DICYT).</span></p>2015-05-26T16:13:27+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/32Ciencia: La forma geométrica mejor tolerada por el sistema inmunitario humano2015-05-25T16:27:19+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/sistema_inmunitario1.GIF" alt="" width="548" height="365" /></p><p>Los dispositivos biomédicos que pueden ser implantados en el cuerpo para suministrar fármacos, modificar tejidos o detectar situaciones, pueden ayudar al tratamiento de muchas enfermedades. Sin embargo, tales dispositivos son a menudo susceptibles al ataque del sistema inmunitario, que puede incapacitarlos.</p><p>Un equipo de investigadores de varias instituciones ha ideado una forma de reducir el rechazo del sistema inmunitario contra este sistema. El equipo de Daniel Anderson, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha comprobado que la geometría de los dispositivos implantables tiene un efecto notable en cómo de bien los tolerará el cuerpo.</p><p>Aunque los investigadores esperaban que los dispositivos más pequeños fueran mejores para evitar al sistema inmunitario, descubrieron que en realidad otros más grandes y esféricos eran capaces de mantener mejor su función y evitar la acumulación de tejido cicatricial.</p><p>Para Anderson y sus colegas fue una sorpresa lo mucho que puede influir la forma geométrica de un implante en la reacción del sistema inmunitario.</p><p><span style="color: #ff0000;">Los polímeros de azúcar que dan forma a las esferas en esta imagen están diseñados para empaquetar y proteger a células modificadas especialmente que trabajan para producir fármacos y luchar contra enfermedades. Mientras se hallan en el lugar, deben permanecer sin ser detectadas por el sistema de defensa natural del cuerpo. Sin embargo, las marcas rojizas en las superficies de las esferas indican que las células inmunitarias (azules/verdes) ya han descubierto a estos invasores y han empezado a bloquearlos para mantenerlos alejados del resto del cuerpo. (Foto: Andrew Bader, Omid Veiseh, Arturo Vegas, Anderson/Langer Laboratory, Koch Institute at MIT)</span></p><p> </p><p>Los investigadores esperan valerse de este hallazgo para perfeccionar un dispositivo implantable que podría reproducir la función del páncreas, ofreciendo de forma potencial un tratamiento a largo plazo para los pacientes de diabetes. Lo descubierto en la nueva investigación puede que sea aplicable también a dispositivos utilizados para tratar muchas otras enfermedades.</p><p> </p>2015-05-25T16:27:19+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/31Medio Ambiente: Un reciente estudio revela el interés de los europeos por la luz natural y el aire fresco para conseguir una vida sana2015-05-22T16:30:23+00:00Gestión Ingenio y Sociedad<p>Ventilar y dejar que entre aire fresco en el hogar es más importante para la salud que evitar el tabaco o hacer ejercicio. Esta es la sorprendente conclusión del Healthy Home Barometer 2015 (HBB), un reciente estudio realizado por el instituto de investigación Wilke en el que han participado 12.000 personas de doce países diferentes para analizar el comportamiento de la población europea con respecto a la salud en el hogar. Es el estudio más amplio que se ha realizado hasta el momento y revela que el hogar ahora se percibe como una parte importante para alcanzar un estilo de vida saludable.</p><p><img style="display: block; margin-left: auto; margin-right: auto;" src="/public/site/images/mikhail/casa_ecológica1.JPG" alt="" width="251" height="319" /></p><p>En el HBB se ha demostrado que un hogar sano, o más bien una casa que sea compatible con una vida saludable, es uno de los nueve aspectos de la vida cotidiana que pueden afectar de forma más notable a nuestra salud. Los factores considerados más importantes para mantener la salud son dormir bien por la noche, la ventilación para garantizar el aire fresco y la abundancia de luz natural. Evitar el tabaco y hacer ejercicio regularmente se colocan después, lo cual es sorprendente, ya que estos son temas muy arraigados en la opinión pública.</p><p>Pero, a pesar del hecho de que un hogar sano es de gran importancia para la mayoría de los europeos, muchos todavía viven en casas que dañan directamente la salud y el bienestar, sin ser conscientes de ello.</p><p>El Grupo VELUX centra su atención en la búsqueda de un modo de asegurar que más de 80 millones de europeos, que actualmente viven en edificios insalubres y húmedos, puedan lograr un clima interior saludable con abundante luz natural y aire fresco.</p><p>El HBB 2015 marca un nuevo hito en el trabajo de investigación del Grupo VELUX en el campo de los edificios sostenibles y saludables, una vez concluido el programa Model Home 2020, que se inició en 2009 con la construcción de seis casas-modelo, en cinco países europeos, siguiendo los principios del Active House que integran la comodidad, la energía y el medio ambiente. Durante el experimento, familias reales habitaron en estos prototipos con el fin de adquirir conocimientos sobre la forma de construir edificios energéticamente eficientes y que, al mismo tiempo, proporcionaran una mayor calidad de vida y un clima interior saludable para sus ocupantes.</p><p>"Tener acceso a la luz natural durante el día y dormir en completa oscuridad por la noche son aspectos muy importantes para nuestra salud y bienestar. Así como el aire fresco. Todos estos factores son parte de un estilo de vida saludable, al igual que una dieta sana e ir al gimnasio. Por eso pensamos que si nuestro objetivo es que los europeos vivan en hogares saludables, tenemos que abordar estas cuestiones. Todavía hay trabajo por hacer cuando se trata de compartir conocimientos sobre la vida sana ", dice Michael K. Rasmussen, Director de Marketing del Grupo VELUX, que encargó el estudio.</p><p>Además del proyecto Model Home 2020, VELUX también ha iniciado varios experimentos y estudios sobre la vida sostenible en edificios con un alto nivel de eficiencia. El trabajo continúa con el siguiente edificio demostración que ya se ha puesto en marcha en Bélgica.</p><p>Un estudio de la Fraunhofer Institut für Bauphysik realizado en 2014 revela que 80 millones de europeos viven en edificios insalubres y húmedos, con riesgo de desarrollar enfermedades respiratorias como el asma, y que las personas pasan el 90% de su tiempo en espacios interiores. El informe también llega a la conclusión de que la capacidad de aprendizaje de los niños mejora en un 15%, en un clima interior adecuado. Al mismo tiempo, el 90% del parque de edificios europeos ya está construido y muchos de ellos necesitan una renovación sostenible.</p><p>Los estudios del Grupo VELUX permiten concluir que los europeos no sólo son conscientes de la importancia del aire fresco y la luz del día para su salud y bienestar, sino que están más que dispuestos a invertir en mejoras para el hogar. Es hora de allanar el camino para la renovación sostenible en Europa.</p><p>El Healthy Home Barometer 2015 es un estudio realizado por el instituto de investigación Wilke con la colaboración del Grupo VELUX. Se basa en un análisis que presenta las principales conclusiones de un estudio paneuropeo dirigido a investigar las actitudes y el comportamiento de los ciudadanos europeos con respecto al confort del hogar, el consumo de energía y el impacto ambiental. Una vez al año se medirán los cambios que se produzcan en estos indicadores para su publicación en el Healthy Home Barometer anual.</p><p>En octubre de 2014 se realizó una encuesta a 12.000 europeos de Austria, Bélgica, la República Checa, Dinamarca, Francia, Alemania, Hungría, Italia, Países Bajos, Noruega, Polonia y el Reino Unido.</p><p>Los doce países encuestados representan a más de 375 millones de europeos, que suponen más del 70% de la población total europea. Además, los países seleccionados configuran una amplia variedad de tamaños y ubicaciones geográficas.</p><p>El cuestionario y el análisis ha sido realizado por consultores independientes, Operate A / S y Wilke. El Prof. Dr. Dr. h. c. Bernd Wegener, de la Universidad Humboldt de Berlín, proporciona el asesoramiento académico del Healthy Home Barometer. (Fuente: Buena Imagen)</p>2015-05-22T16:30:23+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/30Tecnología: Dispositivos para identificar patógenos en alimentos2015-05-22T00:00:00+00:00Gestión Ingenio y Sociedad<p>Investigadores del Instituto Politécnico Nacional (IPN), en México, desarrollan una tecnología capaz de identificar microorganismos patógenos en alimentos y bebidas. Esta técnica podría funcionar en la industria restaurantera como biosensor para detectar en qué condiciones se encuentran los alimentos antes de consumirlos a fin de prevenir posibles enfermedades gastrointestinales.</p><p><img style="display: block; margin-left: auto; margin-right: auto;" src="/public/site/images/mikhail/dispositivos.JPG" alt="" width="280" height="336" /></p><p>El doctor Abdu Orduña Díaz, investigador del IPN, lleva a cabo este trabajo sobre la microfabricación de biosensores, que son dispositivos con aplicación en biología. Con ello podrán desarrollarse sistemas que identifiquen microorganismos patógenos presentes en alimentos o bebidas, así como también el análisis de la presencia de pesticidas en el sector agrícola.</p><p>El biosensor es una herramienta o sistema analítico compuesto por un material biológico que puede ser una enzima, anticuerpo, ADN, célula entera, orgánulo o combinaciones de los mismos. Una vez que ésta entra en contacto directo con un sistema transductor (dispositivo) convierta la actividad bioquímica que va analizarse en una señal (indicación) cuantificable.</p><p>Dentro de la clasificación de biosensores, se encuentran los ópticos y electroquímicos. El especialista del Centro de investigación en Biotecnología Aplicada (CIBA-Tlaxcala) del IPN explica que en la elaboración de esta tecnología se emplean técnicas espectroscópicas, como por ejemplo la infrarroja que es una técnica versátil, no destructiva, fácil de utilizar y se fundamenta en la interacción de la radiación con la materia. Es una radiación controlada que no afecta a la persona que la manipula.</p><p>“Al interaccionar la radiación con la materia ésta va a generar reacciones. Las analizamos y nos dará información sobre la muestra que investigamos. Este tipo de técnicas pueden aplicarse en el desarrollo de biosensores ópticos”, indica el especialista politécnico.</p><p>Una de sus aplicaciones estaría enfocada a la detección de microorganismos patógenos en alimentos. Esta tecnología podría funcionar en la industria restaurantera como biosensor capaz de detectar en qué condiciones se encuentran los alimentos antes de consumirlos a fin de prevenir posibles enfermedades gastrointestinales.</p><p>“La herramienta nos podría decir si el producto está libre de microorganismos, pudiendo ser el caso de bacterias como E. Coli o salmonela”.</p><p>La investigación se encuentra en etapa intermedia que consiste en el análisis de los materiales transductores (dispositivos) y en un futuro cercano podría convertirse en “realidad”, una vez que se tengan la capacidad de “construir” miles de BioMEMS -en forma de chips- para que comercialmente sea viable y el consumidor pueda adquirirlos a bajo costo.</p><p>De acuerdo con el doctor Orduña Díaz, la investigación en el tema de biosensores que se realiza en el CIBA-Tlaxcala es de las pocas en su especialidad que se realizan en el país.</p><p>Esta tecnología también podría tener aplicación en la detección de toxinas o pesticidas, porque es una problemática que se tiene en el campo mexicano ante el uso sin control de dichas sustancias.</p><p>En la actualidad se realizan trabajo de investigación científica e colaboración con el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), cuyos especialistas aportan experiencia y conocimientos para la fabricación de sistemas microelectromecánicos (MEMS), análisis, caracterización de materiales semiconductores y amorfos, así como en el diseño de circuitos integrados entre otros.</p><p>“Esta colaboración nos ha permitido buscar nuevas metodologías para el desarrollo de biosensores electroquímicos y ópticos, específicamente aplicados en el área de alimentos. Esta tecnología puede tener varias aplicaciones, como puede ser en control de calidad de productos finales, por ejemplo, en alimentos perecederos que se importan serviría para verificar en qué condiciones se encuentran”. (Fuente: Agencia ID/DICYT)</p>2015-05-22T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/29Tecnología: Zepelines impulsados por energía solar2015-05-22T16:14:59+00:00Gestión Ingenio y Sociedad<p>Se ha completado una investigación de tres años sobre la viabilidad de resucitar el transporte aéreo a gran escala mediante zepelines, en este caso beneficiados por las tecnologías modernas, y con sus motores alimentados por energía solar. Ello constituiría una alternativa no contaminante para una parte importante de los desplazamientos aéreos.</p><p><img src="/public/site/images/mikhail/zeppelines1.JPG" alt="" /></p><p> </p><p>Los globos dirigibles, también conocidos como zepelines por la labor del pionero alemán Ferdinand von Zeppelin, tuvieron una fugaz pero espectacular época de gloria a principios del siglo XX. Estas aeronaves, cuyas hélices accionadas por motores las permitían maniobrar a diferencia de los globos simples, llegaron a ser de tamaños enormes (mucho mayores que un avión de pasajeros Boeing 747), lograron importantes récords aeronáuticos, rivalizaron con los también nacientes aviones, y durante un tiempo se creyó que representaban el futuro del transporte aéreo. La peligrosidad de los que usaban hidrógeno, y otras desventajas, los acabaron arrinconando al papel de pequeños vehículos marginales de uso minoritario.</p><p> </p><p>Ha habido varios intentos de crear una nueva generación de grandes dirigibles, que aprovechen el potencial de este tipo de vehículos y se sirvan de la tecnología moderna para solventar las desventajas sufridas por muchos zepelines de principios del siglo XX.</p><p> </p><p>Un equipo internacional de investigación, incluyendo a expertos de la Universidad de Lincoln en el Reino Unido y la Universidad de Módena y Reggio Emilia en Italia, cree que los dirigibles pueden ser la solución “verde” al futuro de la aeronáutica. El proyecto MAAT (por las siglas del término inglés Multibody Advanced Airship for Transport) tiene como meta convertir a los zepelines en una alternativa futura de transporte aéreo que sea barata, respetuosa con el medio ambiente, energéticamente eficiente, y también segura.</p><p> </p><p>La idea sería reintroducir los dirigibles, que estarían impulsados por energía solar, a fin de disponer de líneas aéreas de distancia media con todas las ventajas citadas, para transporte a gran escala de mercancía, e incluso de pasajeros. El inconveniente principal, la menor velocidad, se podría compensar con las demás ventajas.</p><p> </p><p>El proyecto MAAT, en el que participan ocho naciones y que está financiado por la Unión Europea, contempla el diseño de un zepelín de grandes dimensiones que pueda viajar a través de extensos territorios siguiendo una ruta definida. Dirigibles más pequeños llevando bienes y quizá personas se acoplarían entonces al gran zepelín, que así no necesitaría aterrizar, pudiendo seguir su ruta con mayor facilidad y eficiencia.</p><div class="HIJOS_CONT"><div class="HIJOS"><a href="http://noticiasdelaciencia.com/sec/tecnologia/computacion/"> Computación </a> <a class="SUB_ACTIVO" href="http://noticiasdelaciencia.com/sec/tecnologia/ingenieria/"> Ingeniería </a> <a href="http://noticiasdelaciencia.com/sec/tecnologia/nanotecnologia/"> Nanotecnología </a></div></div><div class="menuprincipalguia"> </div><div class="PORTADA_top"> </div><div class="BANNERS BANNERS-TOP"> </div><div class="fecha">Viernes, 22 mayo 2015</div><div class="antetitulo">Aeronáutica</div><h1>Zepelines impulsados por energía solar</h1><div class="ACCIONES_ICONOS"><div class="ICONOS_1"> </div><div class="PUNTUACION"><span class="info">Enviar por email</span><div class="fb-like fb_iframe_widget" data-href="http://noticiasdelaciencia.com/not/14267/zepelines-impulsados-por-energia-solar/" data-layout="button_count" data-width="150" data-send="false"> </div></div><div class="noticia_audioplayers"> </div></div><div class="ENTRADA html"><ins class="adsbygoogle" style="display: inline-block; width: 300px; height: 250px;" data-adsbygoogle-status="done" data-ad-client="ca-pub-5663005764905852" data-ad-slot="2756353996"><ins id="aswift_1_expand" style="display: inline-table; border: none; height: 250px; margin: 0; padding: 0; position: relative; visibility: visible; width: 300px; background-color: transparent;"><ins id="aswift_1_anchor" style="display: block; border: none; height: 250px; margin: 0; padding: 0; position: relative; visibility: visible; width: 300px; background-color: transparent;"></ins></ins></ins></div><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "> </div><p>Se ha completado una investigación de tres años sobre la viabilidad de resucitar el transporte aéreo a gran escala mediante zepelines, en este caso beneficiados por las tecnologías modernas, y con sus motores alimentados por energía solar. Ello constituiría una alternativa no contaminante para una parte importante de los desplazamientos aéreos.</p><p> </p><p>Los globos dirigibles, también conocidos como zepelines por la labor del pionero alemán Ferdinand von Zeppelin, tuvieron una fugaz pero espectacular época de gloria a principios del siglo XX. Estas aeronaves, cuyas hélices accionadas por motores las permitían maniobrar a diferencia de los globos simples, llegaron a ser de tamaños enormes (mucho mayores que un avión de pasajeros Boeing 747), lograron importantes récords aeronáuticos, rivalizaron con los también nacientes aviones, y durante un tiempo se creyó que representaban el futuro del transporte aéreo. La peligrosidad de los que usaban hidrógeno, y otras desventajas, los acabaron arrinconando al papel de pequeños vehículos marginales de uso minoritario.</p><p> </p><p>Ha habido varios intentos de crear una nueva generación de grandes dirigibles, que aprovechen el potencial de este tipo de vehículos y se sirvan de la tecnología moderna para solventar las desventajas sufridas por muchos zepelines de principios del siglo XX.</p><p> </p><p>Un equipo internacional de investigación, incluyendo a expertos de la Universidad de Lincoln en el Reino Unido y la Universidad de Módena y Reggio Emilia en Italia, cree que los dirigibles pueden ser la solución “verde” al futuro de la aeronáutica. El proyecto MAAT (por las siglas del término inglés Multibody Advanced Airship for Transport) tiene como meta convertir a los zepelines en una alternativa futura de transporte aéreo que sea barata, respetuosa con el medio ambiente, energéticamente eficiente, y también segura.</p><p> </p><p>La idea sería reintroducir los dirigibles, que estarían impulsados por energía solar, a fin de disponer de líneas aéreas de distancia media con todas las ventajas citadas, para transporte a gran escala de mercancía, e incluso de pasajeros. El inconveniente principal, la menor velocidad, se podría compensar con las demás ventajas.</p><p> </p><p>El proyecto MAAT, en el que participan ocho naciones y que está financiado por la Unión Europea, contempla el diseño de un zepelín de grandes dimensiones que pueda viajar a través de extensos territorios siguiendo una ruta definida. Dirigibles más pequeños llevando bienes y quizá personas se acoplarían entonces al gran zepelín, que así no necesitaría aterrizar, pudiendo seguir su ruta con mayor facilidad y eficiencia.</p><p> </p><div class="RichTextAlignCenter" style="position: relative; width: 670px; height: 186px;"><img id="IMAGEN_INSERTADA_27876" title="Diseño de un dirigible MAAT. (Imagen: MAAT / University of Lincoln)" src="http://noticiasdelaciencia.com/upload/img/periodico/img_27876.jpg" alt="[Img #27876]" width="" height="" /><div class="pieDeFoto"><cite>Diseño de un dirigible MAAT. (Imagen: MAAT / University of Lincoln)</cite></div></div><p> </p><p>La fuente de energía principal para el MAAT procedería de la luz solar capturada mediante paneles fotovoltaicos montados en la superficie superior de la nave. Estos paneles proporcionarían suficiente energía eléctrica durante el día para alimentar los sistemas del vehículo aéreo, incluyendo propulsión, control y el mantenimiento de las adecuadas condiciones ambientales a bordo. Produciría asimismo suficiente energía sobrante para almacenarla de día y consumirla de noche, permitiendo así una actividad continua del MAAT.</p><p> </p><p>En el caso de la Universidad de Lincoln, el grupo de Tim Smith se ha ocupado de cómo hacer un uso lo más eficiente posible de la energía generada por las células fotovoltaicas situadas sobre las naves, y su posterior utilización en los sistemas de energía eléctrica y almacenamiento energético, con arreglo a los requerimientos de potencia propulsiva.</p><p> </p><p>Una línea aérea típica de esta clase se podría basar en una flota de dirigibles de dos tipos principales. El de mayor tamaño volaría a gran altitud (alrededor de 15 kilómetros), a velocidades de hasta 200 kilómetros por hora y durante períodos prolongados, en rutas por toda Europa, a lo largo de las cuales existirían puntos de carga y descarga donde dirigibles más pequeños, a modo de lanzaderas, cuyos trayectos serían esencialmente verticales, despegarían y aterrizarían de estaciones en tierra, acoplándose y desacoplándose en el aire a los zepelines de gran tamaño para intercambiar cargamento y eventualmente pasajeros.</p><p> </p><p>Se prevé que los desplazamientos de cargamento por vía aérea aumenten en más de un 340 por ciento a lo largo de los próximos 20 años. Durante el mismo período la congestión en muchos aeropuertos, incluyendo buena parte de los británicos, acabará expulsando de ellos a las operaciones de transporte de bienes, debido a razones económicas y medioambientales. Por tanto, si hay que satisfacer las demandas del mercado en cuanto al transporte aéreo de mercancías, será necesario hacer mayores inversiones en nuevas infraestructuras de aeropuertos (algo que inevitablemente resulta muy caro) o se tendrán que considerar formas de transporte alternativas.</p><p> </p><p>El MAAT sistema ofrecería costes de transporte más bajos que cualquier otro sistema actual, ya que no requiere cargar combustible y sus despegues y aterrizajes verticales reducirían el tiempo de entrega en trayectos cortos y liberarían espacio en las pistas de los aeropuertos de todo el mundo. Además, los aterrizajes y despegues, por ser silenciosos, disminuirían el impacto medioambiental del viaje aéreo, permitiendo operaciones durante las 24 horas del día en ciudades muy activas.</p><p> </p><p>Si bien el MAAT (al igual que otros conceptos de dirigibles) no está pensado como un sustituto de los aviones convencionales o de otras formas de transporte, se espera que proporcione una alternativa muy necesaria que no requiera las grandes inversiones en infraestructuras típicas de los nuevos aeropuertos, líneas ferroviarias y carreteras.</p><p> Tomado de <a href="http://noticiasdelaciencia.com/not/14267/zepelines-impulsados-por-energia-solar/" target="_blank">NCYT</a></p>2015-05-22T16:14:59+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/28Ciencia: Un estudio de la Universidad de Navarra sobre longitud de los telómeros, premiado en el Congreso Europeo de Obesidad2015-05-21T20:11:56+00:00Gestión Ingenio y Sociedad<p class="entradilla">El trabajo establece que la longitud de los telómeros, además de ser un indicador para la prevención y diagnóstico de enfermedades como el cáncer o la diabetes, también es un biomarcador potencial para prevenir el sobrepeso y la obesidad.</p><p><img src="/public/site/images/mikhail/telomeros1.JPG" alt="" /></p><p>La longitud de los telómeros, además de ser un indicador clave para la prevención y diagnóstico de enfermedades crónicas como el cáncer o la diabetes, también es un biomarcador potencial para prevenir el sobrepeso y la obesidad. Ésta es la principal conclusión de una investigación de la Universidad de Navarra distinguida por la Asociación Europea para el Estudio de la Obesidad (European Association for the Study of Obesity, EASO), como la mejor tesis de Europa en el XXII Congreso Europeo de Obesidad, celebrado en Praga.<br /> <br /> El estudio, titulado 'Asociación entre la longitud de los telómeros y factores dietéticos, genéticos y de adiposidad en población española de diferentes grupos de edad', evalúa cómo la longitud de los telómeros (extremos de los cromosomas de ADN, considerados biomarcadores del proceso de envejecimiento) varía en función de la dieta y los rasgos genéticos de la persona.<br /> <br /> Así, su progresivo acortamiento puede ralentizarse si se sigue una dieta mediterránea y se cuenta con una mutación en el gen PPARy2 (relacionado con la longevidad).<br /> <br /> Esta investigación se enmarca dentro del estudio PREDIMED-Navarra (prevención con dieta mediterránea) y los proyectos GENOI (grupo de estudio navarro de la obesidad infantil) y EVASYON (un programa terapéutico para adolescentes y niños con sobrepeso y obesidad basado en una educación integral nutricional combinada con actividad física). Parte de los resultados del trabajo de Sonia García Calzón se han publicado <em>Circulation Cardiovascular Genetics, International Journal of Obesity </em>y <em>Plos One.</em></p>2015-05-21T20:11:56+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/27Tecnología: Utilizan impresoras 3D para producir tejido humano2015-05-21T15:30:37+00:00Gestión Ingenio y Sociedad<p>L’Oréal USA, la filial estadounidense del grupo cosmético, ha empezado a colaborar con la firma de bioingeniería Organovo con el objetivo de imprimir piel humana en 3D. La multinacional ya cultiva miles de muestras de piel en sus laboratorios de Lyon, Francia, procedentes de donaciones de la industria de la cirugía estética, pero necesita incrementar la producción para poder usarla en sus test de producto y en investigación.<br /> <br /> Organovo también coopera con el grupo farmacéutico Merk para imprimir tejido de hígado y de riñón. La nueva alianza “marca la primera aplicación de la tecnología innovadora de esta start-up dentro de la industria de la belleza”, señala L’Oréal en un comunicado.<br /> <br /> L'Oréal utilizará la plataforma Novogen Bioprinting de Organovo para imprimir tejido de piel. El proceso incluye identificar elementos arquitectónicos y de composición claves del tejido diana, y se vale de ‘biotintas’ y bloques de construcción multicelular. Después, el tejido se construye mediante capas verticales.<br /> <br /> <strong>Lesiones faciales y quemaduras</strong><br /> <br /> Este tipo de tecnología está siendo investigada por otros grupos como método para acelerar el proceso de curación de lesiones faciales y quemaduras. Según explica la multinacional, el acuerdo entre las dos compañías se ha gestado gracias a la labor de L’Oréal Beauty Incubator, dedicada a buscar tecnologías disprutivas que puedan aplicarse al sector de la belleza y el cuidado personal <strong> </strong></p><p>En la ‘granja’ de piel de L’Oréal en Lyon, los investigadores utilizan una técnica de cultivo que implica romper el tejido de la piel en células, alimentar esas células con una dieta especial, y hacerlas crecer en un entorno que imita el cuerpo humano.<br /> <br /> Las células originales provienen de tejidos donados por pacientes de cirugía plástica. De las más de 100.000 muestras de piel (de nueve variedades de todas las edades y razas) que la empresa produce anualmente, la mitad se utiliza para ensayar cosméticos de L'Oréal y la otra mitad se vende a las compañías farmacéuticas y a competidores, según informa Bloomberg.<br /> <br /> Una muestra mide un centímetro cuadrado de ancho y hasta un milímetro de espesor, y tarda aproximadamente una semana en formarse. L'Oreal quiere que la tecnología de Organovo añada precisión y velocidad al proceso. Anualmente, los laboratorios de la firma ya producen alrededor de cinco metros cuadrados de piel.</p><h2 class="section"><a href="http://www.jano.es/noticia-utilizan-impresoras-3d-producir-tejido-24317">Webs Relaccionadas</a></h2><a href="http://www.youtube.com/watch?v=s3CiJ26YS_U" target="_blank">The Bioprinting Process (video by Organovo Inc.)</a>2015-05-21T15:30:37+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/26Ciencia: ALMA revela la cuna de densos núcleos donde nacerán estrellas masivas2015-05-21T14:29:10+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/vista_de_la_nube_molecular1.JPG" alt="" width="386" height="309" /></p><p>Un equipo de investigación taiwanés usó el Atacama Large Millimeter/submillimeter Array (ALMA), en Chile, para observar una gran aglomeración de gas molecular llamada G33.92+0.11, donde se está formando un cúmulo de estrellas masivas. Gracias a su capacidad para producir imágenes de altísima calidad, ALMA permitió observar con un nivel de detalle sin precedentes la delicada estructura del gas molecular presente en el centro de esta zona, donde parece haber dos brazos de gas molecular extraordinariamente grandes describiendo espirales alrededor de dos núcleos moleculares masivos. Estos resultados revelan que los grandes brazos moleculares funcionan como cunas para sus densos núcleos, donde nacen o nacerán estrellas masivas. Este es un paso fundamental para comprender cómo se distribuye la masa que forma los núcleos y estrellas masivos.</p><p> </p><p>El nacimiento de cúmulos estelares unidos por la gravedad, como por ejemplo los cúmulos jóvenes masivos y los cúmulos globulares, sigue siendo un misterio para la astrofísica. La formación de sistemas tan complejos requiere la conversión de grandes cantidades de gas en estrellas con pérdidas mínimas antes de que sus vientos comiencen a dispersar el gas, en un fenómeno conocido como retroalimentación estelar, que dista mucho de ser sencillo. Según los modelos actuales, para gatillar una retroalimentación estelar, el colapso de la nube molecular madre tiene que ser muy rápido.</p><p> </p><p>No obstante, observar el colapso de nubes moleculares gigantes constituye un verdadero desafío para los astrónomos, debido a que no tienen cómo medir distancias en su campo visual (los datos se proyectan en dos dimensiones) y porque es casi imposible medir velocidades de gas en direcciones perpendiculares. Ahora bien, el efecto amplificado de la rotación inicial (el impulso angular) de las nubes podría dar origen a la formación de aglomeraciones moleculares masivas sostenidas por las fuerzas centrífugas existentes en el centro de las nubes moleculares gigantes.</p><p> </p><p>Así, la identificación de estructuras giratorias mayores que los núcleos podría ser una prueba del resultado de este colapso general. Asimismo, como las aglomeraciones moleculares masivas son las regiones más densas de estas nubes moleculares gigantes que colapsan, es allí donde probablemente se forma la mayor cantidad de estrellas masivas. Lograr observar en detalle las características morfológicas y cinemáticas de estos sistemas es un paso fundamental para comprender cómo se distribuye la masa en los lugares de formación de cúmulos estelares de tal manera que se formen estrellas masivas y no masivas.</p><p>Un equipo de investigación encabezado por Hauyu Baobab Liu, del Instituto de Astronomía y Astrofísica Academia Sinica (Asiaa, en sus siglas en inglés), usó ALMA para observar la luminosa región de formación de cúmulos OB llamada G33.92+0.11, situada a una distancia cercana a los 23.000 años luz. Se trata de la etapa inicial de una asociación OB en plena formación que tiene una luminosidad equivalente a 250.000 veces la luminosidad del Sol. La mayor parte de su luz proviene de unas pocas estrellas masivas que contiene. El equipo usó imágenes de archivo Herschel de 350 micrómetros combinadas con otra imagen de 350 micrómetros obtenida por el Caltech Submillimeter Observatory (CSO) con una mayor resolución angular.</p><p> </p><p>"Las imágenes de archivo del telescopio espacial Herschel proporcionaron un mapa de alta definición de las emisiones térmicas de 350 micrómetros de las polvorientas estructuras de gas presentes alrededor de G33.92+0.11", señala Román-Zúñiga del Instituto de Astronomía de la Universidad Nacional Autónoma de México y coautor del estudio. "Nosotros completamos los pixeles faltantes usando datos del CSO. El mapa obtenido reveló dos brazos moleculares torcidos en direcciones opuestas, hacia el norte y el sur del cúmulo, que convergen en las aglomeraciones moleculares centrales, lo cual indica que quizá el gas es transportado hacia el cúmulo central a través de estos brazos por distancias de hasta 20 años luz", agrega.</p><p> </p><p>La resolución angular sin precedentes de ALMA y la alta fidelidad de sus imágenes permitió a los astrónomos revelar la presencia de dos núcleos moleculares masivos (100 a 300 masas solares) en el centro de G33.92+0.11 A conectados por varios brazos densos de gas molecular en espiral. Esta morfología recuerda imágenes obtenidas anteriormente por ALMA de los brazos de gas molecular que rodean a la protoestrella binaria de baja masa L1551 NE, aunque a una escala linear mayor en un factor de entre 100 y 1.000. Asimismo, los brazos de gas observados en G33.92+0.11 A están fragmentándose, lo cual se traduce en la formación de múltiples núcleos satelitales que orbitan los dos núcleos de mayor masa. Al comparar los rastros de gas molecular observados en forma simultánea, tales como CH3CN, 13CS, y DCN, se observa que las condiciones de excitación del gas en estos brazos y núcleos moleculares distan mucho de ser uniformes en todo el sistema. De hecho, los dos núcleos masivos en el centro ya albergan estrellas masivas y presentan luminosas emisiones de CH3CN. Los brazos moleculares con núcleos satelitales en el norte pueden ser relativamente fríos, según se desprende de la buena correlación entre la línea de DCN y la emisión continua de polvo de 1’3 milímetros. Por último, los brazos moleculares conectados desde el oeste con los núcleos moleculares masivos del centro pueden contener gas que aumentó su temperatura por colisión o estar sujetos a radiación estelar, produciendo emisiones de 13CS más intensas.</p><p> </p><p>El equipo sostiene que la región central de ~1 pc de G33.92+0.11 A es una aglomeración molecular masiva aplanada que actualmente produce material, alimentada por filamentos de gas exterior y sostenida en forma marginal por fuerzas centrífugas. En todas las escalas espaciales, las regiones de mayor densidad —aquellas que contienen una mayor cantidad de masa— se forman en el centro de los sistemas. Si bien es impedida por el impulso angular, la acreción podría ser facilitada por la fragmentación. Los autores también postulan que en los densos flujos de acreción, la formación de estructuras en forma de brazo en espiral puede ser crucial para el proceso. Así, la fragmentación subsiguiente de los densos brazos moleculares puede traducirse en la formación de estrellas masivas de segunda generación.</p><p> </p><p>"Las estructuras de gas similares a brazos en espiral deberían de ser comunes en muchos sistemas a distintas escalas, siempre y cuando no sean estables bajo el efecto de la gravedad y no tengan una rotación insignificante", afirma Galván-Madrid, coautor del estudio. "Las magníficas imágenes producidas por ALMA comienzan a demostrarlo", concluye. (Fuente: OBSERVATORIO ALMA/DICYT)</p><p>Tomado de <a href="http://noticiasdelaciencia.com/not/14252/alma-revela-la-cuna-de-densos-nucleos-donde-naceran-estrellas-masivas/" target="_blank">NCYT</a></p>2015-05-21T14:29:10+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/25Tecnología: Un paso más hacia la computación fotónica basada en el silicio2015-05-21T14:22:22+00:00Gestión Ingenio y Sociedad<p>Unos ingenieros han dado un importante paso hacia la computación fotónica basada en el silicio, una clase de computación millones de veces más rápida que la de los ordenadores convencionales actuales.</p><p><img src="/public/site/images/mikhail/computación_fotónica_de_silicio1.JPG" alt="" width="475" height="316" /></p><p>Rajesh Menon, Randy Polson, Bing Shen y Peng Wang, de la Universidad de Utah en Estados Unidos, han logrado un avance clave para la creación de ordenadores y dispositivos móviles capaces de velocidades millones de veces más altas que las de sus homólogos de hoy en día. Este avance es el desarrollo de un divisor ultracompacto de haz —el más pequeño conocido— para dividir las ondas de luz en dos canales separados de información. El dispositivo aproxima a los investigadores a la producción de chips fotónicos de silicio que computen y muevan datos con fotones en vez de con electrones.</p><p>La fotónica basada en el silicio podría incrementar notablemente la potencia y la velocidad de máquinas como las supercomputadoras, los centros de servidores de datos, y los ordenadores especializados que dirigen a los coches autónomos y a los drones con detección de riesgo de colisión. Algún día, la computación fotónica podría alcanzar los ordenadores domésticos y los dispositivos móviles, y mejorar las aplicaciones, desde los juegos al “streaming” de video.</p><p>La luz es la cosa más rápida que podemos emplear para transmitir información, y ya se usa, por ejemplo, en la fibra óptica de las conexiones a internet. Pero una vez la corriente de datos alcanza el hogar o la oficina de destino, los fotones de luz deben ser convertidos en electrones antes de que el rúter o el ordenador puedan manejar la información. Ese cuello de botella podría ser eliminado si la corriente de datos permaneciera como luz dentro de los procesadores informáticos. Así, la computación podría ser millones de veces más rápida.</p><p>Las ventajas potenciales de la computación fotónica van más allá de la velocidad de procesamiento. El diseño del equipo de Menon sería barato de producir porque utiliza técnicas de fabricación ya existentes para crear chips de silicio. Y dado que los chips fotónicos mueven fotones en vez de electrones, los dispositivos móviles como los smartphones o las tabletas construidos con esta tecnología consumirían menos energía, tendrían una batería con una vida útil más larga y generarían menos calor que los actuales aparatos.</p><p>Los primeros supercomputadores que usen fotónica basada en el silicio (ya en desarrollo en compañías como Intel e IBM), utilizarán procesadores híbridos que seguirán siendo parcialmente electrónicos. Menon cree que su divisor podría ser utilizado en esas computadoras en unos tres años. Los centros de datos que requieren conexiones más rápidas entre ordenadores podrían también poner pronto en práctica la tecnología.</p>2015-05-21T14:22:22+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/24Ciencia: Detección de ciclos meteorológicos diarios en planetas de fuera de nuestro sistema solar2015-05-19T14:03:28+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/mañanas_nubosas_y_tardes_claras_en_exoplanetas1.JPG" alt="" /></p><p>Utilizando observaciones de gran sensibilidad realizadas con el telescopio espacial Kepler, unos investigadores han detectado cambios meteorológicos a lo largo del ciclo día-noche en exoplanetas (planetas de fuera de nuestro sistema solar). Para conseguirlo, midieron los cambios en patrones visuales producidos a medida que dichos mundos giran sobre sí mismos.</p><p> </p><p>Entre los hallazgos, destacan las evidencias de ciclos meteorológicos diarios en seis exoplanetas. Incluso se han logrado encontrar pautas lo bastante repetitivas como para hacer predicciones meteorológicas. Algunos de los rasgos característicos son mañanas nubosas y tardes sin nubes y más calurosas que las mañanas.</p><p> </p><p>El telescopio Kepler resultó ser un instrumento idóneo para el estudio de tales variaciones delatadoras. Las mediciones muy precisas que proporcionó y la gran cantidad de datos que recogió permitieron a los astrónomos medir las sutiles señales de esos mundos distantes.</p><p> </p><p>La mayoría de los planetas examinados en este estudio por el equipo internacional de Lisa Esteves, de la Universidad de Toronto en Canadá, son grandes como Júpiter y están muy cerca de sus respectivas estrellas, lo que hace que en esas superficies planetarias imperen temperaturas superiores a 1.600 grados centígrados, condiciones del todo incompatibles con la vida, pero excelentes para el tipo de mediciones realizadas en busca de ciclos meteorológicos diarios.</p><p>Los datos del Kepler se han utilizado con anterioridad para medir la temperatura de estos planetas, pero esta es la primera ocasión en que se han usado variaciones de las fases de tales astros para medir los brillos específicos de los hemisferios diurno y nocturno de una serie de planetas.</p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/14194/deteccion-de-ciclos-meteorologicos-diarios-en-planetas-de-fuera-de-nuestro-sistema-solar/" target="_blank">NCYT</a></p>2015-05-19T14:03:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/23Ciencia: Logran desactivar genes culpables del desarrollo de un mortífero cáncer cerebral2015-05-19T00:00:00+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/recreación_artística_de_las_células_cancerosas1.JPG" alt="" width="297" height="197" /></p><p>Unos científicos han identificado una molécula de ARN de pequeño tamaño, denominada miR-182, que puede bloquear la acción de genes causantes de cáncer en ratones con glioblastoma multiforme, un tipo incurable y mortal de tumor cerebral. Los pacientes a quienes se les diagnostica este cáncer sobreviven de media entre 14 y 16 meses.</p><p>Si bien los fármacos de quimioterapia estándar dañan el ADN para impedir que las células cancerosas se reproduzcan, el nuevo método actúa con mayor precisión, ya que bloquea la fuente que crea esas células cancerosas: los genes que sobreexpresan ciertas proteínas.</p><p>El equipo de Alexander Stegh, de la Escuela Feinberg de Medicina, dependiente de la Universidad del Noroeste en Chicago, Illinois, Estados Unidos, identificó al miR-182 como un supresor del tumor de glioblastoma, que reduce la expresión de varios oncogenes que promueven el desarrollo del cáncer.</p><p>Stegh y sus colegas se valieron de nanoestructuras conocidas como ácidos nucleicos esféricos (SNAs, por sus siglas en inglés, y compuestos de múltiples hebras de ADN y ARN dispuestas de manera densa alrededor de un centro) para introducir de forma segura al miR-182 dentro del cerebro, a través de la barrera hematoencefálica (muy difícil o imposible de cruzar por métodos convencionales) con el propósito de alcanzar las células tumorales. Allí el miR-182 actuó de forma directa y simultánea contra diversos oncogenes, reduciendo el crecimiento de células cancerosas, e incrementando también las muertes de las mismas.</p>2015-05-19T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/22Ciencia: Una inmensa plataforma de hielo antártica se está encogiendo por arriba y por abajo2015-05-19T13:15:25+00:00Gestión Ingenio y Sociedad<p>Durante años, los científicos fueron incapaces de determinar si la causa de que las plataformas de hielo flotantes de la Península Antártica pierdan volumen, y se hagan más propensas a fragmentarse, se debe al incremento en las temperaturas del aire, o bien a las corrientes oceánicas transportando agua más cálida. Un nuevo estudio realiza un importante paso adelante en el esclarecimiento de esa cuestión así como de cuál será la contribución más probable de la Antártida a la futura elevación del nivel del mar.</p><p><img src="/public/site/images/mikhail/masa_de_hielo1.JPG" alt="" /></p><p>El equipo de Paul Holland, del BAS (British Antarctic Survey) en el Reino Unido, combinó datos satelitales y de ocho exploraciones por radar, obtenidos durante un período de 15 años desde 1998 a 2012, y encontró que la plataforma de hielo Larsen C (el trozo C de la antigua plataforma Larsen, que se fragmentó años atrás), cuya extensión es de unos 50.000 kilómetros cuadrados, o aproximadamente la mitad del tamaño de Islandia, perdió en promedio cuatro metros de hielo, y rebajó una media de un metro de su superficie.</p><p>La investigación indica que Larsen C está adelgazando tanto por debajo como por la superficie. Son dos los procesos que están causando que la plataforma Larsen C se encoja y se haga menos estable. La capa superior de nieve está perdiendo aire, lo que la hace más compacta, probablemente debido a un incremento del deshielo a causa de una atmósfera más caliente. Larsen C está además perdiendo hielo como consecuencia aparente de la acción de unas corrientes oceánicas que traen hasta allí agua más cálida, o por culpa de un cambio en el flujo de hielo.</p><p>Se ha resuelto pues un debate científico que ha durado una década sobre lo que está causando el adelgazamiento de una de las plataformas de hielo más grandes de la Antártida.</p><p>Si esta gran masa de hielo se desmoronase, ello permitiría que los glaciares tributarios detrás de ella fluyeran más rápido hacia el mar. Esto a su vez contribuiría de manera significativa al aumento del nivel del mar.</p><p>La Península Antártica es una de las regiones de la Tierra que se están calentando más rápido, con un aumento de la temperatura de 2,5 grados centígrados a lo largo de los últimos 50 años. Y posee una parte importante del hielo del planeta.</p><p>Los resultados de la investigación se han publicado en la revista académica The Cryosphere, editada por la EGU (European Geosciences Union, o Unión Europea de Geociencias).</p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/14169/una-inmensa-plataforma-de-hielo-antartica-se-esta-encogiendo-por-arriba-y-por-abajo/" target="_blank">NCYT</a></p>2015-05-19T13:15:25+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/21Tecnología: Crean el espacio magnéticamente más débil de todo el sistema solar2015-05-15T15:56:28+00:00Gestión Ingenio y Sociedad<p><img src="/public/site/images/mikhail/bajo_campo_magnético1.JPG" alt="" width="406" height="271" /></p><p> </p><p>Los campos magnéticos penetran con gran facilidad en la materia. Crear un espacio prácticamente desprovisto de campos magnéticos es por tanto un reto enorme. Un equipo internacional de físicos ha desarrollado ahora un blindaje que amortigua los campos magnéticos de baja frecuencia en más de un millón de veces. Utilizando este mecanismo, han creado un espacio que dispone del campo magnético más débil de nuestro sistema solar. Los físicos pretenden ahora llevar a cabo experimentos de precisión en él.</p><p> </p><p>Los campos magnéticos se encuentran en todas partes en el universo. Aquí en la Tierra, estamos expuestos permanentemente a campos magnéticos tanto naturales como artificiales. En Europa Central, el campo magnético omnipresente de la Tierra alcanza 48 microteslas. A él se le añaden campos magnéticos generados por transformadores, motores, grúas, puertas metálicas y cosas parecidas.</p><p> </p><p>Un grupo de físicos encabezado por Peter Fierlinger, de la Universidad Técnica de Múnich (TUM) en Alemania, ha creado ahora con éxito, en el campus de investigación que dicha universidad tiene en la ciudad de Garching, un espacio de 4,1 metros cúbicos en el que los campos magnéticos permanentes y los temporales variables se ven reducidos en un millón de veces. Eso lo convierte, como se ha apuntado, en el espacio magnéticamente más débil de todo el sistema solar.</p><p> </p><p>Fierlinger y sus colegas han conseguido crear este singular espacio utilizando un blindaje magnético que comprende varias capas de una aleación especial. La atenuación magnética resulta dentro del escudo en un campo magnético residual que es incluso más débil que cualquier otro de los existentes en nuestro sistema solar. El nuevo método mejora en diez veces la atenuación proporcionada por sistemas previos.</p>2015-05-15T15:56:28+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/20Tecnología: El almacenamiento de la información será molecular2015-05-14T17:42:22+00:00Gestión Ingenio y Sociedad<div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p>La miniaturización de los componentes alcanzará próximamente sus límites, por lo que para continuar ampliando la capacidad de almacenamiento, los científicos se centran desde hace algún tiempo en el nanomagnetismo.</p><p><img src="/public/site/images/mikhail/Información_molecular1.JPG" alt="" width="401" height="287" /></p><p> </p><p>Gracias a los avances de la investigación fundamental sobre el magnetismo, el almacenamiento de la información evoluciona a pasos de gigante desde su creación. ¿Sabía que desde sus inicios en 1956 (RAMAC, Random Access Method of Accounting and Control, creado por IBM), el disco duro ha sufrido un aumento anual de su capacidad de un 45%?</p><p>La principal razón se debe a la miniaturización de los materiales magnéticos, que ha alcanzado el nanómetro (nm), asociado a una mayor densidad de almacenamiento. Según la Ley de Moore, el «número de transistores de microprocesadores sobre un chip de silicio se duplica cada dos años». Una predicción relativamente exacta porque «entre 1971 y 2001, la densidad de los transistores se ha duplicado cada 1,96 años».</p><p>Sin embargo, los investigadores son conscientes de que dicha ley tiene un límite que no van a tardar en alcanzar. Según se acercan al átomo, la transferencia de electrones se va convirtiendo en aleatoria.</p><p>A partir de ahora son, por tanto, los enfoques químicos moleculares los que se van a desarrollar, ya que las nanopartículas magnéticas prometen muchos cambios en el campo de la informática. El proyecto de disco duro molecular emprendido por el equipo de Jean-François Lutz, director de investigación CNRS en el instituto Charles Sadron, en Francia, es un buen ejemplo de ello.</p><p>Como afirma este último, se inspiran en el ADN: «Desarrollamos una técnica que permite codificar la información sobre un polímero. De esta forma provocamos su crecimiento añadiendo, una por una, las moléculas elegidas en un pequeño panel que constituye un alfabeto. Volvemos a visitar un concepto que la naturaleza ha perfeccionado durante millones de años: el del ADN, que permite codificar el genoma con solo cuatro «letras moleculares de base».</p><p>Las promesas son seguras. Con este procedimiento, los datos de Internet podrían ser almacenados en un espacio comparable al de un armario pequeño. (Fuente: Embajada de Francia)</p></div>2015-05-14T17:42:22+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/19Ciencia: Bacterias más peligrosas por culpa del humo del tabaco2015-05-14T00:00:00+00:00Gestión Ingenio y SociedadLa bacteria Staphylococcus aureus resistente a la meticilina, o MRSA por sus siglas en inglés, es una de las tan temidas bacterias resistentes a los antibióticos. Una investigación reciente ha revelado que el humo del tabaco podría empeorar las cosas; en los experimentos se ha comprobado que las bacterias MRSA expuestas a este humo se vuelven más resistentes a las acciones del sistema inmunitario tendentes a matarlas.<p> </p><p>Ya se sabe desde hace tiempo que fumar cigarrillos daña a las células inmunitarias y respiratorias humanas, pero ahora además, tal como ha comprobado el equipo internacional de la Dra. Laura E. Crotty Alexander, de la Universidad de California en San Diego, Estados Unidos, resulta que ese humo puede también ejercer contra la MRSA y seguramente otras bacterias peligrosas una presión ambiental que fomenta en ellas la aparición de individuos resistentes al humo del tabaco. El problema es que esa resistencia a tal humo les sirve también para soportar mejor los ataques del sistema inmunitario, por lo que el efecto final del tabaco es fortalecer aún más a esas bacterias ya de por sí peligrosas.</p><p> </p><p>Crotty Alexander es especialista en pulmón, y comprueba los efectos pulmonares del tabaco en muchos pacientes fumadores. También inspecciona muchas infecciones por MRSA, y eso la hizo preguntarse si un problema podría influir en el otro. Para poner a prueba su hipótesis, Crotty Alexander y sus colaboradores infectaron macrófagos, células inmunitarias que “tragan y devoran” patógenos, con MRSA. Algunas de las bacterias fueron cultivadas normalmente y otras lo fueron con un extracto de humo de cigarrillo. Encontraron que a los macrófagos les costaba más matar a las MRSA que habían estado expuestas al citado extracto.</p><p>Para entender mejor la razón, el equipo de Crotty Alexander probó la susceptibilidad de las bacterias ante mecanismos individuales que los macrófagos emplean normalmente para matarlas. Una vez dentro de los macrófagos, las MRSA expuestas al humo eran más resistentes a morir por el conjunto de sustancias conocidas como especies reactivas del oxígeno, el estallido químico que los macrófagos usan para destruir los microbios que engullen. El equipo descubrió también que las MRSA expuestas al humo eran más resistentes a morir por péptidos antimicrobianos, pequeños trozos de proteína que utiliza el sistema inmunitario para agujerear las células bacterianas. El efecto de resistencia dependía de la dosis, es decir, cuanto más extracto de humo habían aplicado a las MRSA, más resistente se volvía la población bacteriana superviviente de este grupo.</p><p> </p><p>Las MRSA tratadas con humo de tabaco eran asimismo más eficientes a la hora de adherirse a células humanas cultivadas en el laboratorio, y también para invadirlas. En un modelo de ratón, las MRSA expuestas a este humo sobrevivieron mejor y causaron neumonía con una tasa de mortalidad superior.</p>2015-05-14T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/18Tecnología: La vulnerabilidad de los robots quirúrgicos telecontrolados ante los crackers2015-05-12T18:07:55+00:00Gestión Ingenio y Sociedad<p>La telemedicina, y en particular la telecirugía, ofrecen grandes promesas para permitir en un futuro hacer intervenciones quirúrgicas a distancia, en lugares de acceso complicado donde sería muy difícil que un cirujano experto llegase a tiempo, o incluso allá donde podría no estar cualificado para viajar, como por ejemplo una estación orbital. Sin embargo, pasar de los robots quirúrgicos controlados exclusivamente desde dentro del propio quirófano, que ya se usan habitualmente para intervenciones que requieren una precisión superior a la de la mano humana, a robots que sean controlables desde kilómetros de distancia, entraña el riesgo de que alguien pueda interceptar las señales de control, sabotear la conducta del robot y perpetrar un crimen en la mesa de operaciones.</p><p> </p><p>Durante un inquietante experimento reciente para poner a prueba la seguridad frente a ataques informáticos de un prototipo de robot quirúrgico telecontrolado, los expertos que ejercieron de atacantes lograron crackearlo y alterar maliciosamente su conducta.</p><p> </p><p>El equipo de la ingeniera electrónica Tamara Bonaci, de la Universidad de Washington en la ciudad estadounidense de Seattle, ha demostrado que los robots quirúrgicos telecontrolados de próxima generación que utilicen redes no privadas, las cuales podrían ser la única opción disponible en lugares golpeados por catástrofes como terremotos, o en sitios remotos de acceso complicado, pueden ser fácilmente saboteados mediante formas habituales de ciberataque. Para el seguro de estos robots en tales situaciones será esencial incorporar medidas de seguridad que impidan esos ataques.</p><p> </p><p> </p><div class="RichTextAlignCenter"><img id="IMAGEN_INSERTADA_27565" title="El robot Raven-II. (Imagen: University of Washington)" src="http://noticiasdelaciencia.com/upload/img/periodico/img_27565.jpg" alt="[Img #27565]" width="" height="" /><div class="pieDeFoto"><cite>El robot Raven-II. (Imagen: University of Washington)</cite></div></div><p> </p><p> </p><p>Para las pruebas de crackeo, se utilizó como blanco de ataque al robot Raven II, que fue desarrollado por científicos de la misma universidad a fin de explorar las fronteras de la cirugía asistida por robots.</p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/14069/la-vulnerabilidad-de-los-robots-quirurgicos-telecontrolados-ante-los-crackers/" target="_blank">Portal de la ciencia</a></p><p> </p>2015-05-12T18:07:55+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/17Ciencia: Los mundos con océanos como la Tierra son más comunes de lo creído2015-05-12T15:50:13+00:00Gestión Ingenio y Sociedad<p>Se cree que la Tierra era inicialmente árida, pero una nueva investigación apoya la idea de que los océanos que tenemos hoy en día fueron creados como resultado de impactos de asteroides o cometas ricos en agua. El estudio indica asimismo que el mismo fenómeno del suministro de agua a través de asteroides o cometas debe ser muy común en otros sistemas planetarios.</p><p>En la investigación, el equipo internacional de Roberto Raddi y Boris Gänsicke, de la Universidad de Warwick en el Reino Unido, ha encontrado evidencias de numerosos cuerpos planetarios, incluyendo asteroides y cometas, que contienen grandes cantidades de agua.</p><p>Lo descubierto en la investigación añade más evidencias de que es factible que los planetas parecidos a la Tierra reciban de asteroides y cometas buena parte del agua que necesitan para crear un ambiente adecuado para la formación de vida.</p><p>La nueva investigación sugiere, por tanto, que, en vez de ser una rareza, los asteroides ricos en agua, como lo son bastantes de los presentes en nuestro sistema solar, son frecuentes en el universo. En consecuencia, muchos planetas de tipo rocoso como la Tierra y situados a la adecuada distancia de su estrella pueden acabar recibiendo un volumen de agua comparable al que posee la Tierra.</p><p>Los autores del estudio detectaron, en observaciones efectuadas por el Telescopio William Herschel emplazado en las Islas Canarias, España, una gran cantidad de hidrógeno y oxígeno en la atmósfera de una estrella enana blanca (conocida como SDSS J1242+5226). Las cantidades encontradas proporcionan la prueba de que un exoasteroide rico en agua se acercó demasiado a la estrella y acabó liberando su agua en la estrella.</p><p>El asteroide, según los cálculos del equipo de investigación, fue comparable en tamaño a Ceres, de unos 900 kilómetros de diámetro, el más grande en nuestro sistema solar y de hecho ahora catalogado como miniplaneta (planeta enano). La cantidad de agua encontrada en SDSS J1242+5226 es equivalente a entre el 30 y el 35 por ciento de la albergada por los océanos de la Tierra.</p>2015-05-12T15:50:13+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/16Ciencia: Investigadores españoles descubren nueva señalización en la transmisión de información entre las neuronas2015-05-08T18:30:09+00:00Gestión Ingenio y Sociedad<p class="p"><img src="/public/site/images/mikhail/señales_neuronales1.JPG" alt="" width="287" height="162" /></p><p class="p">Un grupo de investigadores del Instituto de Neurociencias, centro mixto del <a class="a" title="Consejo Superior de Investigaciones Científicas" href="http://www.csic.es/" target="_blank">Consejo Superior de Investigaciones Científicas </a>(CSIC) y la Universidad Miguel Hernández, ha desarrollado <span style="font-weight: bold; font-style: normal;">un estudio para identificar qué proteínas</span> interactúan con los receptores sinápticos. El trabajo, que explica las características de la transmisión de información entre las neuronas, aparece publicado en la revista Journal of Neuroscience.</p><p class="p"><span style="font-weight: bold; font-style: normal;">La transmisión de información entre neuronas </span>ocurre en la sinapsis, que es una conexión o enlace intercelular repleto de receptores que pueden ser activados por neurotransmisores químicos, como por ejemplo el glutamato. Un receptor del glutamato es el llamado kainato, que forma un canal iónico -proteínas que controlan el paso de iones- cuya activación, <span style="font-weight: bold; font-style: normal;">cuando el glutamato es liberado</span>, excita las neuronas. <span style="font-weight: bold; font-style: normal;">Los receptores de kainato</span>, a diferencia de otros receptores de su familia, pueden activar una vía alternativa que <span style="font-weight: bold; font-style: normal;">inhibe los canales de calcio</span>, disminuye la liberación de neurotransmisores cerebrales y bloquea la repolarización de la membrana, ocasionando también así la excitación neuronal.</p><p class="p">El investigador del CSIC Juan Lerma, del Instituto de Neurociencias, explica que «<span style="font-weight: bold; font-style: normal;">esta peculiaridad de los receptores</span> de kainato constituye una vía alternativa, no canónica, de excitación neuronal que describió nuestro grupo de investigación hace unos años. Nos dimos cuenta de que algunas de las actividades de los receptores de kainato <span style="font-weight: bold; font-style: normal;">producían la activación de otras proteínas </span>como la Fosfolipasa C y que se podían prevenir con la toxina pertúsica, lo que indicaba que la acción de los receptores de kainato estaba mediada por la activación de proteínas G, que son proteínas transductores de señales».</p>2015-05-08T18:30:09+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/15Sociedad: España cae al puesto 19 de los países innovadores de la UE2015-05-08T18:25:15+00:00Gestión Ingenio y Sociedad<div class="text textA"><p class="p">La Comisión acaba de publicar el <a class="a" title="ranking de innovación en la Unión Europea 2015" href="http://ec.europa.eu/growth/industry/innovation/facts-figures/scoreboards/index_en.htm" target="_blank">ranking de innovación en la Unión Europea 2015</a>, en el que se analizan <span style="font-weight: bold; font-style: normal;">25 indicadores </span>para evaluar las fortalezas y debilidades de cada país en el área de <span style="font-weight: bold; font-style: normal;">investigación</span> y <span style="font-weight: bold; font-style: normal;">desarrollo</span>, pero también en <span style="font-weight: bold; font-style: normal;">educación</span> (nuevos doctorados, población que ha completado estudios universitarios y nivel de jóvenes que siguen estudiando tras la ESO), <span style="font-weight: bold; font-style: normal;">patentes, exportaciones de productos de alta tecnología </span>o <span style="font-weight: bold; font-style: normal;">venta de productos innovadores</span>. Y en esa lista, <span style="font-weight: bold; font-style: normal;">España</span> desciende dos puestos respecto del último listado, <span style="font-weight: bold; font-style: normal;">cayendo hasta el puesto 19</span> de los 28 Estados miembros de la UE.</p><p class="p">En la clasificación general,<span style="font-weight: bold; font-style: normal;"> Suecia es una vez más líder en innovación</span>, el mayor crecimiento en este terreno se ha experimentado en Malta y haciendo una comparación global, <span style="font-weight: bold; font-style: normal;">la UE sigue siendo superada por los Estados Unidos, Japón y Corea del Sur</span>.</p><p class="p">En general, <span style="font-weight: bold; font-style: normal;">la Comisión </span>reconoce que la crisis ha pasado factura a muchos países, sobre todo en el sector privado, y que los resultados de este año son un poco peores que los del pasado. Así como en la última edición del índice se veían signos positivos, ahora hay una mezcla de resultados, con 13 países que presentan una caída en innovación frente a 15 que por el contrario mejoran. Desafortunadamente, entre estos últimos no está <span style="font-weight: bold; font-style: normal;">España</span>, que se convierte en <span style="font-weight: bold; font-style: normal;">el segundo Estado miembro que más ha retrocedido en innovación desde el inicio de la crisis</span>, según el estudio.</p><p class="p">La lista de países innovadores la encabezan <span style="font-weight: bold; font-style: normal;">Suecia, Dinamarca, Finlandia y Alemania, considerados «líderes innovadores»</span>; detrás, en el grupo de «<span style="font-weight: bold; font-style: normal;">innovadores notables</span>», estarían Holanda, Luxemburgo, Reino Unido, Irlanda, Bélgica, Francia, Austria y Eslovenia. En el epígrafe de los «<span style="font-weight: bold; font-style: normal;">innovadores moderados</span>», todos por debajo de la media europea de innovación, es donde se encontraría <span style="font-weight: bold; font-style: normal;">España</span>, en la séptima posición de este grupo, tras haber descendido desde el tercer puesto que ocupaba en este grupo en 2007. Por delante nuestro se sitúan ahora países como Estonia, República Checa, Chipre, Italia, Portugal o Malta. <span style="font-weight: bold; font-style: normal;">El ranking de la innovación lo cierra Rumanía</span>, seguido en el grupo de «<span style="font-weight: bold; font-style: normal;">innovadores modestos</span>» por Bulgaria y Letonia.</p><p class="p">De los 25 indicadores que la Comisión evalúa para posicionar a cada país, <span style="font-weight: bold; font-style: normal;">España</span> sólo <span style="font-weight: bold; font-style: normal;">despunta</span> en cuatro: <a class="a" title="publicaciones científicas" href="http://www.abc.es/ciencia/20141215/abci-ciencia-produccion-cientifica-patentes-201412141722.html"><span style="font-weight: bold; font-style: normal;">publicaciones científicas</span></a>, marcas comunitarias, comercialización de productos nuevos y <span style="font-weight: bold; font-style: normal;">tasa de <a class="a" title="población con educación universitaria" href="http://www.abc.es/sociedad/20150330/abci-espanoles-estudios-superiores-201503301314.html">población con educación universitaria</a></span> (aunque somos los terceros por la cola en cuanto a jóvenes entre 20 y 24 años con estudios por encima de la Secundaria). Los ingresos por <span style="font-weight: bold; font-style: normal;">venta de patentes en el extranjero </span>son, según el informe, <span style="font-weight: bold; font-style: normal;">nuestro punto más débil</span>. También es significativo el descenso en la inversión privada en I+D, que llega a caer un 17%.</p><p class="p">Con todo, el <span style="font-weight: bold; font-style: normal;">comisario de Investigación, Carlos Moedas</span>, ha querido lanzar un mensaje positivo a nuestro país al afirmar que «España no está evolucionando como se espera. Pero no significa que se haya hecho algo mal. <span style="font-weight: bold; font-style: normal;">Significa que otros países están haciendo otras cosas que dan mejores resultados</span>».</p></div>2015-05-08T18:25:15+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/14Ciencia: ¿Y si la vida tuvo un origen caliente?2015-05-08T00:00:00+00:00Gestión Ingenio y Sociedad<div class="text textA"><p class="p"><img src="/public/site/images/mikhail/explosión1.JPG" alt="" /></p><p class="p"> </p><p class="p">El ADN es sinónimo de vida pero ¿dónde y cómo se originó? Ese es, precisamente, <span style="font-weight: bold; font-style: normal;">uno de los mayores misterios a los que se enfrenta la Ciencia,</span> y para resolverlo los investigadores han tratado hasta ahora de dar múltiples explicaciones.</p><p class="p">Sin embargo, un equipo del Lawrence Berkeley National Lab, del Departamento de Energía de los Estados Unidos, y de la Universidad de Hawaii, acaba de aportar una solución completamente nueva tratando de «recrear» en laboratorio las condiciones <span style="font-weight: bold; font-style: normal;">en las que pudieron llegar a formarse los precursores moleculares del<a class="a" title="ADN." href="http://www.abc.es/ciencia/20141127/abci-confirmado-sobrevive-espacio-201411261931.html"> ADN. </a></span></p><p class="p">Precursores como son las pequeñas estructuras de carbono en forma de anillo y capaces de atrapar átomos de nitrógeno, componentes clave de las bases nucleicas que, a su vez, constituyen los bloques de construcción de la famosa doble hélice.</p><p class="p">Por primera vez, este grupo de investigación ha logrado demostrar que los <span style="font-weight: bold; font-style: normal;">«puntos calientes» del Universo</span>, como las zonas muy próximas a las estrellas, podrían ser excelentes lugares para la creación de estos anillos moleculares que contienen nitrógeno.</p><p class="p">En un <a class="a" title="artículo recién publicado en Astrophysical Journal" href="http://iopscience.iop.org/0004-637X/803/2/53">artículo recién publicado en Astrophysical Journal</a>, el equipo describe con todo detalle el experimento en el que lograron recrear las condiciones existentes alrededor de estrellas moribundas ricas en carbono y hallaron las «rutas de formación» de estas importantes moléculas.</p><p class="p">«Esta es la primera vez -afirma Musahid Ahmed, de la División de Ciencias Químicas del Berkeley Lab- que alguien se fija en una reacción caliente como esta». Y es que no resulta fácil para los átomos de carbono formar anillos que contengan nitrógeno. Este trabajo, sin embargo, muestra la posibilidad de que se produzca una reacción de fase en un gas caliente, algo que Ahmed ha bautizado <span style="font-weight: bold; font-style: normal;">como «la barbacoa cósmica».</span></p><p class="p">Durante décadas, los astrónomos han apuntado sus telescopios al espacio en busca de estos pequeños anillos dobles de carbono nitrogenado. <span style="font-weight: bold; font-style: normal;">Pero solo se habían fijado en el espacio interestelar, </span>muy lejos de las zonas más calientes. Y aunque los entornos más próximos a las propias estrellas se consideran desde hace tiempo como candidatos muy probables para la formación de estas importantes moléculas, nadie había pasado mucho tiempo buscando allí los anillos de carbono con nitrógeno.</p><p class="p">Para recrear las condiciones reinantes cerca de una estrella, Ahmed y su colaborador, Ralf Kaiser, profesor de Química de la Universidad de Hawaii, junto al resto del equipo, recurrieron al instrumento <span style="font-weight: bold; font-style: normal;">Advanced Light Source (ALS)</span> del Berkeley Lab.</p><p class="p">En ALS, los investigadores utilizaron un dispositivo llamado <span style="font-weight: bold; font-style: normal;">«boquilla caliente»</span>, usado ya con éxito para estudiar la formación de hollín durante una combustión. Pero para este trabajo, la «boquilla caliente» se utilizó para simular las presiones y temperaturas en las cercanías de estrellas ricas en carbono. Para ello, los científicos inyectaron en la «boquilla caliente» un gas hecho de una molécula de carbono que contenía un átomo de nitrógeno y dos moléculas de acetileno.</p><h4 class="ladillo">«Boquilla caliente»</h4><p class="p">Después, usando la radiación sincrotón del ALS, el equipo observó el gas caliente para ver qué tipo de moléculas se formaban. Y hallaron que la «boquilla caliente», a más de 400 grados centígrados,<span style="font-weight: bold; font-style: normal;"> transformaba el gas inicial en otro más complejo </span>y cuyas moléculas eran las precursoras de las que estaban buscando.</p><p class="p">«Existe una barrera energética para que esta reacción se produzca -explica Ahmed-. Pero se puede superar esa barrera tanto cerca de una estrella como en nuestra configuración experimental. Lo cual sugiere que a partir de ahora debemos empezar a buscar esas moléculas <span style="font-weight: bold; font-style: normal;">mucho más cerca de las estrellas y no en el vacío interestelar».</span></p><p class="p">Los experimentos proporcionan evidencias muy convincentes de que <span style="font-weight: bold; font-style: normal;">las moléculas generadas pueden sintetizarse con facilidad en estos ambientes tan calurosos</span> y después ser empujadas por los vientos estelares hasta el espacio vacío entre estrellas, donde han sido descubiertas por muchos investigadores.</p><p class="p">«Una vez eyectadas al espacio -concluye por su parte Ralf Kaiser- estas moléculas pueden unirse en frías nubes moleculares, y condensarse en nanopartículas interestelares, donde pueden ser procesadas. Y esos procesos pueden llevar a una mayor complejidad, a moléculas relevantes desde el punto de vista biológico, <span style="font-weight: bold; font-style: normal;">como las nucleobases imprescindibles para la formación del ADN y el ARN».</span></p></div>2015-05-08T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/13Tecnología: Un científico mexicano crea drones que vuelan de forma autónoma y aprenden nuevas rutas2015-05-07T10:37:01+00:00Gestión Ingenio y Sociedad<p>Los drones volarán por sí mismos. Es decir, sin necesidad de nadie que los pilote. <a href="http://invdes.com.mx/tecnologia-mobil/7369-cientifico-mexicano-creo-drones-que-vuelan-de-manera-autonoma-y-aprenden-nuevas-rutas">Tal y como recoge el portal de Investigación y Desarrollo invdes.com</a>, el investigador mexicano José Martínez Carranza del <a title="Instituto Nacional de Astrofísica, Óptica y Electrónica" href="http://noticias.lainformacion.com/instituto-nacional-de-astrofisica-optica-y-electronica/O_DukU9zzjBQFM8kedQLlIg3/"><strong>Instituto Nacional de Astrofísica, Óptica y Electrónica</strong></a> (INAOE), ha desarrollado un sistema de visión y aprendizaje para su control y navegación sin depender de la señal GPS o de personal capacitado.</p><p>El científico ha creado un <strong>innovador método</strong> que permite estimar la posición y orientación del dron, lo que le permite reconocer su entorno. Carranza ha sustituido el GPS por sensores de bajo costo como acelerómetros, giróscopos y cámaras de video.</p><p>Las cámaras de video, a bordo del vehículo, pemiten obtener <strong>información visual</strong> y la aplicación de un algoritmo ubica y orienta al dron durante su vuelo al utilizar dicha información. Para ello, también se ha ideado una función que permite trazar una ruta específica en un mapa de vista aérea, similar a los google maps, a fin de indicar que el vehículo navegue hacia un destino determinado de manera autónoma.</p><p>Este conocimiento fue desarrollado en <strong>los proyectos</strong> PUCE: Precise navigation of UAVs in Complex Environments y SMART Boomerang, trabajos desarrollados durante su postdoctorado en la Universidad de Bristol, en colaboración con la compañía Británica Blue Bear Ltd, la cual proporcionó los drones y algoritmos de control, mientras que el financiamiento lo obtuvo de Innovative UK y el Defence Science and Technology Laboratory (DSTL), organismos gubernamentales Británicos que financian proyectos de innovación tecnológica.</p><p>El proyecto se titula <em><strong>RAFAGA:</strong> Robust Autonomous Flight of unmanned Aerial vehicles in GPS-denied outdoor Areas</em>. Su principal objetivo es investigar diferentes métodos que permitan realizar el vuelo autónomo de un dron en el exterior, donde estos artefactos se enfrentan al furor de las corrientes de viento, en áreas donde no existe señal de GPS.</p><p>“En la etapa de repetición, el piloto sólo hace despegar al dron, pero una vez en el aire, los algoritmos del vuelo autónomo entran en acción y mediante el procesamiento de información visual capturada por la cámara, <strong>el vehículo reconoce</strong> en qué parte del ambiente se encuentra”, explicó el investigador del INAOE.</p><p>También se desarrolló un <a title="software" href="http://noticias.lainformacion.com/economia-negocios-y-finanzas/computacion-e-informatica/software/"><strong>software</strong></a> para la <strong>estación de control en tierra</strong>, donde se recibe la transmisión en tiempo real de lo que observa el dron, esto a través de la cámara de inspección que se encarga de tomar fotos o videos, necesarios para detectar fracturas o fallos en estructuras.</p><div id="amg_videointext">En el futuro Martínez Carranza quiere lograr que el dron pueda utilizarse en diversas aplicaciones civiles tales como la vigilancia, la exploración de terrenos, o la inspección de torres.</div>2015-05-07T10:37:01+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/12Tecnología: Sensores fluorescentes permiten detectar la presencia de nanopartículas nocivas para la salud y el medio ambiente2015-05-06T00:00:00+00:00Gestión Ingenio y Sociedad<div class="CONTENIDO "><div class="contenido_real"><div class="NOTICIA"><div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p class="texto_cookies_advice">Las nanopartículas, imperceptibles al ojo humano, son de tamaño nanométrico, tan pequeñas que en cada cabello humano cabrían decenas de miles de ellas. Hasta hace unas décadas, no había gran conocimiento en torno a ellas. Ahora, el elevado desarrollo de la nanotecnología ha motivado que se produzcan miles de toneladas al año de estos materiales nanoscópicos. La Universidad de Córdoba ha desarrollado una serie de sensores nanométricos inocuos y biocompatibles con los que determinar y cuantificar otras nanopartículas tóxicas acumuladas en los recusos naturales y los organismos.</p><p> </p><p>Cien nanómetros es la diezmilésima parte de un milímetro. También es la longitud mínima de una de las dimensiones de un objeto para ser considerado nanopartícula. La nanotecnología ha motivado un gran desarrollo de nanomateriales en campos tan diversos como las ciencias de la salud, la cosmética o la electrónica en los últimos años. En el campo sanitario, por ejemplo, se han empezado a diseñar fármacos, instrumentales médicos y equipos analíticos que incorporan objetos a escala nanométrica. Los nanomateriales también son muy útiles en electrónica porque su mayor área superficial permite crear dispositivos con más capacidad de almacenamiento de datos, rapidez en el procesado o menor consumo de energía, e incluso ha llegado al consumidor en forma de cosméticos, protectores solares y ropa.</p><p> </p><p>Sin embargo, todo este rápido desarrollo contrasta con el bajo conocimiento toxicológico que tiene sobre la salud y el medio ambiente. La Comisión Europea considera, a través de su comité científico de los riesgos sanitarios emergentes y recientemente identificados (CCRSERI) que con los métodos actuales, aunque adecuados para evaluar muchos de los riegos derivados de productos y procesos que incorporan las nanopartículas, es posible que no sean suficientes para cubrir todos los riesgos. La Comisión Europea aboga por crear nuevas metodologías que consigan determinar las propiedades físicas y químicas de las nanopartículas y evaluar el riesgo potencial en sistemas vivos y en el medio ambiente.</p><p> </p><p>En esta línea, un equipo de científicos del departamento de Química Analítica de la Universidad de Córdoba y el Campus de Excelencia Internacional Agroalimentario ceiA3 formado por Miguel Valcárcel, Laura Soriano y Angelina Cayuela ha desarrollado con éxito el uso de un tipo de nanopartículas no nocivas y compatibles con el medio ambiente, los Carbon Dots, como nanosensores fluorescentes. Estos nuevos nanomateriales de carbono se conocieron por primera vez en 2004 como una excelente alternativa a los ya nocivos Quantum Dots que fueron muy empleados en multitud de aplicaciones hasta descubrir su toxicidad al contener elementos pesados. No son las únicas nanopartículas nocivas que se conocen; también están las nanotubos de carbono o las nanopartículas metálicas (oro y plata) y de titanio, entre otras.</p><p> </p><p>Los nanotubos de carbono son muy utilizados en textiles, baterías y electrónica, mientras que las nanopartículas metálicas son muy usadas en cosméticos, comidas, productos farmacéuticos e incluso en la industria textil. Las nanopartículas de plata incluso se han llegado a usar como agente antimicrobiano y eliminación del olor en calcetines. La industria valora la enorme utilidad que presentan todos estos nanomateriales, aunque existen ciertos inconvenientes relacionados con la toxicidad, como por ejemplo la similitud de los nanotubos a las fibras de asbesto que son fácilmenter inhaladas y desplazadas por el cuerpo hasta los pulmones causando severas enfermedades respiratorias. Tras la producción creciente de nanotubos para multitud de aplicaciones, los científicos están haciendo un llamamiento para crear herramientas sencillas que evalúen la acumulación de éstas en el medio ambiente y organismos vivos.</p><p> </p><p>Por ello, el equipo de investigación de la UCO (FQM-215) se ha centrado en el uso de los Carbon Dots como sensores fluorescentes selectivos de estas nanopartículas en el medio ambiente, analizando aguas de los ríos. “Son necesarios nuevos métodos de detección y cuantificación de nanotubos de carbono debido a que se producen actualmente miles de toneladas al año y, en un plazo de veinte o treinta años, su acumulación puede llegar a ser un riesgo severo para la salud y el medio ambiente”, explica Angelina Cayuela, investigadora de la UCO.</p><p> </p><p>Los investigadores han publicado resultados de estas investigaciones en las revistas Sensor and Actuators B: Chemimal y Analytica Chimica Acta. El objeto de dar a conocer los resultados de esta investigación es acercar estas metodologías a las diferentes industrias interesadas. “Estamos especialmente satisfechos con los resultados que arrojan estos sensores fluorescentes en agua de río, en mejillones y en cosméticos”, explica Cayuela. Estos sistemas podrían ser de utilidad para empresas decidadas al tratamiento de aguas o a la creación de productos de belleza. (Fuente: UCO)</p><p>Tomado de: <a href="http://noticiasdelaciencia.com/not/13971/sensores-fluorescentes-permiten-detectar-la-presencia-de-nanoparticulas-nocivas-para-la-salud-y-el-medio-ambiente/" target="_blank">NCYT</a></p></div></div></div></div>2015-05-06T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/11Ciencia: Los antepasados de los pájaros vivieron hace 130 millones de años2015-05-06T00:00:00+00:00Gestión Ingenio y Sociedad<p>Un equipo multidisciplinar de paleontólogos y biólogos de China y Australia han hallado dos fósiles de una nueva especie de aves del Cretácico, a la que han bautizado como Archaeornithura meemannae. Se trata de los especímenes más antiguos de Ornithuromorpha, el grupo del que descienden las aves actuales. </p><p>“Este nuevo descubrimiento extiende el período de vida de Ornithuromorphas entre cinco y seis millones de años, lo que hace retroceder hasta el Cretácico inferior la época en la que se produjo la divergencia de los primeros linajes de aves“, destacan los investigadores. </p><p>Según la descripción del estudio, publicado en la revista Nature Communications, estos animales tenían un plumaje que les cubría casi todo el cuerpo y poseían una anatomía que les permitían maniobrar durante el vuelo.</p><p>La longitud de las patas y la ausencia de plumas en el tibiotarso –hueso entre el fémur y el tarsometatarso en la pata de un ave– indica que estas les servían como zancos para poder vivir en el agua, lo que concuerda con las características de otros fósiles similares.</p><p>La descripción de estos rasgos permite clasificar a la nueva especie dentro de la familia de las Hongshanornithidae, formada por pequeñas aves acuáticas vadeadoras de patas largas, en proporción al tamaño de las alas.</p><div class="BANNERS BANNERS-TOP">Un equipo multidisciplinar de paleontólogos y biólogos de China y Australia han hallado dos fósiles de una nueva especie de aves del Cretácico, a la que han bautizado como Archaeornithura meemannae. Se trata de los especímenes más antiguos de Ornithuromorpha, el grupo del que descienden las aves actuales. <div id="TEXTO_NOTICIA" class="TEXTO_PARRAFO "><p> </p><p>“Este nuevo descubrimiento extiende el período de vida de Ornithuromorphas entre cinco y seis millones de años, lo que hace retroceder hasta el Cretácico inferior la época en la que se produjo la divergencia de los primeros linajes de aves“, destacan los investigadores. </p><p> </p><p>Según la descripción del estudio, publicado en la revista Nature Communications, estos animales tenían un plumaje que les cubría casi todo el cuerpo y poseían una anatomía que les permitían maniobrar durante el vuelo.</p><p> </p><p>La longitud de las patas y la ausencia de plumas en el tibiotarso –hueso entre el fémur y el tarsometatarso en la pata de un ave– indica que estas les servían como zancos para poder vivir en el agua, lo que concuerda con las características de otros fósiles similares.</p><p>La descripción de estos rasgos permite clasificar a la nueva especie dentro de la familia de las Hongshanornithidae, formada por pequeñas aves acuáticas vadeadoras de patas largas, en proporción al tamaño de las alas.</p><p> </p><div class="RichTextAlignCenter" style="position: relative; width: 600px; height: 370px;"><img id="IMAGEN_INSERTADA_27415" title="Holotipo de Archaeornithura meemannae. (Foto: Wang et al., Nature Communications)" src="http://noticiasdelaciencia.com/upload/img/periodico/img_27415.jpg" alt="[Img #27415]" width="" height="" /><div class="pieDeFoto"><cite>Holotipo de Archaeornithura meemannae. (Foto: Wang et al., Nature Communications)</cite></div></div><p> </p><p>Los restos fueron extraídos del segundo depósito de fósiles de ave más antiguo del mundo, localizado en la cuenca de Sichakou, al noreste de China.</p><p>El análisis estratigráfico y radiométrico de los estratos geológicos fue lo que permitió datar a esta especie hace 130,7 millones de años, en el Cretácico inferior. Los anteriores fósiles de esta rama evolutiva eran de hace 125 millones de años.</p><p>Aunque en los últimos años “se han producido importantes avances”, los fósiles del Mesozoico (época fechada hace 252 y 66 millones de años) son muy extraños y se sabe muy poco sobre la historia evolutiva de los antepasados de los pájaros actuales.</p><p>Se estima que Ornithuromorphas representaba la mitad de las especies de aves de este período. El otro clado más abundante, el de los Enantiornithes, desapareció durante la extinción del Cretácico-Terciario, hace 66 millones de años. (Fuente: SINC)</p><p><a href="http://noticiasdelaciencia.com/not/13979/los-antepasados-de-los-pajaros-vivieron-hace-130-millones-de-anos/" target="_blank">Tomado de:</a></p></div></div>2015-05-06T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/10Tecnología: ¿Qué es un edificio de consumo de energía casi nulo?2015-05-04T06:57:26+00:00Gestión Ingenio y Sociedad<div id="tamano" class="tamano"><p>En los últimos años cuando hablamos de eficiencia energética y residencial nos encontramos con un término ampliamente adoptado por los profesionales del sector pero de implicaciones todavía desconocidas por el ciudadano: edificio de consumo de energía casi nulo (EECN). Ya la<strong> directiva europea 2010/31 </strong>relativa a la eficiencia energética de los edificios introduce una <strong>definición </strong>de EECN como aquel edificio con un rendimiento muy alto de energía, donde la casi nula o muy baja cantidad de energía requerida debe ser ampliamente cubierta por fuentes renovables en el lugar o cerca del mismo.</p><p>No obstante, <strong>cada Estado Miembro debe establecer una definición</strong>nacional de EECN según las características de su parque inmobiliario.<strong>Y España todavía no lo ha hecho</strong>. Algo que preocupa al sector toda vez que a partir del 31 de diciembre de 2020 todos los edificios que se construyan serán de "consumo de energía casi nulo", mientras que para los edificios públicos la fecha límite que la directiva marca es el 31 de diciembre de 2018.</p><p>Un informe del BPIE (Buildings Performance Institute Europe), organismo europeo sin ánimo de lucro e independiente, resume la<strong><a href="http://bpie.eu/uploads/lib/document/attachment/128/BPIE_factsheet_nZEB_definitions_across_Europe.pdf" target="_blank">situación actual</a> de los diferentes enfoques e indicadores utilizados por los Estados Miembros</strong> para definir EECN, destacando la importancia del vínculo existente entre la creación de una definición nacional y su aplicación gradual y de promoción en el ámbito inmobiliario.</p><div class="sumario col-2b derecha"><p>'España debe publicar ya su definición de EECN y así colaborar con las constructoras'</p></div><p>"Hasta la fecha", señala el informe, <strong>"la definición de EECN está disponible en 15 países". </strong>En nueve, entre ellos España, "el concepto todavía es objeto de debate y no se ha finalizado aún". Para Peter Sweatman, fundador de Climate Strategy,<strong> "España debe publicar ya su definición de EECN</strong> y así colaborar con las empresas constructoras en la producción de un modelo de edificio altamente energético para los países mediterráneos".</p><p>Aunque todavía no existe una definición de EECN en nuestro país, "no es correcto decir que no se están implantando estrategias hacia este objetivo", señala Inés <strong>Leal, arquitecto y directora del Congreso de Edificios de Energía Casi Nula</strong>. "En este sentido", continúa,<strong> "la Administración está realizando una aproximación progresiva </strong>al concepto, hemos tenido una primera modificación en 2013 del Documento Básico de Ahorro de Energía del Código Técnico de la Edificación (CTE) que ha cambiado totalmente la forma de plantearnos los criterios respecto al CTE de 2006".</p><p>Por un lado, según Leal, se ha establecido una <strong>estructura de indicadores válida para avanzar </strong>hacia la definición de EECN, incluyendo un nuevo indicador de energía primaria no renovable y, por otro, se ha planteado "un enfoque más prestacional donde los técnicos tienen una mayor flexibilidad para implantar soluciones".</p><h2 class="ladillo">Ahorro económico vía eficiencia</h2><p>La arquitecta también destaca el considerable<strong> incremento de exigencias de demanda energética </strong>que "claramente" apuntan a futuro a los EECN. Y pone un ejemplo: "En el caso de nueva construcción, la exigencia de consumo de energía primaria en edificación residencial respecto al CTE de 2006 -donde no existía este requerimiento- supone una reducción media del consumo para vivienda plurifamiliar de entre un 18% y un 44% según la zona climática".</p><p>El informe del BPIE apunta también a una<strong> importante brecha entre las estrategias de los Estados Miembros para los edificios de nueva construcción y los existentes.</strong> Mientras que cerca de la mitad de los países europeos han definido su estrategia para nuevos edificios, sólo ocho tienen establecidos los requisitos EECN para edificios que sean objeto de rehabilitación.</p><div class="sumario col-2b derecha"><p>"Es más fácil construir un EECN que llevar este concepto al ámbito de la rehabilitación'</p></div><p><strong>"Es más fácil construir un EECN</strong>dada su ubicación y orientación, el empleo de materiales nuevos y tecnologías integradas en el diseño,<strong>que llevar este concepto al ámbito de la rehabilitación</strong>, pues hay menos flexibilidad de maniobra", apunta Sweatman. "Ahora bien", añade, "se podría asimilar la importancia del EECN en la rehabilitación si España promociona un concurso en todas las zonas climáticas y según las tipología del edificio, como "Illa Eficient" en Barcelona".</p><p>También <strong>los indicadores utilizados para establecer los requisitos de un EECN son distintos</strong>. En países como el Reino Unido, Noruega y España las emisiones de CO2 se utilizan como el principal indicador para medir qué es un EECN, mientras que en otros, como Austria y Rumanía, dichas emisiones son un indicador complementario para el uso de energía primaria.</p><p><strong>En España disponemos de tres tipos de indicadores</strong>: los indicadores energéticos de emisiones de CO2 , con reflejo de emisiones totales y desagregadas por usos (calefacción, refrigeración, producción de agua caliente sanitaria e iluminación); los indicadores de Consumo de Energía en relación a la energía primaria total y la energía primaria procedente de fuentes renovables, también desagregada por usos; y finalmente un indicador de demanda energética relativa a la calefacción y a la refrigeración.</p><p>En opinión de la directora del Congreso de Edificios de Energía Casi Nula, tal como aparece en la última modificación del Documento Básico de Ahorro de Energía "lo más correcto es utilizar los dos indicadores complementarios, por un lado un<strong> límite de consumo de energía primario y por otro un indicador de emisiones".</strong></p><div class="sumario col-2b derecha"><p>La metodología para calcular la eficiencia energética de los edificios es también objeto de análisis</p></div><p>La metodología para calcular la<strong>eficiencia energética de los edificios</strong>es también objeto de análisis por parte del informe del BPIE, destacando los principales usos finales que deben incluirse: calefacción, agua caliente sanitaria, refrigeración, ventilación e iluminación. En la mayoría de los países, dice este estudio, las necesidades de energía para la refrigeración y la ventilación se miden para edificios residenciales, pero sólo unos pocos incluyen los electrodomésticos (por ejemplo, Austria) o el consumo de energía de los ascensores.</p><p><strong>"Evidentemente lo ideal sería poder incluir todo tipo de consumo</strong>s en la valoración de las necesidades energéticas de la edificación, y el tema de los electrodomésticos es significativo pues puede suponer hasta un 19% del consumo eléctrico del hogar", dice Leal. El trabajo de investigación del BPIE concluye que todos los <strong>Estados Miembros</strong>están trabajando en la implementación de los requisitos EECN, "aunque con <strong>diferentes niveles de ambición".</strong></p><div><strong><br /></strong></div></div>2015-05-04T06:57:26+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/9Ciencia: Acelerar el paso en ciencia y tecnología2015-05-04T06:29:30+00:00Gestión Ingenio y Sociedad<span>México debe acelerar el paso en materia de ciencia y tecnología para no quedar rezagado, coincidieron en señalar el Secretario de Investigación y Posgrado del Instituto Politécnico Nacional (IPN), José Guadalupe Trujillo Ferrara, y el Director del Centro de Investigación en Computación (CIC) de esta casa de estudios, Luis Arturo Villa Vargas.</span><br /><br /><span>Los funcionarios politécnicos presidieron el IV Taller Internacional de Cómputo Inteligente, donde Trujillo Ferrara indicó que "si no te mueves a altísima velocidad te vas a quedar atrás y, en materia de cómputo y tecnología, eso significa quedarse a la zaga".</span><br /><br /><span>El Secretario de Investigación y Posgrado del IPN enfatizó que en cuestión de ciencia y tecnología "debemos ser capaces de generar conocimiento para resolver problemas, no sólo del entorno pequeño, sino desde el Sol hasta la Tierra, pasando por todos los componentes del Universo.</span><br /><br /><span>A su vez, Luis Alfonso Villa Vargas insistió en que la tecnología y la innovación no son estáticas, conllevan cierta velocidad, por lo que "no sólo es importante movernos, sino hacerlo con aceleración para participar en la innovación y el desarrollo tecnológico".</span><br /><br /><span>Destacó que ante el vertiginoso avance de la tecnología es preciso analizar la información en tiempo real y propiciar la toma de decisiones inmediata. "Si un centro de investigación como el CIC no se moviera a la velocidad de la tecnología, estaríamos preparando jóvenes con conocimientos obsoletos", advirtió.</span><br /><br /><span>Consideró que foros como el IV Taller Internacional de Cómputo Inteligente permiten permanecer a una velocidad que requiere la academia, la investigación y la tecnología para mantenernos a la vanguardia, además de un nivel de calidad que permita a los jóvenes convertirse en desarrolladores, creadores del estado del arte y no en espectadores.</span><br /><br /><span>Durante el taller se impartieron cuatro conferencias magistrales y tres cursos dirigidos por científicos que abordaron los siguientes temas: Cómputo cuántico, Modelos de predicción en la ingeniería de software, Contradicciones en torno a los niveles de abstracción en el pensamiento del profesional de la computación, Quántum images, Selección de pruebas estadísticas para comparación de muestras y Cómputo inteligente basado en conjuntos aproximados (rough sets)".</span><br /><br /><span>La conferencia inaugural titulada "Real Time Data Mining", fue impartida por el científico de la University of Porto, Portugal, João Gama, quien expuso sobre la vanguardia de los nuevos sistemas de análisis. - See more at: http://www.oem.com.mx/elsoldemexico/notas/n3791744.htm#sthash.xDQJb4a3.dpuf</span>2015-05-04T06:29:30+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/8Ciencia: El desequilibrio de calcio, causa de arritmias en personas mayores2015-04-28T00:00:00+00:00Gestión Ingenio y Sociedad<span>Un estudio del Servicio de Cardiología y de Cirugía Cardíaca del Hospital de Sant Pau (IIB Sant Pau), publicado en </span><em>Cardiovascular Research, </em><span>demuestra que el debilitamiento de la contracción cardíaca y la propensión a las arritmias en personas mayores se deben a un desequilibrio de calcio en las células del corazón. El envejecimiento deteriora las corrientes eléctricas que mantienen el equilibrio del calcio en las células del corazón y esto podría explicar en parte la pérdida de fuerza de contracción de este órgano.</span><br /><br /><span>El estudio ha sido realizado en células humanas, utilizando técnicas avanzadas de microscopía y biofísica que permiten visualizar los movimientos del calcio dentro de la célula. "De esta manera se han identificado los mecanismos responsables del deterioro de la contracción y la relajación del corazón con el paso de los años", indica el Dr. Leif Hove-Madsen, jefe del Grupo de Investigación del Ritmo y Contracción Cardiaca.</span><br /><br /><span>Las alteraciones observadas en las células cardíacas humanas utilizadas en el estudio dan luz a entender la propensión de las personas mayores a presentar arritmias como la fibrilación auricular que es el trastorno del ritmo del corazón más frecuente.</span><br /><br /><span>"La identificación de estos mecanismos abre las puertas a investigaciones clínicas dirigidas a reequilibrar la regulación del calcio celular y así, proteger el ritmo del corazón en personas mayores", dice el Dr. Joan Cinca, director del Servicio de Cardiología de Sant Pau.</span>2015-04-28T00:00:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/7Ciencia: El tratamiento quirúrgico mejora la supervivencia de las mujeres con cáncer de mama mayores de 80 años2015-04-28T10:31:36+00:00Gestión Ingenio y Sociedad<span>Profesionales del Grupo de Investigación Biomédica en Ginecología y del Servicio de Ginecología del Hospital Vall d'Hebron de Barcelona han demostrado que la cirugía es la mejor opción para tratar a las mujeres mayores de 80 años con cáncer de mama en estadios iniciales.La conclusión, publicada en </span><em>European Journal of Surgical Oncology, </em><span>se basa en el seguimiento de 465 octogenarias tratadas de cáncer de mama en el hospital entre 1995 y 2012, según informa un comunicado del centro.</span><br /><br /><span>Cerca del 30% de las mujeres con cáncer de mama son de edad avanzada y presentan, en la mayoría de casos, tumores hormonales: los oncólogos tienen la posibilidad de operarlas para extirpar el tumor, someterlas a radioterapia o quimioterapia, y añadir un tratamiento hormonal si es necesario, o bien administrarles sólo un tratamiento hormonal primario sin cirugía.</span><br /><br /><span>Uno de los autores principales del estudio y médico adjunto del Servicio de Ginecología y del Centro de Cáncer de Mama del Vall d'Hebron, el Dr. Tomás Cortadellas, asegura que "los facultativos a veces optan por la opción menos agresiva, simplemente para no someter a las pacientes a los efectos secundarios del tratamiento estándar con cirugía".</span><br /><br /><span>Los investigadores han demostrado que las pacientes tratadas con hormonoterapia en el Vall d'Hebron presentaron una supervivencia al cáncer de mama de 50 meses de media, mientras que las que fueron operadas vivieron 109 meses después del diagnóstico.</span><br /><br /><span>Los investigadores observaron que algunas de las pacientes operadas recibieron una cirugía menos agresiva y oncológicamente subóptima, algo que "tampoco les ayudó, ya que las que recibieron un tratamiento quirúrgico óptimo --con extirpación del tumor, del ganglio centinela y del resto de ganglios-- vivieron dos años y medio más de media".</span><br /><br /><span>El incremento de la esperanza de vida y la prevalencia del cáncer de mama entre las mujeres mayores de 80 años plantea una nueva perspectiva en el manejo de estas pacientes, ha destacado Cortadellas, que actualmente está escribiendo las guías clínicas en este ámbito.</span><br /><br /><span>Ha recomendado "calcular, antes de nada, cuál es la esperanza de vida de cada paciente ya que, por ejemplo, si es inferior a tres años la hormonoterapia es una opción terapéutica razonable".</span>2015-04-28T10:31:36+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/6Tecnología: Sale al mercado primera prueba casera del virus del Sida2015-04-28T10:26:00+00:00Gestión Ingenio y Sociedad<p><strong>La primera prueba casera que permite saber en 15 minutos si una persona está infectada con el virus del Sida salió hoy a la venta en el Reino Unido</strong>, informan los<a href="http://www.thehealthsite.com/news/bio-sure-uk-develops-a-self-test-kit-for-diagnosis-of-hiv-aids/" rel="nofollow" target="_blank">medios</a>.</p><p>La prueba, de la compañía Bio Sure UK y que <strong>puede ser comprada por internet, funciona de manera similar a las del embarazo, al medir los niveles de anticuerpos en la sangre.</strong></p><p>Los expertos advirtieron hoy de que en caso de dar positivo, este diagnóstico <strong>debe ser confirmado por los médicos,</strong> pero resaltaron que <strong>ayudará a muchas personas a obtener un rápido tratamiento en caso de estar infectadas con el Virus de Inmunodeficiencia Humana (VIH).</strong></p><p>El dispositivo permite analizar una pequeña gota de sangre extraída por la persona con una lanceta y, después de 15 minutos, aparecerán dos líneas de color morado si da positivo.</p><p>En ese caso, el fabricante recomienda acudir a una clínica especializada en enfermedades de transmisión sexual.</p><p>Los expertos afirman, no obstante, que <strong>aunque el resultado sea negativo, no quiere decir que la persona esté libre del virus puesto que los anticuerpos se generan tres meses después de la infección.</strong></p><p>La responsable de la entidad benéfica <a href="http://www.tht.org.uk/" rel="nofollow" target="_blank">Terrence Higgins Trust</a>, Rosemary Gillespie, que apoya a las personas con sida, expresó su satisfacción por el acceso de la gente a esta prueba.</p><p>“Hemos hecho campaña durante mucho tiempo para conseguir la legislación que permita contar con pruebas caseras del VIH, que se consiguió en abril de 2014, así que es fantástico ver estas primeras pruebas”, afirmó Gillespie.</p>2015-04-28T10:26:00+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/5Ciencia: No es un ruido, es un planeta "habitable"2015-04-24T07:00:30+00:00Gestión Ingenio y Sociedad<p class="p"><img src="/public/site/images/mikhail/Planeta.JPG" alt="" />Se llama <span>Gliese 581d </span>y orbita alrededor de la estrella del mismo nombre (sin la última letra), una enana roja situada a 20 años luz de la Tierra, junto a otros cinco mundos, algunos de ellos también muy interesantes. El <a class="a" title="planeta extrasolar" href="http://www.abc.es/ciencia/20150206/abci-exoplaneta-201502051817.html">planeta extrasolar</a> fue descubierto en 2009 por investigadores de la Universidad Queen Mary de Londres y la de Hertfordshire, quienes lo presentaron como la primera <a class="a" title="supertierra" href="http://www.abc.es/20120328/ciencia/abci-planetas-como-tierra-millones-201203281322.html">supertierra</a>hallada en <a class="a" title="zona habitable" href="http://www.abc.es/ciencia/20150205/abci-zona-habitabilidad-estrella-201502041702.html">zona habitable</a>, es decir, un mundo de un tamaño algo superior al nuestro que se encuentra a la distancia adecuada de su estrella como para contener agua líquida en su superficie, una condición indispensable para<span> la existencia de vida </span>tal y como la conocemos.</p><p class="p">El candidato a planeta fue descubierto usando un espectrómetro que mide la «oscilación», pequeños cambios en la longitud de onda de la luz emitida por una estrella, causados cuando un planeta orbita a su alrededor. Sin embargo, un informe publicado el pasado año en la revista Science desestimó la existencia de este planeta, considerando que lo que veían los astrónomos no era más que «actividad estelar disfrazada de planeta». A su juicio, el supuesto mundo era en realidad ruido en los datos causado por manchas estelares.</p><p class="p">Los «padres» del «d» no se han achantado, insisten en que su planeta existe y aseguran que las conclusiones de sus colegas han sido provocadas por <span>un análisis inadecuado de los datos</span>. La técnica estadística utilizada en la investigación de 2014 para dar cuenta de la actividad estelar es, según explican, «simplemente insuficiente» para identificar planetas pequeños como <a class="a" title="Gliese 581d." href="http://www.abc.es/20110517/ciencia/abci-nuevo-planeta-gliese-parece-201105171302.html">Gliese 581d.</a></p><p class="p">A su entender, ese método ha funcionado en el pasado en la identificación de los planetas más grandes debido a que su efecto sobre la estrella era demasiado importante como para negar los errores en los resultados. Sin embargo, hace que sea casi imposible encontrar las señales de planetas más pequeños dentro del ruido provocado por la propia variabilidad estelar.</p><h4 class="ladillo">«Siempre ha estado ahí»</h4><p class="p">Utilizando un modelo más preciso en los datos existentes, <span>los investigadores están convencidos de que la señal de GJ 581d es real</span>, a pesar de la variabilidad estelar. «La existencia (o no) de GJ 581d es significativa porque fue <span>el primer planeta similar a la Tierra descubierto en la zona «Ricitos de oro»</span> (la zona habitable, ni muy caliente, ni muy fría, como en el cuento infantil) alrededor de otra estrella (donde el agua puede existir en forma líquida) y es un caso de referencia para la técnica de Doppler», explica Guillem Anglada-Escudé, autor principal del <a class="a" title="artículo" href="http://www.sciencemag.org/content/347/6226/1080.2.abstract" target="_blank">artículo</a>.</p><p class="p">«Siempre hay discusiones entre los científicos acerca de la manera en que interpretamos los datos, pero estoy seguro de que 581d ha estado en órbita alrededor de Gliese 581 todo el tiempo», añade el investigador. «En cualquier caso, la fuerza de su declaración era demasiado fuerte. Si su forma de tratar los datos fuera correcta, entonces algunos proyectos de búsqueda de planetas en observatorios terrestres tendrían que ser revisados significativamente, ya que están destinados a detectar planetas aún más pequeños. Uno tiene que tener más cuidado con este tipo de reclamaciones», advierte.</p><p class="p">La estrella Gliese 581 es una fuente de hallazgos para los cazadores de planetas, pero también una fuente de polémica. En 2010, astrónomos de las Universidades de California y Santa Cruz y del Instituto Carnegie de Washington anunciaron el descubrimiento del <a class="a" title="primer planeta «realmente habitable»" href="http://www.abc.es/20100930/ciencia/blog-nieves-201009300754.html" target="_blank">primer planeta «realmente habitable»</a> fuera de nuestro Sistema Solar, el planeta «g», otro de los seis mundos conocidos del sistema. Como ha ocurrido con su hermano «d», el «g» también fue puesto en duda apenas unas semanas después de ser anunciado oficalmente, pero, también de la misma forma, el equipo descubridor volvió para aportar <a class="a" title="nuevos datos que parecían confirmar su existencia" href="http://www.abc.es/20120723/ciencia/abci-regreso-gliese-581g-201207230813.html">nuevos datos que parecían confirmar su existencia</a>. Sin duda, Gliese no dejará de dar sorpresas.</p>2015-04-24T07:00:30+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/4Tecnología: Dos fármacos cutáneos regeneran neuronas dañadas por la esclerosis múltiple2015-04-21T11:06:21+00:00Gestión Ingenio y Sociedad<p>Un trabajo de varias instituciones estadounidenses ha descubierto que <strong>los fármacos miconazol y clobetasol</strong>, utilizados para tratar el pie de atleta y eczemas, respectivamente, son capaces de <strong>estimular la regeneración de las células cerebrales dañadas por esclerosis múltiple</strong> (EM) en ratones.</p><p>Los resultados de la investigación, <span>liderada por científicos de la Universidad Case Western Reserve (Cleveland, EE. UU.) </span>se han publicado este lunes en la versión online de la revista <em><a href="http://nature.com/articles/doi:10.1038/nature14335" target="_blank">Nature</a>, </em>como recoge <a href="http://www.agenciasinc.es/Noticias/Dos-farmacos-cutaneos-regeneran-neuronas-danadas-por-esclerosis-multiple" target="_blank">Sinc</a>.</p><p>"Sabemos que <strong>existen células madre</strong> en el sistema nervioso adulto que son <strong>capaces de reparar los daños causados por la esclerosis múltiple</strong>, pero hasta ahora no teníamos manera de dirigirlas para que actuaran", señala Paul Tesar, científico de esta universidad y uno de los autores principales del estudio.</p><p>"Nuestro enfoque ha sido <strong>encontrar fármacos que catalicen las células madre del propio cuerpo</strong> para reemplazar las neuronas perdidas por esclerosis múltiple", ha indicado.</p><h2 class="ladillo">Crear nueva mielina</h2><p>La esclerosis múltiple es el <strong>trastorno neurológico crónico más común entre adultos jóvenes</strong>, y es el resultado de células inmunes aberrantes que destruyen la mielina, la capa protectora de las células nerviosas del cerebro y la médula espinal.</p><p>Sin mielina, las señales neuronales no pueden transmitirse adecuadamente, lo que acaba ocasionando problemas de movilidad y ceguera.</p><p>Las terapias actuales tienen como objetivo retrasar la destrucción de la mielina por el sistema inmune, pero el equipo de Case Western Reserve ha utilizado una <strong>estrategia para crear nueva mielina en el sistema nervioso</strong>.</p><h2 class="ladillo">Autorreparación</h2><p>“Para reemplazar células dañadas, uno de los enfoques habituales ha sido el trasplante directo de los tejidos derivados de células madre", ha explicado Tesar.</p><p>El investigador ha subrayado que su investigación se ha centrado en <strong>utilizar fármacos que activen las células madre nativas</strong> -que ya están en el sistema nervioso adulto- y <strong>dirigirlas para que formen nueva mielina</strong>.</p><p>"Nuestro objetivo final es mejorar la capacidad del propio cuerpo para repararse a sí mismo", destaca Tesar.</p><h2 class="ladillo">Medicamentos de tratamiento cutáneo</h2><p>El equipo se pudo centrar en los <strong>dos medicamentos de tratamiento cutáneo</strong> gracias a un avance que su laboratorio logró en 2011.</p><p>En concreto, los investigadores desarrollaron un <strong>proceso único para crear grandes cantidades de un tipo especial de células madre</strong> llamado células progenitoras de oligodendrocitos (OPC).</p><p>Estos OPC normalmente se encuentran en el cerebro adulto y en la médula espinal, y resultan inaccesibles para su estudio. Pero una vez que los investigadores pudieron producir miles de millones de las OPC con relativa facilidad, comenzaron a <strong>probar diferentes formulaciones de fármacos existentes</strong> para determinar cuáles podrían servir para inducir a los OPC con el fin de formar nuevas células de mielina.</p><h2 class="ladillo">Efectos de 727 medicamentos</h2><p>Utilizando un microscopio óptico, <strong>los científicos cuantificaron los efectos de 727 medicamentos</strong>, todos ellos con historial de uso en pacientes, en OPC en laboratorio.</p><p>Los fármacos más prometedores se dividían en dos clases químicas específicas. A partir de ahí, encontraron que el miconazol y clobetasol eran los que mejor funcionaban en sus respectivas clases</p><p>El <strong>miconazol se encuentra en gran cantidad de lociones y polvos antimicóticos</strong>, incluyendo aquellos para tratar el pie de atleta. Por su parte, el <strong>clobetasol</strong> suele estar disponible con receta médica para el <strong>tratamiento del cuero cabelludo y otras afecciones de la piel</strong> como la dermatitis.</p><p>Ninguno de los dos medicamentos había sido considerado previamente como un agente terapéutico para la esclerosis múltiple, pero las pruebas revelaron que ambos <strong>tenían capacidad de estimular los OPC para formar nuevas células de mielina</strong>.</p><p>Cuando se administró sistemáticamente a ratones de laboratorio, manipulados para que sufrieran esclerosis múltiple, ambos fármacos impulsaron los OPC nativos para generar mielina nueva, y fueron capaces de revertir la parálisis.</p><h2 class="ladillo">Mejora “sorprendente”</h2><p>"La mejora de la gravedad de la enfermedad en ratones fue sorprendente”, subraya Robert Miller, coautor principal junto con Paul Tesar. "Los medicamentos que identificamos son <strong>capaces de mejorar la capacidad de regeneración de las células madre en el sistema nervioso adulto</strong>. Esto representa un verdadero cambio de paradigma en el tratamiento de pacientes con esclerosis múltiple", destaca.</p><p>Pese a que los fármacos han demostrado “tener efectos extraordinarios en ratones, <strong>su impacto en los pacientes humanos no se conocerá hasta que sean probados en ensayos clínicos reales</strong>”, dicen los investigadores.</p><p>Sin embargo, Tesar y su equipo han ensayado también el efecto de ambos compuestos en células madre humanas y han visto que provocan una respuesta similar a la observada en células de ratón.</p>2015-04-21T11:06:21+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/3Ciencia: Big Bang (Simon Singh)2015-04-21T10:59:47+00:00Gestión Ingenio y Sociedad<p>La cosmología, y en particular la investigación del origen y el futuro del universo, es uno de los campos más apasionantes de la ciencia actual. Desde hace aproximadamente un siglo, una teoría se ha ido aposentando de forma vigorosa para explicar ese origen: el Universo se inició en una gran explosión a la que los astrónomos llaman Big Bang. Lejos de explicarlo todo, esta teoría ha permitido avanzar mucho sobre nuestra comprensión sobre por qué el Universo es tal como lo vemos en la actualidad.</p><p> </p><p>Pero si interesantes son las conclusiones a las que nos permite llegar, no lo es menos el proceso histórico y científico por el cual hemos llegado la conclusión de que efectivamente hubo un Big Bang. En este libro, titulado simplemente “Big Bang”, Simon Singh, periodista pero también doctor en física que trabajó en el CERN, nos relata a lo largo de más de 400 páginas el fascinante camino recorrido por la ciencia para dar forma a la teoría, y posteriormente, para su confirmación e investigación detallada.</p><p> </p><p>El autor nos ofrece, antes que nada, un profundo repaso de las teorías cosmológicas planteadas por la Humanidad desde la antigüedad hasta el comienzo del siglo XX. Sabremos cómo veían los antiguos y los científicos previos a Hubble a nuestro Universo y cómo se imaginaban que podía ser su origen.</p><p> </p><p>Después, nos adentraremos en los grandes avances proporcionados por las teorías de Einstein y en la revolución del instrumental de observación, todo lo cual posibilitó contemplar el Universo con otros ojos. De pronto, éste se hacía mucho más grande, y daba síntomas de estar expandiéndose, lo que dio lugar a un intenso debate.</p><p> </p><p>Por fin, con las piezas del rompecabezas empezando a encajar, los grandes teóricos pudieron obtener las pruebas que estaban buscando y dar forma a una hipótesis rompedora: el Big Bang, la teoría que casaba el comportamiento del Universo observado con la lógica de su origen. Si éste estaba expandiéndose, necesariamente todo su contenido debió estar algún día reunido en un único punto, de infinita densidad y temperatura, que algunos llamaron singularidad.</p><p> </p><p>El Big Bang no era la única teoría que trataba de explicar el origen del Universo, de modo que no se impuso inmediatamente. Poco a poco, gracias a las observaciones astronómicas, las pruebas necesarias para su confirmación y para refutar a las demás, empezaron a estar disponibles. Desde entonces, el Big Bang es considerado el modelo más aceptado. La dura batalla entre propuestas, que duró algún tiempo, concluyó con este ganador.</p><p> </p><p>Pero como hemos dicho, el Big Bang no lo explica todo sobre nuestro Universo. Los científicos afirmaron en su día que no era lógico hablar sobre lo que había antes del Big Bang, puesto que éste creó tanto la materia como el espacio y el tiempo. Hoy en día, ya hay muchos que creen que el Big Bang fue simplemente la manifestación de otro fenómeno todavía desconocido, capaz de crear no solo un universo sino un número infinito de ellos. Sigue por tanto el largo camino que hay que recorrer para nuestra comprensión total del Universo: Hay muchos interrogantes aún que deben ser resueltos, incluyendo su propio destino.</p><p> </p><p>Dotado con las armas del buen divulgador, Singh, que como muchos otros consideran el Big Bang como el descubrimiento científico más importante de la historia de la Humanidad, se las arregla para ayudarnos a entender tanto los complicados conceptos que subyacen en la cosmología, como la incertidumbre que toda teoría de este calibre tiene y que la ha hecho pasar por un largo periplo de aceptaciones y ataques. Aportando las dosis justas de explicaciones científicas, el autor se asegura de que todos los lectores disfruten de la historia de este descubrimiento, y de la satisfacción de entender un concepto que parecía reservado solo para especialistas. Su lenguaje comprensible y cercano, trufado de anécdotas y ejemplos, está acompañado de gráficos e imágenes que nos hacen aún más agradable este viaje. El libro se cierra con un glosario de términos.</p><p> </p><p>Biblioteca Buridán. 2015. Tapa dura, 460 páginas. ISBN: 978-84-96831-65-0</p>2015-04-21T10:59:47+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/2Ciencia: Almacenar CO2 en acuíferos salinos no provocaría seísmos, según un estudio del CSIC2015-04-21T10:44:56+00:00Gestión Ingenio y Sociedad<p><span>Almacenar <strong>dióxido de carbono</strong> (CO2) en acuíferos salinos profundos <strong>no generaría un peligro de terremotos inducidos</strong>, como sí ocurrió en el <a href="http://www.rtve.es/noticias/20131001/terremotos-tarragona-castellon/754642.shtml">Delta del Ebro con el almacenamiento geológico de gas</a>. </span></p><p><span>Así lo afirma un estudio del </span><span>del Centro Superior de Investigaciones Científicas (CSIC) y del Laboratorio Nacional de Berkeley, publicado este martes en la </span><span>revista <em>Proceedings of the National Academy of Sciences</em> (PNAS).</span></p><p>Los científicos han estudiado la <strong>dinámica de las presiones en los acuíferos salinos</strong> para almacenar CO2 y han calculado cómo cambian las propiedades de las rocas sello arcillosas, para concluir que, si se cumplen unos criterios, "el peligro de sismicidad inducida es improbable".<br /><br />La investigación la han llevado a cabo Jesús Carrera, científico del CSIC en el Instituto de Diagnóstico Ambiental y Estudios Del Agua (IDAEA), y Victor Vilarrasa, del Lawrence Berkeley National Laboratory (EE. UU.).</p><h2 class="ladillo">Almacenamiento de CO2 controvertido</h2><p><span>Según ha explicado Carrera, una de las estrategias de lucha contra el cambio climático es el <strong>almacenamiento geológico del CO2 en acuíferos salinos profundos</strong>.</span></p><p>Esta opción, sin embargo, no está exenta de controversia, porque <strong>preocupa el posible riesgo sísmico derivado de la presión que pueda ejercer el CO2</strong>, y el consiguiente riesgo de que se escapen las grandes cantidades de este gas almacenado de efecto invernadero.<br /><br />Los dos científicos han concluido en su trabajo que <strong>este riesgo es improbable "si se sigue una serie muy estricta de criterios</strong>, entre los cuales están el evitar las zonas sísmicamente activas".</p><h2 class="ladillo">Dónde ubicar los depósitos de CO2</h2><p>Según Carrera,<strong> la roca sedimentaria</strong>, en la que se propone ubicar los depósitos de CO2, <strong>es más blanda y moldeable</strong> y, frente al cambio de presión, <strong>tiene tendencia a plegarse</strong>.<br /><br />Por eso, según los científicos, "<strong>raramente está bajo una presión geológica crítica</strong>". "En cambio, las rocas cristalinas, de gran dureza, se fragmentan con más facilidad en situaciones de presión geológica, por lo que no deberían tocarse".<br /><br />Además, la dinámica de las presiones durante la inyección del dióxido de carbono sugiere que <strong>el estado menos estable es al principio de la inyección</strong>, y que la sobrepresión decrece con el tiempo, a medida que el dióxido de carbono se disuelve en la salmuera.<br /><br />Incluso en el caso de que la sobrepresión activara las fallas, <strong>el alto contenido de arcilla</strong> que llevarían las capas de sellado,<strong> haría que las fracturas se volvieran a cerrar</strong>, según los científicos.<br /><br />"Si los depósitos de dióxido de carbono son adecuadamente seleccionados, y gestionados, la sismicidad inducida es improbable", ha reiterado Jesús Carrera, quien defiende que "<strong>la opción de almacenar el CO2 es viable para reducir el efecto invernadero</strong> hasta que las energías renovables puedan sustituir a los combustibles fósiles en la producción masiva de energía".</p>2015-04-21T10:44:56+00:00http://gis.unicafam.edu.co/index.php/gis/announcement/view/1Tecnología: Un equipo de investigadores consigue por primera vez, reducir a unos pocos milímetros los circuitos básicos de la teleportación cuántica2015-04-17T00:00:00+00:00Gestión Ingenio y Sociedad<p id="story-texto" class="p">El desarrollo de los ordenadores convencionales<span> está alcanzando los límites de la Física</span>, por lo que este avance resulta decisivo: un equipo internacional de investigadores de las Universidades de Bristol, Tokyo, Southampton y NTT Device Technology Laboratories ha conseguido<a class="a" title="integrar en un chip fotónico los circuitos básicos de la teleportación cuántica" href="http://www.abc.es/ciencia/20150402/abci-teletransportacion-silicio-201504021853.html" target="_blank">integrar en un chip fotónico los circuitos básicos de la teleportación cuántica</a>, reduciendo a unos pocos milímetros un proceso que hasta ahora, necesitaba varios metros cuadrados.</p><p id="U162790663829CFF" class="p">Las claves de este descubrimiento, en el videobog Materia Oscura.</p>2015-04-17T00:00:00+00:00