Resumen científico - 61

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Murió Tulio Halperín Donghi 




Ha muerto un historiador. No uno más. Murió el historiador de Argentina. Tulio Halperín Donghi (1926-2014) escribió los textos de referencia a partir de los cuales los historiadores contemporáneos han analizado y siguen discutiendo los siglos XIX y XX de un enigmático país. Su primer libro fue El pensamiento de Echeverría (1951), y ya en 1955 comenzó a destacarse hasta renovar la lectura de nuestro pasado. Quizás su libro más importante haya sido Revolución y guerra (1971), en el que traza la estructura socioeconómica de la campaña bonaerense del siglo XIX y da cuenta de la formación de la clase terrateniente. Pero el trabajo de archivo y el mayor rigor académico lo articuló con la revisión de la historia de las ideas y el cultivo provocador del ensayo como género en el cual logró intensidad para penetrar en flujos que a veces desatiende la reconstrucción histórica. Ante las experiencias infranqueables de la violencia, los horrores y el terror, ante las heridas que una y otra vez se registraron en nuestra sociedad y que permanecen como fallas subterráneas, ante esas resistencias opuso el esfuerzo, la voluntad mayor de lucidez. Alguna vez dijo que “la nostalgia es el gran motor de nuestra historia”, y desde ese prisma se abocó a un fenómeno singular, complejo y perturbador, el peronismo: “el peronismo se legitimaba satisfaciendo una nostalgia”. Una y otra vez volvió al peronismo, siempre con pasión crítica.

El prólogo de Proyecto y construcción de una nación (1980) se convirtió en libro: Una nación para el desierto argentino (1982), e intensamente allí repasa los proyectos de 1837, reformulados en 1852 y 1880, vuelve a la ilusión del orden y el desierto que reaparece con los diversos enfrentamientos. Compleja, sofisticada, sin esquematismos de bandos, sin anhelos legitimatorios, Halperín Donghi ha dado cuenta de cómo Argentina se proyectaba, y cómo aquello que se ideaba hacer se deshacía, tantas veces con ferocidad, brutalidad y matanzas.

Son memorias (2008) presenta al historiador que ha pasado buena parte de su vida en los archivos, al profesor emigrado y al elegante crítico del peronismo constatando que toda su vida fue afectada por la política. Hasta el aburrimiento y ya la incomprensión, ha pensado que hemos sido marcados por la disputa peronismo-antiperonismo.

Nacido en Buenos Aires, fue hijo de una familia inmigrante mixta -judía y católica. Su padre fue profesor de latín, su madre fue profesora de castellano y de literatura italiana. Estudió en el Colegio Nacional Buenos Aires, luego en la UBA. Empezó química en Exactas, luego de dos años quiso ser historiador. Sus padres le dijeron que no iba a poder mantenerse, que mejor estudiara derecho; lo hizo para tener una patente que le permitiera no sabe bien qué. Encontró allí, en Derecho, que aprender consistía en pasar exámenes. Se describió como “un estudiante lumpen en Derecho”; se recibió. Después estudió historia en Filosofía y Letras de la UBA, luego en Turín y París. Enseñó en la UBA, la Universidad Nacional del Litoral, Oxford y, desde 1972, en Berkeley.

En el laberíntico Dwinelle Hall dictó sus clases y tenía su oficina en el Departamento de Historia. Se alejó, entonces, de la Argentina desde 1966. Nunca Argentina le fue indiferente. Pero con el correr de los años supo que nunca volvería. Obviamente, siempre volvió, siempre se mantuvo cerca, siempre buscó la distancia correcta con la Argentina. En La larga agonía de la Argentina peronista (1994) vuelve sobre el peronismo. Lo concibe como una revolución que construyó una nueva sociedad, con sectores que conquistan su ciudadanía, un nuevo rol del Estado, el logro del pleno empleo y la economía cerrada al mundo. Pero “la fiesta peronista” llegó a su fin en 1949. Luego dirá que “la noción de revolución, referida al peronismo, es quizás innecesariamente provocativa”, pero uso el término porque el peronismo elevó un 10% la participación de los asalariados en el PBI. Siempre fascinado y con miedo ante la Argentina del ciclo peronista, de 1946 a hoy, desafiado por la dificultad de estudiar lo que entendió como una cultura política sin paralelo en el mundo, ante la cual resulta difícil fijar parámetros.

Fue escéptico de diversos modos. Nunca creyó en la historia militante. Tampoco en el determinismo histórico: no se sabe qué hace el pasado sobre el futuro, tampoco cómo lo hace. Subió una y otra vez al carrusel mediático, pero con desconfianza. Criticó el absurdo de la hiper especialización académica. Fue, en cambio, un fino tejedor: “Hay realidades en la Argentina de hoy que dependen del equilibrio social de la campaña durante el rosismo, pero a la gente no le interesa qué pasó con una montonera en 1823. Y sobre eso no hay nada que hacer.” Ante Sarmiento demandó un evaluación compleja, ya que quiso ser un hombre del futuro, pero a la vez un hombre arraigado en el pasado. Ante la existencia de un país que podía dudarse que lo fuera se resignó. Con sus obras se puede hacer aquello o que decía que debemos hacer con las obras de Sarmiento: “Abrirlas al azar”. La herencia está ahí, a disposición de todos. Tiene una enorme riqueza de sugestión, de lecturas posibles, aun las más contradictorias. Y esa sugestión no está, por cierto, en ninguna de las imágenes convencionales del historiador-profeta. “La historia es un relato sobre el cual se establece un acuerdo, pero el problema es que no puede haber un acuerdo”, enseñó Halperín Donghi.


Fuente: Clarín

Barras bravas:¿cómo parar la violencia? 




* Por José Garriga Zucall

Pensar políticas de prevención en torno a la violencia en el fútbol requiere comprender dicho fenómeno en su totalidad, sin sesgos ni prejuicios. Señalaré tres cuestiones que permiten pensar la gestión de la prevención en este camino. Primero, es necesario no simplificar la problemática y nunca cargar las tintas sobre un solo actor. Las “barras bravas” son uno de los tantos practicantes de acciones violentas en el mundo del fútbol pero no los únicos. Los policías, los espectadores que no son parte de estos grupos organizados, los periodistas y los jugadores también tienen, en diferentes dimensiones, prácticas violentas. No se puede reducir la violencia a las prácticas de unos pocos, culpándolos de las desgracias y desventuras que azotan los estadios, opacando -olvidando con más perversión que ingenuidad- las acciones de otros.

No pretendemos negar el rol central que tienen las barras en el fenómeno violento sino que buscamos, por el contrario, una comprensión más acabada que permita un abordaje profundo. Cómo podemos prevenir, por ejemplo, la muerte de los dos hinchas de Rosario Central acontecidas luego del último clásico rosarino si enfocamos como únicos responsables de la violencia a las barras bravas.

Se vuelve necesario, para la gestión de la prevención, trabajar con todos los actores para que estos no reproduzcan sus prácticas o representaciones violentas. Hay que derruir la legitimidad de la violencia, legitimidad que no sólo habita entre las barras. Así deberíamos modificar las formas en que muchos espectadores contribuyen en creer que el espectáculo deportivo requiere de la desaparición del rival como modo de construcción de su pertenencia a un club.

Segundo, es un equívoco analizar a las barras bravas sólo desde su faceta mercantil, ya que lo que define a las barras es la lógica de la violencia y no los negocios. Estos son un tema relevante para entender el fenómeno violento pero secundario. Secundario porque sólo en unas pocas barras los recursos son cuantiosos. No podemos comprender a todas las barras como si fuesen la de Boca, ejemplo máximo de la mercantilización. Además, y aún más importante, la mayoría de los jóvenes que ingresan a una barra lo hacen deseosos de ser reconocidos como violentos y no tanto por los recursos que podrían obtener a futuro.

El deseo de membresía se funda en la búsqueda de prestigio y honor obtenido por medio de la violencia, articulado –en un segundo plano- con el deseo de hacerse de recursos económicos. Por ello, en el caso de que logremos cortar el flujo de dinero que alimenta a las barras –cuestión que deberíamos hacer urgentemente- estas no desaparecerían, cambiarían pero seguro que no desaparecerían. Es imperioso, entonces, abordar y modificar las formas de prestigio que condensa la violencia si queremos alterar el escenario actual.

Por último, no podemos abreviar la complejidad de la violencia en el fútbol afirmando que este es un problema vinculado a la pobreza. Sólo una gran ceguera podría ocultarnos que en la Argentina se arrojan piedras desde costosas plateas, que adinerados dirigentes de clubes amenazan con armas de fuego a simpatizantes rivales y que la composición social de las barras es sumamente heterogénea. De modo que en el mundo del fútbol no todos los pobres protagonizan acciones violentas ni todos los que protagonizan acciones violentas son pobres.

Sólo entendiendo la violencia en su complejidad, sin prejuicios ni cegueras, podríamos pensar en políticas de prevención. Dos ejemplos a modo de muestra. Por un lado, deberíamos formar fuerzas policiales más profesionales y capaces de intervenir eficientemente en el fenómeno violento sin propagarlo por incapacidad o ineficiencia. Por otro lado, podríamos crear formas de integración institucional en las entidades deportivas y barriales que, rechazando toda forma de violencia, incluyan a los jóvenes que se ven seducidos por las barras. Repito, sólo involucrando a todos los actores, elaborando un plan integral, podemos encarar este problema.


Fuente: Clarín

Solución urbana a las inundaciones 




* Por Luis María Calvo y Carlos Lebrero

Los autores plantean medidas estructurales para generar un ambiente flexible frente al cambio climático y políticas de resiliencia urbana. El rol de la Universidad en la solución de los problemas y la educación.

Las inundaciones, provocadas por tormentas con excesos hídricos, son producto del cambio climático. Para avanzar en su control, se debe integrar la política urbana con las condiciones del medio natural y los sistemas de drenaje.

Estos episodios afectan sobre todo a los sectores más pobres y a los espacios donde menor acumulación de inversión ha habido. Es por esa razón que la Universidad debe actuar frente a estos eventos con visiones que avancen en el conocimiento y las conductas para generar un grado creciente de sustentabilidad, sobre todo en los sectores de menores recursos asentados en urbanizaciones informales.

La gestión urbana debe reconocer al ciclo del agua, los efectos del cambio climático y la dinámica del agua superficial para preservar la naturaleza de la ciudad. Debieran ser reconocidas las áreas y su naturaleza, sustrato, sistemas naturales de drenaje, geoformas y valles de inundación modificados por el avance urbano y que generan nuevas complejidades y catástrofes.

Es momento de revisar el crecimiento urbano que se han desarrollado históricamente con poco respeto a la geografía, con urbanización en las áreas de amortiguación de las inundaciones, en los valles y humedales.

La política urbana debe tener una visión responsable del uso del suelo. Estas operaciones deberían incorporar infraestructuras que reemplacen a la dinámica natural con un nuevo tecnosistema. Las medidas para la ocupación del suelo debieran permitir la retención de caudales en las áreas con drenaje restringido o con descarga comprometidas, maximizar la evapo-transpiración, permitir la mayor absorción del suelo, lentificar la llegada del líquido al cauce crítico de volcado, tener en cuenta las dinámicas existentes inter red y también interfluviales.

Con este criterio, el paisaje regional apuntaría a una política que dé impulso a la capacidad de retención y absorción del suelo con cuencos de retardo y, sobre todo, con una adecuación del diseño integral, especialmente el vial (principal recurso de conducción pluvial y causantes de los endicamientos).

Para evitar el deterioro y pérdidas recurrentes de la población, habría que realizar programas que permitan la adecuación del espacio público en relación a los canales de drenaje. Además, debería existir un aumento del control social sobre el valle de inundación con recorridos públicos que acompañen al cauce y consolidación de las costas de los arroyos. Esto permitiría un manejo estable de la geoforma antrópica o natural prevista.

Dentro de estos problemas de forma territorial existen otros que provienen de la dinámica urbana de la basura tanto de la acumulación para la recolección como en la disposición final sobre todo la clandestina que reduce la capacidad de conducción de los arroyos. Esto se agrava con las contaminaciones que provienen de los lixiviados de basurales, los sistemas de saneamiento estáticos y las redes que vuelcan efluentes en tiempo húmedo a los arroyos. Esta concatenación de vertidos y modificación de arroyos exige una adecuación del tendido de redes y servicios y organización de las cuencas con un planeamiento que las integre. En algo de esto se ha avanzado parcialmente en el Matanza Riachuelo. No es tarea sencilla, por las competencias políticas, avanzar en la coordinación intrarregional para el desarrollo de las cuencas, el diseño vial y la basura con una complementación que permita mejorar los sistemas de drenaje. Se necesita fortalecer la capacidad técnica y administrativa de los municipios para gestionar la relación entre crecimiento urbano y agua superficial. El mejoramiento de la gestión local debiera superar la inequidad para alcanzar la integración de la política urbana con el desarrollo territorial.

Deben ser desarrollados nuevos lineamientos para la gestión de una ciudad resiliente que pueda enfrentar estos problemas con los instrumentos del planeamiento ambiental.

La orientación del planeamiento para la ocupación urbana, el drenaje y las redes es una responsabilidad del Estado que no puede estar ausente en estas circunstancias críticas tanto en las medidas de contención inicial como en las largo plazo. En este sentido las autoridades de cuenca deben coordinar estos aspectos en relación a los municipios. La disminución de la presión urbana sobre el sistema hídrico no se puede desarrollar de forma espontánea y debe ser controlada por las autoridades locales coordinadas por los organismos de gestión hídrica.

La Universidad acompaña la resolución de este tema que afecta a gran parte de la población estudiando estos fenómenos y colaborando en el fortalecimiento de la responsabilidad social frente a los problemas ambientales de la ciudad. En la enseñanza que desarrollamos impulsamos la integración de la normativa urbana, los servicios urbanos y ambientales con el reconocimiento de los eventos que afectan a la ciudad y su crecimiento, es muy alto el costo social de la sorpresa frente a situaciones previsibles.

Los desbordes de los ríos Matanza, el Reconquista y Luján son una realidad que debemos enfrentar de forma integrada y optimizar los recursos territoriales, aumentar la responsabilidad de todos los sectores sociales y desarrollar los proyectos que mejoren la vida de las próximas generaciones.


Fuente: Clarín

Crearon un dulce de leche "saludable" 




El dulce de leche no figura en las listas de alimentos saludables. Pero ahora científicos argentinos lograron desarrollar una fórmula más sana, a base de aceite vegetal y grasas insaturadas, sin perder su color y sabor. La clave de su éxito está en el aceite de nuez de pecán y canola.

Los elevados índices de obesidad y sobrepeso en la población -adultos y chicos- son un tema preocupante porque se sabe que desencadenan enfermedades cardiovasculares, la principal causa de muerte en el país. Por eso, la Organización Mundial de la Salud (OMS) recomienda limitar el consumo de grasas, sustituir las saturadas por insaturadas y eliminar los ácidos grasos trans de las dietas.

Ante esta situación, los científicos se plantearon el desafío de producir un dulce de leche de consumo masivo pero más sano, utilizando ingredientes beneficiosos para la salud, de manera tal que puedan ser producidos y comercializados exitosamente por la industria alimentaria.


Fuente: Clarín

La Noche de los Museos fue récord 




Otra vez récord en una madrugada atípica, porque habían pasado las 3 y cientos de miles de personas seguían dando vueltas por las calles de la Ciudad con ganas de un poco más. La 11° edición de La Noche de los Museos convocó a 880.000 personas, un 10% más que el año pasado, que recorrieron los 208 museos y espacios culturales públicos y privados –24 más que en 2013– tras haber abierto sus puertas desde las 20 con entrada gratuita.

Hubo momentos destacados, como la clase magistral de tango que dictaron Mora Godoy y Marcos Ayala en el Museo de Bellas Artes de La Boca Benito Quinquela Martín. También la entrevista pública a Ricardo Gil Lavedra en el marco de la muestra Los 280 días. La CONADEP en el Centro Cultural San Martín, una de las sedes que se sumó este año al circuito y que recibió 18.000 visitantes.

¿Los números? Unas 64.000 personas pasaron por el Centro Cultural Recoleta para ver la muestra homenaje al arquitecto tucumano César Pelli, cuyo estudio ha diseñado alguno de los edificios más emblemáticos del mundo, como las Torres Petronas en Malasia o los centros financieros de Nueva York y Hong Kong. Por el Museo de Arte Hispanoamericano Isaac Fernández Blanco, donde se realizó la apertura oficial de la velada, pasaron 11.500 visitantes. La muestra El mundo según Mafalda, en la Usina del Arte fue recorrida por 30.000 personas.


Fuente: Clarín

Crean sistema que convierte fotografía a texto 




El gigante de Internet Google desarrolló un sistema capaz de describir el contenido de una fotografía en formato de texto y de manera automática, como parte de sus investigaciones en el campo de la inteligencia artificial.

"Hemos desarrollado un sistema de aprendizaje automático que puede producir subtítulos para describir con precisión imágenes en un primer vistazo", informaron los investigadores de Google a cargo del desarrollo.

Entre los beneficios de este software sus creadores destacaron la ayuda que podría representar a personas con discapacidad visual al ofrecer un texto descriptivo en las imágenes. Además, podría facilitar las búsquedas en "Google Imágenes" al brindar mayor precisión en las descripciones de las escenas.

El generador de textos a partir de imágenes no tiene aun fecha de lanzamiento para uso público ni de una posible incorporación a Google Imágenes.


Fuente: Télam

China tiene la computadora
más potente del mundo
 





La súpercomputadora china Tianhe-2, desarrollada por la Universidad Nacional de Tecnología de Defensa de ese país (NUDT), fue elegida la más potente del mundo por cuarta vez consecutiva, según anunció hoy el ranking TOP500. Así, dejó en el segundo lugar a la estadounidense Titan, desarrollada por Cray Inc, una firma que tiene otros de equipos en el top ten.

Cuenta con una capacidad de 33,86 Petaflops, 1 Petabyte de RAM (es decir, un millón de Gigabytes) y un consumo eléctrico de 17,8 Megawatts. Recordemos que el FLOP es una unidad de rendimiento de los ordenadores y ésta computadora china puede llevar adelante casi 34 x 1015 cálculos por segundo (33.860.000.000.000.000 – treinta y tres mil ochocientos sesenta billones –, lo cual sería más de tres millones de veces lo que una PC de uso hogareño).

El listado general lo encabeza Estados Unidos, con 231 de las 500 principales súpercomputadoras (de las cuales seis están en el top ten), seguido por China, con 61, y Japón, con 32.

Según el comunicado, pese a mantener un consolidado primer lugar, "los Estados Unidos están llegando a su mínimo histórico en la lista", que se elabora desde 1993 en función del rendimiento de los equipos.


Fuente: Télam

Los embriones, en el centro del debate 




* Por Miguel Jorquera

La Cámara de Diputados dio media sanción a la ley de fertilización asistida que regula “los procedimientos y técnicas médico-asistenciales de reproducción médicamente asistida” y “la protección del embrión no implantado”, así como “disponer el alcance de los derechos y las relaciones jurídicas”.

La normativa va en concordancia con la Ley 26.862 de reproducción médicamente asistida, aprobada el año pasado, y como ley complementaria del reformado y unificado Código Civil y Comercial.

La votación en general igual fue contundente: 205 votos a favor, once en contra y seis abstenciones. En el recinto hubo objeciones filosóficas, religiosas y legales que dividieron posturas en la mayoría de las bancadas partidarias, muchas de las cuales dieron “libertad de conciencia” a sus propios legisladores.

“Esta ley no regula el derecho al hijo, sino que garantiza los derechos de toda persona a la paternidad-maternidad y de formar una familia en íntima conexión con el derecho a la salud”, señaló la presidenta de la Comisión de Acción Social y Salud Pública y miembro informante del proyecto, Andrea García (FpV). “Esta ley viene a cubrir un vacío legislativo”, agregó García en referencia a la Ley de Fertilización Asistida (26.862) sancionada el año pasado como ley complementaria del unificado Código Civil y Comercial.

La diputada kirchnerista explicó que “el material genético se puede usar hasta en un máximo de seis personas o parejas” y “prohíbe la comercialización de embriones y gametos crioconservados”.

La puntana Ivana Bianchi, de Compromiso Federal, encabezó la resistencia al proyecto de los sectores más conservadores. “¿Sobre qué motivos jurídicos estamos realizando esta manipulación?”, se preguntó la diputada, y agregó que “se están destruyendo numerosos seres humanos”. “La ciencia ha prevalecido en función de un frío cálculo de la calidad de vida sobre los indefensos embriones humanos”, sentenció. El radical Agustín Portela se plegó a esa línea de argumentación y asoció la iniciativa con la “cosificación” de los niños por nacer.

Para el duhaldista residual Carlos Brown, “se avanzó en un proyecto que no protege al embrión; por el contrario, se lo considera descartable” y opinó que “no todo lo que técnicamente sea posible es éticamente aceptable”.

Elisa Carrió expuso sobre uno de ellos con su particular estilo. “En un embrión congelado hay una posibilidad de vida”, arrancó para hablar de concepto filosófico de la “patrimonización del sujeto”. “Descarte, palabra vaga, ambigua. La basura puede ser reciclada”, dijo luego para cuestionar el término utilizado para la disposición final de embriones tras diez años de congelamiento y sentenciar que si “se venden chicos en los hospitales públicos del interior, cómo no se van a vender embriones”.

Esos cuestionamientos también incluyeron a los legisladores oficialistas, que salvaron las diferencias con una modificación al texto: en el artículo 12 reemplazó la palabra “descarte” por “cese de la crioconservación”, un concepto al que muchos diputados opositores consideraron como “más acertado”.

Allí también se introdujo, a propuesta del PRO, un párrafo que indica que las parejas que crioconserven embriones deberán acordar y dejar sentado en forma expresa el destino que se les dará en caso de divorcio, debiendo optar entre la posibilidad de que sean utilizados por otra pareja o persona o que cese la crioconservación.

Un debate con varias aristas, que de todas maneras alcanzó un importante respaldo que atravesó al grueso de los bloques opositores.


Fuente: Página 12

Rosario en el mapa mundial
de las neurociencias
 





* Por Ignacio Jawtuschenko

Un corte de cintas, además de un acto protocolar, puede posicionar a la ciencia que se desarrolla en un país en el mapa científico internacional. Rosario se convirtió en sede del segundo nodo que la Sociedad Max Planck de Alemania establece en Latinoamérica, el Laboratorio Max Planck de Biología Estructural, Química y Biofísica Molecular de Rosario (MPLbioR).

El acto estuvo presidido por el jefe de Gabinete, Jorge Capitanich, acompañado por los ministros de Ciencia y Salud, Lino Barañao y Juan Manzur; el secretario de Transporte, Alejandro Ramos, y el de Ciencia, Tecnología y Producción para la Defensa, Santiago Rodríguez.

Se inauguró un laboratorio del primer mundo que agrupa distintas disciplinas científicas, como la química combinatoria, la biología estructural, la biología celular y el uso de modelos animales, orientados a un objetivo más allá de la frontera: el descubrimiento de nuevos fármacos para el tratamiento de enfermedades neurodegenerativas, como Parkinson y Alzheimer.

El laboratorio cuenta con equipamiento de última generación, similar al que se encuentra en laboratorios de Europa y Estados Unidos. Ya trabajan veinticinco investigadores del Conicet (entre ellos dos argentinos repatriados que vivían en Barcelona) y prevén llegar a los cincuenta el año que viene.

El edificio del Max Planck Rosario de 1500 metros cuadrados se alza en el predio de la Ciudad Universitaria conocido como La Siberia. En su interior, está operativo un equipo de Resonancia Magnética Nuclear, el más potente y sensible de la Argentina y uno de los cinco que hay en todo el mundo. Está montado con tecnología de criosonda, que permitirá investigar la estructura de biomoléculas directamente en el interior de las células, convirtiéndose este laboratorio en uno de los pocos en el mundo especializado en la técnica de “In Cell RMN”, una herramienta fundamental para el descubrimiento de fármacos en fase preclínica.

En áreas como ésta para realizar investigación competitiva son necesarias inversiones de gran escala. En este caso, un millón de euros para la adquisición del equipo de Resonancia Magnética Nuclear y de 300 mil dólares para los microscopios.

En la carrera por el conocimiento, la calidad de los microscopios hace las grandes diferencias, es por ello que también se firmó un acuerdo para establecer el Centro Internacional de Microscopía de Excelencia Nikon de la Universidad Nacional de Rosario que será el primero en su tipo en Latinoamérica y el séptimo en el mundo (actualmente hay un solo centro en Estados Unidos, en el prestigioso Scripps Research Institute, y otros cinco distribuidos en Europa).

“Esto pone a Rosario en un sitio de excelencia. Y es posible en el marco de la inversión estructural que lleva adelante el Estado para generar las condiciones para dar saltos cualitativos. Porque además de desarrollar fármacos nuevos, estamos adquiriendo la capacidad para colaborar con la Anmat para analizar y controlar la calidad de los medicamentos que se comercializan en el país. Ya no va a hacer falta tercerizar o mandar a hacer los estudios al exterior. Esto es soberanía tecnológica”, destacó Darío Maiorana, rector de la Universidad Nacional de Rosario.

En ciencia, el nombre Max Planck es sinónimo de primer nivel internacional. La Sociedad Max Planck es una prestigiosa red de 80 institutos de investigación –de los cuales sólo seis están fuera de Alemania y dos están en la Argentina– dedicados a la investigación científica.

La dirección del laboratorio está a cargo de Claudio Fernández, científico repatriado en el año 2006 por el Programa Raíces del Ministerio de Ciencia y Tecnología, y de reconocida trayectoria en el estudio de las enfermedades neurodegenerativas.


Fuente: Página 12

La culpa no era de la ciencia 




El Tribunal de Apelación de la ciudad italiana de L’Aquila absolvió a seis de los siete miembros de la Comisión de Grandes Riesgos condenados a seis años de prisión en primera instancia por desestimar los riesgos de un posible sismo en Los Abruzos días antes de que un terremoto devastara esta región italiana en 2009. El único que no fue absuelto por completo fue el subdirector del sector técnico del departamento de la Protección Civil, Bernardo De Bernardinis, que sin embargo vio su pena rebajada a dos años de reclusión suspendida.

A los imputados se les atribuían los delitos de homicidio culposo múltiple y lesiones por negligencia. Bernardinis fue considerado por la Justicia culpable de estos cargos sólo en algunos casos, de ahí la reducción de su pena y que no haya sido absuelto.

El juicio en primera instancia comenzó el 20 de septiembre de 2011 y supuso el proceso más importante después de la investigación que se inició tras el terremoto del 6 de abril de 2009, que causó más de 300 muertos y devastó la región de Los Abruzos y el centro histórico de L’Aquila.

Un año después, en octubre de 2012, el tribunal de L’Aquila condenó a los siete acusados a seis años de prisión al considerarles culpables de los delitos que se les atribuían. Con su sentencia, el juez superó la petición de la fiscalía, que reclamaba para los acusados la pena de cuatro años de prisión.

Sobre los condenados pesaba la acusación de haber realizado en su encuentro “una evaluación del peligro sísmico totalmente aproximada, genérica e ineficaz en relación con la actividad de la comisión y con los deberes de prevención y precisión del riesgo sísmico”.

Los condenados ahora absueltos son el entonces presidente de la Comisión de Grandes Riesgos, Franco Barberi; el presidente del Instituto Nacional de Geofísica y Vulcanología, Enzo Boschi, y el director del Centro Europeo para la Formación y la Investigación de la Ingeniería Sísmica (Eucentre), Gian Michele Calvi. También el director del Centro Nacional de Terremotos, Giulio Selvaggi; el profesor de Física de la Universidad de Génova, Claudio Eva, y el director de la Oficina de Riesgo Sísmico de la Protección Civil, Mauro Dolce.

En la investigación participaron algunos vecinos de la capital de la región de Los Abruzos, que ofrecieron su testimonio sobre sus denuncias tras los temblores que se registraron continuamente en los meses previos a la gran sacudida, que alcanzó los 5,8 grados de magnitud en la escala de Richter. De hecho, esta parte de la investigación sobre el terremoto se abrió después de que una treintena de ciudadanos denunciaran que la Comisión de Grandes Riesgos se reunió el 31 de marzo de 2009, días antes del sismo, sin alertarles después del peligro que podían correr sus vidas.

Tras escuchar la sentencia, algunos de los vecinos de L’Aquila presentes durante la audiencia mostraron su indignación al grito de “¡Vergüenza!”. La misma reacción que tuvieron los vecinos que esperaron la sentencia fuera del tribunal, que mostraron su rabia y su desilusión a los medios de comunicación presentes.


Fuente: Página 12

¿Se agota el ajedrez? 




* Por Sergio Slipak

El ajedrez actual no puede pensarse por fuera del mundo de la computación. No porque no se pueda jugar sin acudir a una máquina, sino porque la tecnología interfirió en las mismas formas mentales de disponernos frente al tablero.

Las consecuencias concretas de la aparición de programas informáticos de análisis de posiciones representaron un progreso en el conocimiento teórico del juego, al brindar certezas sobre la evaluación de posiciones –que antes estaban sujetas a polémicas– y a su poder de almacenar la totalidad de partidas jugadas en el mundo.

¿Estamos ante la posibilidad del agotamiento del ajedrez? ¿Supera la máquina –inventada por el hombre– al mejor ajedrecista del mundo? ¿Son aprehensibles no ya el cuerpo de datos alojado en una máquina, sino los criterios conforme a los cuales se decide una jugada en una determinada posición? Un recorrido histórico por el camino de la relación hombre-máquina en el ajedrez nos puede ayudar a examinar la cuestión.

Los anhelos de construir una máquina con capacidad de “pensar” se remontan muy atrás en la historia de la humanidad. Casi tanto como el amor por el ajedrez. No pasó mucho tiempo antes de que se hiciera claro que éste era un juego que, por su simplicidad de reglas y complejidad estratégica, se prestaba como campo fecundo para estudiar las posibilidades de la inteligencia artificial. Producir un artificio que pudiera jugar (y bien) al ajedrez fue, entonces, una hazaña a cumplir.

En el siglo XVIII, el húngaro Wolfgang von Kempelen construyó una máquina que –decía– jugaba al ajedrez con maestría. La llamó “El Turco”. Se trataba de una figura humana que emergía de una gran caja, con un tablero en su superficie, y que contaba con una mano mecánica que respondía a las jugadas de los rivales humanos. “El Turco” desafió a grandes jugadores (incluido el mismísimo Philidor) y les ganó a muchos de ellos. Varias décadas después, se comprobó que se trataba de una complejísima ilusión: un ajedrecista de baja estatura controlaba al Turco desde la caja de engranajes. Mientras duró el engaño, sin embargo, el artificio fue extremadamente popular, presentándose en salas de teatro y atrayendo importantes audiencias.

Casi dos siglos más tarde, en 1948 –apenas una década después de sentar las bases conceptuales de la computabilidad–, el padre de la ciencia de la computación, Alan Turing, escribió el primer “programa” que jugaba al ajedrez. Se trataba de una serie de algoritmos escritos en papel para una máquina que todavía no existía. Pero Turing puso a prueba ese “programa”, jugando partidas en las que él mismo seguía los algoritmos, haciendo las veces de computadora.

Al año siguiente, apareció el primer paper dedicado a la teoría de la programación de una computadora que jugara al ajedrez. Se trataba del trabajo de Claude Shannon, que establecía las que –hasta hoy– son las dos tareas principales de un programa de ajedrez: la búsqueda dentro del árbol de posibles jugadas y la evaluación de una posición cualquiera en el tablero. Durante las décadas del ’50 y del ’60 aparecieron numerosos trabajos destinados a elevar el nivel de los programas existentes. El progreso de las investigaciones fue arrojando resultados escalonados: resolución de problemas de jaque mate en dos jugadas, posibilidad de juego de partida completa, triunfos de la máquina frente a jugadores amateurs.

Curiosamente, la carrera espacial no fue el único correlato de la Guerra Fría en el ámbito científico. En esos años, el Instituto de Física Teórica y Experimental (ITEP) de Moscú desarrolló un programa para jugar al ajedrez que inició hacia fines de 1966 un match por correspondencia con el Kotok-McCarthy, un software estadounidense. Nueve meses más tarde, el programa soviético se imponía 3-1 al norteamericano.

El ajedrez jugado por máquinas ya era, para entonces, una realidad. En 1970 se realizó el primer torneo de ajedrez exclusivamente para computadoras, algo que desde entonces se volvió regular, con un torneo anual en Estados Unidos y uno mundial cada tres años. Así comenzó una revolución en este campo, que implicó nuevas y refinadas técnicas computacionales y la inclusión de elementos exclusivamente ajedrecísticos, como las bases de datos de aperturas y finales.

Los avances, tanto en hardware como en software, se aceleraron vertiginosamente en la década siguiente. El programa Sargon, que en 1980 jugaba con un nivel de 1736 de ELO, tenía en 1991 un ranking de 2276. Muy pronto, el software de ajedrez –corriendo en computadoras personales– pudo desafiar a Grandes Maestros. A fines de los ’80, IBM empezó a desarrollar una computadora cuyo propósito exclusivo era jugar ajedrez, para lo que contrató a un equipo de la Universidad de Carnegie Mellon que había desarrollado un hardware especializado en la búsqueda en árboles de decisión. Esa máquina no era otra que la famosa Deep Blue, que en 1997 derrotó en un match a Gary Kasparov: la primera vez que una computadora vencía a un campeón mundial. En aquel entonces, Deep Blue podía computar 100 millones de posiciones por segundo. Hoy en día, sin embargo, las máquinas llegaron a un grado alto de perfeccionamiento conceptual: no solamente operan a través de “fuerza bruta” –es decir, con profundidad de cálculo de posiciones–, sino que también aplican leyes de índole estratégico.

Retomando las preguntas propuestas al principio, hay algo que hoy podemos asegurar: los programas más evolucionados de la actualidad juegan mejor que el campeón mundial, el Gran Maestro noruego Magnus Carlsen. Para dar una idea del significado de la expresión “mejor”, podríamos aventurarnos a pronosticar el resultado aproximado de un hipotético match entre ambos, en base a las estadísticas y al sistema ELO: un score probable, en un match a diez partidas, sería de cuatro triunfos para el programa y seis empates. Es decir, aun para el campeón mundial sería muy difícil, aunque no imposible, ganarle una partida a cualquiera de los programas líderes de ajedrez. Pero, al mismo tiempo, el mejor jugador humano del planeta estaría lejos de perder todas las partidas.

Esta definición nos lleva a preguntarnos, como al comienzo: ¿puede el ajedrez agotarse en un plazo relativamente breve? Si las computadoras ya superaron al hombre, ¿pueden ahora “refutar” el juego, mostrando caminos para forzar la victoria o secuencias que culminen en un empate forzado?

La respuesta es no. Las computadoras lograron agotar algunas posiciones muy simplificadas, con un número muy reducido de piezas, pero están aún muy lejos de lo que sería la perfección ajedrecística. Desde el punto de vista humano, aun en las situaciones “agotadas” (cuando hay muy pocas piezas sobre el tablero y los programas pueden presumir de un juego sin errores), no se puede “copiar” ese juego perfecto de la máquina. Trabajando sobre esas posiciones se puede aprender –como de un muy buen libro–, pero no se podría asegurar que una persona no cometa errores si le toca enfrentar una posición similar.

En este sentido, hay una idea que circula en nuestro ambiente desde hace años. Sostiene que así como el invento del automóvil no terminó con deportes como el atletismo o el ciclismo, tampoco es razonable suponer que el progreso de las computadoras termine con las competencias ajedrecísticas entre humanos.

Sin duda, para cualquier ajedrecista actual de elite es muy interesante explorar cuánto se puede aprender de las computadoras. Evidentemente, el humano no puede imitar a la máquina en sus cálculos de millones de opciones en segundos, pero está claro que podrá ir sacando conclusiones a medida que vaya conceptualizando el modo de jugar de los programas, profundizando en lo que sería el “estilo” de la computadora.

Con la aparición de las computadoras como modelo a imitar, el ajedrez habría dado un paso más en la “tendencia dinámica” que signó la evolución de las escuelas ajedrecísticas del siglo XX, desde la Escuela Clásica a la Escuela Soviética, pasando por el ajedrez “hipermoderno”, es decir, el proceso por el cual los elementos dinámicos fueron ganando terreno por sobre los estáticos. Dicho de otro modo: la importancia de la coordinación de las piezas fue imponiéndose, mientras que factores como la estructura de peones o el espacio fueron quedando (un poco) relegados.

La tarea de señalar lo que los programas podrían enseñarnos en distintas posiciones estudiadas por el ajedrez clásico, buscando conceptualizarlo de manera humana, está aún por hacerse. Y podríamos decir que se trata de una de las claves del ajedrez actual.

Es cuestión de tiempo: tarde o temprano el humano podrá conceptualizar diversas situaciones y sacar conclusiones sobre el juego de las computadoras, para progresar en la comprensión del “juegociencia”. Esto es algo que ya ocurre a nivel intuitivo: los jóvenes que juegan y analizan con los modernos programas durante horas y horas van asimilando muchos elementos que comienzan a formar parte de su estilo.

La tecnología también resulta un instrumento poderoso para sistematizar el material existente en el ajedrez disputado por humanos. En efecto, desde hace 25 años las bases de datos son imprescindibles en el entrenamiento de cualquier ajedrecista, al permitirle estar al tanto de las partidas disputadas hace un mes, una semana, o unas horas.

Con el hombre aprendiendo de su propio invento, se cierra un escalón de la espiral dialéctica del progreso. El humano crea la máquina que juega al ajedrez. La máquina llega a superarlo. El hombre se supera a sí mismo aprendiendo de la máquina.


Fuente: Página 12

Economistas 




* Por Alfredo Zaiat

La figura del economista ha adquirido un espacio desproporcionado en la consideración pública como analista, promotor y actor principal de la gestión de políticas. Es una distorsión que inunda de confusiones la interpretación de los acontecimientos económicos y sociales. El origen de esa desviación no se encuentra en la expansión de las finanzas, el desarrollo mediático y la ansiedad social por saber qué va a pasar, sino en la formación del profesional dedicado a estudiar la ciencia económica que luego se desempeña en el sector público y privado.

Esa (de)formación no es accidental, sino que es la expresión de las relaciones de poder en un determinado contexto histórico. Es una crisis global sobre cómo se despliega el saber económico. La debacle económica en los países centrales provocó el cuestionamiento a postulados que hasta hace pocos años eran considerados sagrados. Mientras la recesión, el estancamiento y el default sucedían en la periferia del capitalismo, el debate se dispersaba en culpar a gobiernos y políticos, pero cuando alcanzó a Europa y Estados Unidos la crítica se orientó también hacia el rol de los economistas y qué se estudia en la universidad. La impugnación adquirió intensidad porque los conocimientos convencionales no brindan herramientas para comprender por qué estalló la crisis en el centro y, en especial, por qué las propuestas tradicionales no sirven para salir del atolladero, sino que lo agudizan.

Desde la irrupción a mediados de año del “Llamamiento internacional de estudiantes de Económicas a favor de una enseñanza pluralista” se han ido sumando hasta totalizar 65 asociaciones de 30 países. El manifiesto suscripto comienza así: “No es sólo la economía mundial que está en crisis. La enseñanza de la economía está en crisis también, y esta crisis tiene consecuencias mucho más allá de los muros universitarios”. La mecha de esta rebelión la encendieron los estudiantes de Economía de la Universidad de Manchester, que crearon una sociedad llamada “Post-Crash Economics” para denunciar que sólo se les enseñaba una visión neoliberal de la economía y exigir cambios en sus planes de estudios. Desde entonces, decenas de asociaciones de estudiantes de todo el mundo se han ido sumando a la iniciativa.

El documento plantea que es el momento de reconsiderar la forma en que se enseña economía, puesto que la falta de diversidad no sólo perjudica la educación y la investigación, sino que limita la capacidad para lidiar con los desafíos del siglo XXI.

“El mundo real debe ser traído de nuevo a las clases, así como el debate y un pluralismo de teorías y métodos. Este cambio ayudará a renovar la disciplina y, en última instancia, a crear un espacio en el que las soluciones a los problemas de la sociedad se puedan generar”, indican. Explican que el pluralismo no sólo ayudará a enriquecer la enseñanza y dar un nuevo impulso a la disciplina, sino que conlleva la promesa de traer de vuelta a la economía al servicio de la sociedad.

Plantean que tres formas de pluralismo (teórico, metodológico e interdisciplinario) deben estar en el centro de los planes de estudio. El teórico, para ampliar la gama de corrientes de pensamiento representadas en los planes de estudio, alentando el debate y el aprendizaje críticamente de las ideas. Afirman que la uniformidad “es algo inaudito en otros campos; nadie tomaría en serio un programa de grado en Psicología que se centre sólo en Sigmund Freud o un programa de Ciencia política que estudie sólo el socialismo de Estado”.

El pluralismo metodológico implica la necesidad de ampliar la gama de herramientas que los economistas emplean para lidiar con cuestiones económicas. Está claro que las matemáticas y las estadísticas son cruciales para esta disciplina. Pero, con demasiada frecuencia, los estudiantes aprenden a dominar los métodos cuantitativos sin tener que discutir por qué deben ser usados, la elección de los supuestos y la aplicabilidad de los resultados. La enseñanza de la economía debe incluir además enfoques interdisciplinarios, puesto que la economía es una ciencia social; y fenómenos económicos complejos rara vez se pueden entender si se presentan en un vacío, separados de sus contextos sociológicos, políticos e históricos.

La insatisfacción ante la labor de los economistas también está presente en la corriente liberal. Uno de sus miembros, el dominicano Frederic Emam–Zadé Gerardino, publicó Los economistas como armas de destrucción masiva. Afirma que “los economistas no sabemos tanto como le hacemos creer a todo el mundo, y no debemos ser tan economicistas en nuestros enfoques y diseños de políticas públicas. Las personas no piensan sólo en términos económicos, ni son tan racionales como supone la mayoría de las teorías económicas, ni la realidad es tan simple como para sintetizarla en unas cuantas ecuaciones, ni siquiera en miles o cientos de miles de ecuaciones”. Observa que “esperar que la realidad vaya a comportarse de la misma manera que los números reaccionan a las variaciones de otros números en una hoja de cálculo en una computadora no tiene fundamento científico y el economista que pretenda que tiene ese conocimiento, es un peligro público”.

Desde otra posición del pensamiento económico, el documento de debate “Enseñanza y ensañamiento del neoliberalismo en la Facultad de Ciencias Económicas-UBA”, elaborado por Andrés Asiain, Rodrigo López y Nicolás Zeolla, también aborda el abuso de las matemáticas en el análisis económico. Calcularon que, en el plan de estudios de esa facultad, el 16 por ciento de la carga horaria de la carrera está compuesta por la enseñanza de matemáticas, y sube a casi el 30 por ciento si se agrega estadísticas y econometría. Comparan ese porcentaje con el destinado a la ciencia política o a la sociología, que no supera en cada caso el 3 por ciento, concluyendo que la utilización excesiva de las matemáticas es el resultado de un proceso que buscó separar a la economía de la política y los conflictos sociales para presentarla como un conjunto de conocimientos científicos presuntamente neutrales. “De esta manera se infunde en el estudiante una formación tecnocrática que elude discutir las implicancias políticas y sociales de las diferentes teorías económicas. Esta prestidigitación fue funcional al avance acrítico de la escuela neoclásica, cuyas recomendaciones de políticas de libre mercado favorables para una determinada minoría de la sociedad global, y en desmedro de las mayorías mundiales, fueron implementadas bajo el disfraz de que se trataba de medidas técnicas que eran el resultado de rigurosos análisis científicos”, señala esa troika de investigadores. Menciona a la vez que la descontextualización entre la realidad económica nacional y la formación que reciben los economistas se evidencia “en hechos insólitos como que la mayor parte de los egresados no haya estudiado la explotación de recursos naturales vitales para el país, como el petróleo y la minería. También se encuentra ausente el estudio de las economías regionales, así como el de las economías latinoamericanas”. El resultado es que el egresado de la carrera carece de elementos para comprender el funcionamiento de la economía argentina, ámbito central donde debería desarrollar su profesión.

Esta controversia de alcance mundial, a partir de la crisis en los países centrales sobre la formación y actuación de los economistas, es un marco conceptual inicial para abordar lo que parece incomprensible: la sucesión de papelones de gran parte de los economistas locales, analizando los diferentes acontecimientos económicos.


Fuente: Página 12

Acuerdo para la explotación de Litio en Jujuy 




Un convenio firmado por el gobernador Eduardo Fellner; por el CEO de YPF, Miguel Galuccio; el vicepresidente del CONICET, Santiago Sacerdote, y el decano de la Universidad Nacional de Jujuy, Rodolfo Tecchi, selló la puesta en marcha en Palpalá, Jujuy, del "Centro Científico, Tecnológico y de Innovación Productiva", que se ocupará de todas las etapas de ese proceso, desde la exploración y la extracción del litio hasta su comercialización.

Tras la firma, el gobernador Fellner expresó: "Se trata de la concreción de un sueño" y agregó que "si no se hubiera peticionado, insistido y empujado este proyecto no se hubiera dado otro paso más para seguir construyendo un país distinto como venimos haciendo entre todos".

Por su parte, Galuccio dijo que "la apuesta de YPF que estuvo abocada al petróleo y el gas, ahora tiene una pata en todas las energí¬as renovables y es la que encara Y-TEC. El proyecto del litio apunta al solucionar la problemática mundial en medio ambiente, parte del calentamiento global y la cantidad de emisiones de CO2, que es lo importante al final del dí¬a". El CEO explicó que "tenemos en la Argentina fábricas de autos híbridos y el motor de todo eso son las baterías de litio".

El acto se desarrolló en el piso 27 del Edificio de YPF en Puerto Madero, adonde también participaron senadores nacionales, funcionarios provinciales y empresarios, entre ellos, Sergio Tasselli, que cedió a Jujuy los terrenos en los que se instalará el Centro y dos hectáreas adicionales para la ampliación del mismo.


Fuente: Página 12

Las impresionantes imágenes
submarinas de Google Maps
 





Street View, la tecnología del servidor de aplicaciones de mapas de Google, fue más allá de los mapas de las calles del mundo y estrenó este viernes su primer mapeo tridimensional bajo el agua: el de la Gran Barrera de Coral, en Australia.

La incursión de Google en el mundo submarino permite a los usuarios zambullirse virtualmente en el mayor arrecife de coral del planeta y recorrerlo como cuando uno busca una dirección. Hasta ahora es posible conocer una gran parte de la Gran Barrera, así como Bondi Beach y la bahía de Sídney.

En la Gran Barrera de Coral se han detectado 30 especies de ballenas, delfines y marsopas, seis especies de tortugas marinas, 1.800 especies de peces y nueve especies de caballitos de mar.

Google se asoció con el equipo de investigadores australianos Catlin Seaview Survey para crear la base de datos de la barrera, declarada Patrimonio de la Humanidad por la Unesco en 1981.

Además de recorrerlos visualmente, la propuesta servirá para documentar los daños causados por un ciclón o para examinar los efectos del calentamiento global.

Esto último es importante, considerando que la Gran Barrera de Coral está en peligro. Se trata de un hábitat de cientos de especies distintas y algunas en riesgo de extinción, como el dugongo (parecido al manatí) y la gran tortuga verde.

Las imágenes son accesibles a través de Ocean Google Maps.


Fuente: BBC Mundo

Anticuerpo monoclonal demuestra mayor eficacia que la quimioterapia en melanomas




Un nuevo estudio (publicado en la revista New England Journal of Medicine) realizado en 418 pacientes revela la eficacia de un anticuerpo monoclonal, el nivolumab, en el aumento de la supervivencia global y de la respuesta al tratamiento de los pacientes con melanoma metastásico comparado con el tratamiento convencional con quimioterapia, la dacarbacina.

Ana Arance, especialista senior del servicio de Oncología del Hospital Clínicas, es una de las firmantes de este estudio, el primero en analizar el uso de este fármaco en pacientes no tratados previamente con melanoma diseminado.

La incidencia del melanoma avanzado aumenta año tras año, con 132.000 nuevos casos en el mundo, pero las opciones terapéuticas disponibles son muy limitadas. Nivolumab es un anticuerpo monoclonal dirigido contra el receptor de linfocitos PD1, que restaura una respuesta antitumoral mediada por el sistema inmune.

Este nuevo trabajo se centra en el 60% de pacientes con melanoma avanzado y no mutado para los que las opciones de tratamiento son aún más limitadas. En el estudio, multicéntrico e internacional, los pacientes recibieron el tratamiento con nivolumab o con el agente quimioterápico, la dacarbacina, que se utiliza como tratamiento de primera línea en este tipo de cáncer.

Los resultados demuestran que la supervivencia al año de los pacientes aumenta con el uso del anticuerpo respecto a la quimioterapia –73% con nivolumab respecto a un 42% con dacarbacina–, así como también lo hace la respuesta al tratamiento 40% vs 14% respectivamente. El riesgo de muerte con este anticuerpo se reduce en un 58% y los efectos adversos de la medicación son menores y menos graves que con la quimioterapia convencional.


Fuente: Agencia SINC

Las plantas nucleares de Francia e Inglaterra vierten isótopos radiactivos a Escandinavia 




Investigadores del Centro Nacional de Aceleradores en Sevilla han analizado el yodo-129 que hay en las algas y las aguas marinas situadas entre Noruega, Suecia y Dinamarca. Los resultados revelan que las concentraciones de este elemento radiactivo han aumentado por las descargas procedentes de las plantas de reprocesamiento nuclear de Sellafield (Reino Unido) y La Hague (Francia).

Si comparamos las cantidades del elemento radiactivo yodo-129 que existen en el medioambiente marino entre la era pre y postnuclear, se puede comprobar cómo han aumentado fundamentalmente debido dichas descargas.

El yodo-129 (129I) es un isótopo radiactivo que existe en la naturaleza de modo natural, pero también es un subproducto de la fisión nuclear por las actividades industriales y militares humanas.

Para este estudio se ha analizado un tipo de alga concreta, Fucus Vesiculosus, una especie que acumula el yodo en altos niveles, por lo que se puede emplear como bioindicador de la cantidad de 129I. Los investigadores también han estudiado su proporción respecto al isótopo cesio-137 (137Cs), y los datos reafirman las conclusiones.


Fuente: Agencia SINC

Cómo controlar los genes con tus pensamientos 




Suena a ciencia ficción, pero investigadores de un centro tecnológico suizo lo han conseguido. Los bioingenieros han aprovechado las ondas cerebrales humanas para transferirlas de forma inalámbrica a una red de genes y regular así la expresión de un gen en función del tipo de pensamiento. Los resultados se han publicado en la revista Nature Communications.

El investigador ha añadido que el control de la expresión génica a través del pensamiento “es un sueño que hemos perseguido durante más de una década”.

Una fuente de inspiración para este nuevo sistema de regulación de genes fue el juego Mindflex, donde el jugador lleva un auricular especial con un sensor en la frente que registra las ondas cerebrales. Usando esta técnica de electroencefalografía (EEG) se puede controlar un ventilador para guiar una bola entre diversos obstáculos.

El nuevo sistema también utiliza un auricular EEG. Las ondas cerebrales grabadas se analizan y transmiten de forma inalámbrica vía bluetooth a un controlador, que a su vez ‘controla’ un generador de campo electromagnético.

Este activa un implante que incorpora una lámpara LED que, a su vez, emite luz en el rango del infrarrojo hacia un cultivo con células modificadas genéticamente. La incidencia de la luz hace que las células comiencen a producir la proteína deseada.

Para regular la cantidad de proteína liberada, los sujetos de prueba fueron clasificados de acuerdo a tres estados de la mente: bioretroalimentación, meditación y concentración. Los ratones de prueba concentrados en una tarea presentaron unos valores medios de SEAP en el torrente sanguíneo. Cuando se relajaron por completo (estado de meditación), los investigadores registraron valores muy altos de SEAP en los animales de prueba. Pero en el caso de la bioretroalimentación, los roedores observaron la luz LED del implante en el cuerpo del ratón y fueron capaces de encenderla o apagarla a través de la retroalimentación visual. Esto a su vez se reflejaba en las cantidades variables de SEAP en el torrente sanguíneo de los ratones.


Fuente: Agencia SINC

Investigadores UBA crearon un polímero para la extracción de hidrocarburos no convencionales 




En el marco de un convenio con la petrolera estatal, un equipo de investigación de Exactas UBA creó un polímero que podrá utilizarse como agente de sostén en la extracción de hidrocarburos no convencionales. El original producto, cuya fórmula se mantiene en secreto, permitirá sustituir importaciones y reducir el gasto de energía durante el proceso de fracking.

“No hay muchos países en el mundo que fabriquen este tipo de cosas, por lo cual no sólo podremos sustituir importaciones sino que, además, podremos exportar este producto”, afirma Gustavo Bianchi, director general de Y-TEC, una empresa de tecnología creada por YPF y el CONICET.

El producto en cuestión es un polímero cuyas singulares propiedades lo hacen apto para actuar como agente de sostén durante el proceso de fractura hidráulica o fracking, un procedimiento que es necesario realizar cuando se quiere extraer hidrocarburos de yacimientos no convencionales.

El fracking es una técnica que consiste en inyectar en el pozo petrolero miles de litros de agua a muy alta presión con el fin de romper la roca madre que se encuentra a varios miles de metros de profundidad y en cuyos poros están retenidos el gas y el petróleo.

Así, a medida que el líquido a alta presión ingresa en el yacimiento, penetra en los poros de la roca madre y le provoca fracturas. De esa manera, los hidrocarburos allí retenidos comienzan a fluir y pueden ser extraídos.

Pero, si la roca no es “apuntalada” al mismo tiempo que se la agrieta, al momento de detener la bomba que produce la presión hidráulica la fractura volverá a cerrarse por el propio peso de la roca. Es por esto que, junto con el agua, se necesita enviar al fondo del pozo un agente de sostén que penetre en la fractura y la mantenga abierta.

Entre los materiales que se utilizan para apuntalar las fracturas -llamados “propantes”- se encuentran las arenas y los cerámicos. El problema de estos agentes de sostén es que son más pesados que el agua y, por eso, ésta no llega a transportarlos por arrastre hasta el fondo de la fractura.

La densidad no es el único factor que hay que considerar para que una sustancia pueda funcionar como agente de sostén. También, debe tener una dureza suficiente como para soportar las altas presiones con las que se trabaja en el fondo de los pozos petroleros. Además, debe ser resistente a los ácidos y a los álcalis e insoluble en la mayoría de los solventes.


Fuente: Tomá mate y avivate

Investigadores argentinos desarrollaron un ratón de última generación y para exportar 




La Argentina es el primer país de América Latina que recibe un pedido del más prestigioso banco de animales de experimentación del mundo. Los ratones fueron desarrollados por el equipo que dirige el científico Marcelo Rubinstein en un instituto del Conicet.

La particularidad del animalito es que, por ingeniería genética, se obtuvo en él una mutación que permite a los investigadores activar y desactivar, en células del cerebro, el receptor de una sustancia llamada dopamina. Esta sustancia interviene en muchísimos procesos biológicos y, así, los ratones resultan ideales para estudiar, con nuevas perspectivas, mecanismos subyacentes a enfermedades como la de Parkinson, la esquizofrenia y las conductas adictivas.

Los animales de laboratorio, crecientemente sofisticados, son fuente de divisas, no sólo por su eventual exportación, sino porque permiten efectuar en el país procesos que de otro modo deberían encargarse en el exterior.

¿Qué hace tan atractivos a estos ratones? La dopamina es un neurotransmisor, una sustancia que circula entre neuronas y que se vincula con la ‘recepción de premios’: produce una sensación de bienestar y gratificación y por eso, entre otras cosas, interviene en las conductas adictivas o en el nivel de motivación de la persona para una determinada actividad. Los D2 son ‘autorreceptores’: gracias a ellos la neurona se informa de cuánta dopamina liberó ella misma y así regula la producción: si liberó más, producirá menos y al revés, como el termostato que hace prender y apagar el motor de una heladera. Si, por ingeniería genética, anulamos el receptor D2, la neurona seguirá produciendo dopamina sin detenerse.


Fuente: Tomá mate y avivate

Una red mundial de telescopios robot puede controlarse desde la Web 




El programa Gloria es una red mundial de trece observatorios, distribuidos a lo largo de tres continentes y seis países, que se pueden operar a distancia desde Internet. Permite, así, que cualquier amante de la astronomía pueda estudiar la bóveda celeste.

La red de telescopios robóticos está en Europa, en América del Sur y en África. Hay uno en la Argentina (en el observatorio Pierre Auger), tres en Chile, cinco observatorios en España, dos en la República Checa, uno en Rusia y uno en Sudáfrica. Cuatro telescopios más se sumarán en breve.

Los usuarios que se sumen al programa podrán investigar sobre la actividad solar, la detección y caracterización de estrellas variables o proponer sus propias líneas de investigación. Lo podrán hacer programando las observaciones, solicitando tiempo de observación en los telescopios o bien empleando la base de datos de Gloria, a la que pude accederse online.

Gloria tiene su fundamento filosófico en la inteligencia colectiva: cuantos más ojos miren al cielo, más se podrá aprender del universo.

Gloria es un proyecto financiado por el séptimo programa marco de la Unión Europea (UE) e involucra a doce instituciones de siete países, del que participan la Universidad Politécnica de Madrid, el Instituto de Astrofísica de Canarias, la Universidad de Málaga y el Instituto nacional de Técnica Aeroespacial de España.


Fuente: La Nación

No hay comentarios:

Publicar un comentario