Programa 228

"La computadora tiene que aprender y, para eso,
es necesario que razone"




En esta emisión, contamos con la participación de Agustín Gravano, Profesor Adjunto del Departamento de Computación FCEN (UBA), Investigador UBA-CONICET, para reflexionar sobre la interacción a través del lenguaje entre humanos y computadoras.

Para comenzar, Agustín manifestó que "el lenguaje me fascinó desde siempre. Y descubrí que uno de los problemas a resolver es que las computadoras puedan manejar ese lenguaje. Enseguida me pareció impresionante la complejidad la dificultad de esos problemas que, para nosotros, son cosas naturales sin mayor esfuerzo. Hoy día, una de las cosas que mejor funciona es que las computadoras puedan leer un texto. Tanto es así que ya hay ejemplos por todos lados, como el caso de Stephen Hawking".

"La mayor dificultad histórica para llevar al usuario común las herramientas de procesamiento del habla radica en que la computadora pueda reconocer las palabras; es decir, poder transcribir las palabras. Cuando hablamos, emitimos un montón de sonidos y estamos preparados biológicamente para poder separarlos en fonemas, formar palabras y oraciones, y sacar significados. Todo esto para un computadora es muy difícil; incluso sólo la parte de reconocimiento del audio y generación de palabras (lo cual se conoce como reconocimiento automático del habla) fue una traba histórica. Recién hace unos diez años que este reconocimiento automático del habla tiene una solución aceptable", afirmó el invitado.

A continuación, Agustín agregó que "una vez superado lo anterior, surge el problema de que la computadora entienda las palabras. Allí, la dificultad excede al propio lenguaje. Aquí no sólo el problema es complejo sino que además es cultural porque el lenguaje define quiénes somos como seres humanos. El lenguaje no es una cosa aislada de nosotros. Para ejemplificar esta dificultad, supongamos que le preguntamos a un compañero de trabajo si Fulano vino a trabajar hoy. Tal vez, la respuesta sea sí o no. En ese caso, el diálogo es fácil de interpretar. Pero, normalmente, no funcionamos así sino que hacemos cosas raras con el lenguaje porque no somos directos. Las respuestas que damos -retomando el ejemplo anterior- son del estilo 'su auto está afuera'. Nosotros no tenemos ningún problema para identificar esa respuesta como algo afirmativo; pero una computadora necesita en este caso poder razonar: si me hablan del auto, quiere decir que el auto es de Fulano, y si el auto está en la puerta, quiere decir que Fulano está cerca. Todas estas cosas nosotros las sabemos; pero la computadora, no. Por eso, la computadora tiene que aprender y, para eso, es necesario que razone y saque conclusiones".

"Finalmente, en el caso de que la computadora pudiera reconocer lo que se le dice y entenderlo, el siguiente paso es que formule una respuesta. Eso depende enormemente de lo que se está hablando. Si se le pregunta a una computadora cómo va a estar el clima mañana, una vez que entiende el sentido de la misma, lo que deberá hacer es recopilar información del servicio meteorológico, sacar conclusiones y transmitir la respuesta. Tal respuesta se conoce como generación natural del lenguaje", agregó.

Programa 227

Malvinización



En esta emisión, contamos con la participación de Margarita Robertazzi (Psicóloga, Investigadora UBA y directora del Museo IMPA), Cecilia Figari (Psicóloga, Profesora en el Área de Veteranos de Guerra), Carlos Sánchez (Veterano de Guerra de Malvinas y miembro del Centro de Veteranos de Quilmes) y el "Vasco" Murúa (Trabajador del IMPA) para reflexionar sobre el concepto de "malvinización".

En primer lugar, Cecilia manifestó que "los veteranos de guerra estuvieron expuestos a diversas situaciones adversas. La primera fue, evidentemente, la guerra, a la cual van con limitados recursos de diversa índole (no sólo materiales). La segunda fue -una vez terminada la guerra- la ausencia políticas activas con respecto al cuidado de su salud, la inclusión laboral, políticas de seguridad social. A este período se lo denomina proceso de malvinización, en el cual la ausencia de políticas de Estado específicas provocó un desmantelamiento y desarticulación de significaciones posibles a lo vivido. Esto, indudablemente, fue un factor de riesgo importantísimo a nivel de salud de esta comunidad. Pero hubo un factor de gran fortaleza: el agrupamiento en diversos centros a lo largo del país. El encontrarse permitió la conquista de muchos derechos sociales (incorporaciones laboral, beneficios en la seguridad social, acceso a la salud)".

Segundo, Carlos continuó la línea anterior comentando que "hubo una consecuencia ilógica -como fue la Guerra de Malvinas- en un país de paz. Muchas veces fuimos mirando de otra manera, justamente, por ese hecho traumático. Por eso, se encasilla al veterano como un potencial 'loquito de la guerra'. En un principio, pasamos de ser

Resumen científico - 100

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Adrián Paenza: "El país no es una corporación" 




El matemático y periodista Adrián Paenza volvió a la TV Pública y arrancó su programa con un duro discurso contra el Gobierno y fuertes críticas al ministro de Ciencia y Tecnología, Lino Barañao.




"Yo no quería trabajar para este gobierno, no quiero trabajar para la administración de Macri", fue la apertura de su discurso al comienzo de la nueva edición de su prestigioso programa "Científicos: Industria Argentina". "Había decidido no hacerlo y estaba tranquilo con mi decisión. Hasta que mucha gente habló para decirme que no iba a trabajar con el Gobierno de Macri sino que íbamos a ser los intermediarios de la ciencia argentina", dijo Paenza.

Muy crítico con el Gobierno actual, opinó: "No podemos hace de cuenta que no pasó nada. Han pasado muchas cosas y están pasando muchas cosas muy serias en la Argentina".

"El gran acierto de la última década, para ponerle algún nombre, es que la ciencia pasó a formar parte siendo un actor principal. Pero no de la boca para afuera. Claramente hubo una intencionalidad de convocar a la ciencia para que se tomaran decisiones que nos importen para tener soberanía", resaltó el periodista sobre el gobierno de Cristina Kirchner.

Sin embargo, señaló que ahora "la sociedad eligió un modelo distinto. Un modelo donde se privilegian las corporaciones" y, según Paenza, en este modelo "la ciencia puede transformarse en un bien de consumo".

"Pero la ciencia no puede hacerse como si estuviéramos en una burbuja en donde no pasa nada. Durante mucho tiempo discutíamos proyectos y ahora estamos discutiendo salarios nuevamente. Una época que parecía olvidada", lamentó.

Sobre esta situación, Paenza aseguró que "no hay visiblemente alguien que esté muy preocupado". "El ministro [Lino Barañao], que estuvo hiper capacitado para el lugar, dijo que se quería quedar para ser la garantía de que lo que había sucedido antes pueda continuar. Yo le quisiera decir que para que continúe el no tiene que atajar ningún penal ni sentirse como que es el equilibrista del Cirque du Soleil”.

"Luchar desde adentro significa denunciar lo que es inaceptable. No poner la firma como si se sintiera avergonzado de ser parte del gobierno anterior. Tiene que ser el que se ponga al frente de los reclamos", reclamó. "No hacer de cuenta como que nada se modifica, nada pasa y viva todo y tiremos globitos amarillos y festejemos. La ciencia no es un PowerPoint. Es tomar riesgos para poder innovar", insistió el periodista.

Para Paenza, "el país está en una situación muy delicada con respecto a la ciencia". "Con todos los problemas de presupuesto que había antes -no quiero ni contarles los problemas de presupuestos que hay ahora- pero el presupuesto tiene que venir con un plan", dijo. Y concluyó: "El país no es una corporación, el país es un lugar inclusivo, todos tenemos que formar parte. Nos interesa la soberanía".


Fuente: La Nación

Una multitud unida por la universidad pública 




Docentes y estudiantes, agrupaciones de izquierda, kirchneristas y hasta Franja Morada, entre otras organizaciones, marcharon para exigir más fondos para las universidades nacionales, incrementos salariales y el boleto educativo.

“Lo esencial es invisible a los ojos... de Macri”, decía uno de los carteles que asomaba por encima de las cabezas. No se veía una protesta universitaria de ese tamaño desde 2001, cuando Ricardo López Murphy, en pleno gobierno de la Alianza, recortó violentamente el presupuesto del sector. Ayer, frente al Palacio Sarmiento, las agujas del reloj parecieron haber girado en reversa. Los docentes universitarios, los no docentes y los estudiantes protagonizaron una multitudinaria protesta contra el ajuste en la universidad pública, esta vez en la versión Cambiemos. Los organizadores estimaron que la movilización reunió a más de 50 mil personas.

Los universitarios vienen de hacer, esta semana, paros y jornadas de protesta con clases públicas que sacaron a todo el mundo académico a la calle. Así, la marcha se hizo ver, sobre todo, por su masividad. Pero mirada de cerca, lo que llamaba la atención fue su integración, porque detrás de los profesores se encolumnaron –en un número que los multiplicaba– los alumnos de las facultades y muchos chicos que están cursando los últimos años del colegio secundario, que adhirieron al pedido de aumento salarial para sus profesores.

La convocatoria incluyó varios puntos de reclamo. En el tope estuvo el tema del presupuesto. Los fondos para el funcionamiento de las universidades fueron aprobados el año pasado, y con la devaluación y la inflación quedaron totalmente desfasados.

Bajo la pancarta de su casa de estudios (“Contra el ajuste defendemos la universidad pública”), el arquitecto José Rubén Dagna dio a Página/12 un botón de muestra: “El edificio de la Facultad de Arquitectura está en obra. El presupuesto ya se acabó, pero la obra está por la mitad”. Agregó que por esa facultad de la UBA pasan diariamente 30 mil alumnos en tres turnos. “Tenemos cada vez más estudiantes porque absorbemos una parte del CBC. Es decir que necesitamos más aulas y espacios para trabajar. Pero con el presupuesto actual se está recortando todo, hasta los gastos de limpieza”.

El aumento de los servicios de electricidad y de gas es el problema más extendido y claro, común al conjunto. Otro ejemplo: la Universidad de La Matanza recibió en febrero un aumento del 600 por ciento y tuvo que pagar 700 mil pesos de luz. Por esto, en el documento consensuado que los gremios y federaciones de estudiantes leyeron como cierre de la jornada reclamaron “un aumento del presupuesto universitario que contemple el incremento de las tarifas” pero agregaron que además debe garantizar “la continuidad de toda la actividad educativa”.

El presidente Mauricio Macri aseguró que las universidades recibirán un extra de 500 millones de pesos para compensar la suba de los servicios, pero para muchos sectores ese monto no alcanza. “No se está debatiendo si las universidades pueden pagar o no la luz, se está hablando de la continuidad de la universidad pública”, remarcó en este sentido el secretario adjunto de la Conadu Histórica, Antonio Roselló.

Otro punto en reclamo son los sueldos, ya que el ministro Esteban Bullrich viene ofreciendo a los docentes del sector un 31,6 por ciento de aumento para este año, a pagar en tres tramos, el último en enero de 2017. Los gremios rechazan la propuesta. “Venimos de diez años de acordar incrementos de salarios. Año tras año, los aumentos superaban a la inflación; en cambio hoy estamos peleando por una recomposición para recuperar lo que perdimos con el aumento de los precios”, señaló Daniel Ricci, secretario general de la Federación de Docentes de las Universidades (Fedun).

La marcha salió de la Plaza Houssay. Sobre los canteros, desde las primeras horas de la tarde, se reunieron los centros de estudiantes. Estuvieron todas las agrupaciones estudiantiles. Hasta Franja Morada marchó contra las medidas de Macri. “¿No estaban con Cambiemos?”, preguntó Página/12 a Josefina Mendoza, dirigente de Franja y vicepresidenta de FUA. “Muchos piensan lo mismo”, contestó ella y se rió. Después añadió que están, “pero marchamos porque compartimos los reclamos”.

Para los estudiantes, un punto aglutinador es el pedido de un boleto educativo nacional. Se trata de un reclamo histórico, reactualizado por la suba del pasaje. “En la provincia de Buenos Aires, el año pasado se aprobó una ley para tener boleto estudiantil. Los fondos ya estaban dentro del presupuesto 2016, pero (la gobernadora María Eugenia) Vidal no lo implementó con el argumento de la crisis”, señaló Antonio Domínguez, alumno de la Facultad de Periodismo de La Plata y militante de Miles. “En Rosario, el pasaje está a ocho pesos”, apuntó a su vez Magali Alesso, presidenta del centro de estudiantes de Psicología de Rosario e integrante de la Santiago Pampillón. “No es un tema menor, porque nos cuesta llegar a la facultad”.

La movilización avanzó por la avenidas Córdoba y después por Callao hasta llegar frente a la Plaza Rodríguez Peña, ubicada frente al Ministerio de Educación. Un camión cruzado sobre la calle hizo las veces de palco. Los dirigentes de las seis federaciones docentes leyeron allí un documento consensuado. En él reclamaron al gobierno:

- Recomposición salarial para recuperar lo perdido por la devaluación, la inflación y los tarifazos.
- Aumento de presupuesto universitario.
- Cumplimiento de los convenios colectivos de trabajo.
- Boleto educativo universal y gratuito, y más becas estudiantiles.
- Derogación de la Ley de Educación Superior –vigente desde el menemismo– y su reemplazo por una nueva que garantice la enseñanza, investigación y extensión universitaria, el ingreso irrestricto y la gratuidad de la educación.
- El cese de los despidos y la inmediata reincorporación de los cesanteados.

Entre los manifestantes hubo un buen grupo de rectores y autoridades universitarias. Jorge Calzoni (Avellaneda), Ernesto Villanueva (Arturo Jauretche), Mario Lozano (Quilmes), Gabriela Diker (General Sarmiento), Graciela Morgade (Filosofía y Letras - UBA), Federico Tea (José C. Paz), Florencia Saintout (Periodismo - La Plata) y Marcos Actis (Ingeniería - La Plata) fueron algunos de ellos.

Nora Cortiñas, de Madres Línea Fundadora, se acercó a dar su respaldo. También estuvo Hugo Yasky, titular de la CTA de los Argentinos.

Una muestra de lo complejo que fue para las federaciones docentes lograr unidad para esta protesta fue que, después de leer el documento conjunto, una parte de las organizaciones, encabezadas por la Conadu Histórica y agrupaciones de izquierda, marcharon a la Plaza de Mayo, mientras que otra parte, con la Conadu, la Ctera y militancia kirchnerista, se quedaron en el lugar para hacer su acto.

Sin embargo, antes de desconcentrar, los manifestantes se dedicaron un aplauso por la marcha conjunta. “Todos los esfuerzos por la unidad tienen que ser valorados”, indicaron desde el palco, “porque lo que tenemos enfrente son las corporaciones”.


Fuente: Página 12

Ingreso irrestricto y eficiencia 




Por José Paruelo

Cómo hace unas semanas lo hizo Héctor Masoero, Alieto Guadagni (miembro, como Masoero, de la Academia Nacional de Educación) cuestionó algunos aspectos distintivos de la universidad argentina. En un artículo publicado en La Nación, Masoero se preguntaba si la gratuidad de la enseñanza promovía la igualdad y cuestionaba una ley promulgada en el gobierno anterior. En un artículo publicado en Página/12 (26/03/16) cuestioné algunos supuestos en los que pretendía sustentarse ese artículo: el arancelamiento de los estudios superiores. El Sr. Guadagni critica, en un artículo aparecido en Clarín, los requisitos de ingreso a la universidad. Cuestiona la ineficiencia que representa permitir que todos aquellos que terminan la escuela secundaria ingresen a la universidad pública. Cuestiona la ausencia de un mecanismo que seleccione a los “mejores”. Esto, argumenta, permitiría reducir la deserción y aumentar la eficiencia.

Durante los 90 se instauró una mirada de la educación importada desde otro ámbitos, particularmente el empresarial. En ese marco se buscó evaluar beneficios y costos y derivar indicadores. Uno de estos indicadores es la eficiencia, o sea la relación entre el “producto” del sistema (sería el graduado de la universidad) y los “insumos” gastados (medidos por el monto asignado por el presupuesto nacional a las universidades). El concepto de eficiencia (cantidad de producto/insumos) es extremadamente útil para evaluar el desempeño de, por ejemplo, una fábrica de tornillos: en este caso es muy simple identificar los productos y los insumos para fabricarlos.

Pero, ¿cuál es el producto de la universidad? Hay un modelo de educación superior que está orientado solamente a producir profesionales, “graduados”. Hay otro modelo, el de la universidad pública heredera de la reforma universitaria de 1918, donde el énfasis esta puesto en las funciones. En este modelo, la universidad debe cumplir con tres funciones: generar conocimiento, aprender/enseñar y extender los frutos del conocimiento a la sociedad. ¡Ese modelo no especifica productos! Claramente, el hacer cotidiano de la universidad genera productos: artículos científicos, libros, maneras de pensar, ámbitos de discusión, ideas novedosas, conciencia, médicos, licenciados en letras, etc. En última instancia, cultura. Por supuesto, celebramos que la mayor parte de los ingresantes a la universidad se gradúen y que se publiquen muchos artículos en las mejores revistas. Es ocioso aclararlo. El punto es a expensas de qué maximizamos esos productos tangibles y cuantificables. Si para lograrlo, como propone el Sr. Guadagni, hay que restringir el ingreso, ese modelo de universidad se desdibuja, sus funciones se resienten.

Como suele ocurrir, aquí también aparece la ideología. Una de las perspectivas ideológicas desde la cual se piensa este tema es que, asegurado el acceso a la educación primaria y secundaria, la situación en que llega un estudiante a un eventual examen de ingreso es fruto del esfuerzo individual. Garantizada la “igualdad de oportunidades”, aparecen sólo diferencias asociadas al mérito. Este planteo desconoce aspectos fundamentales de la estructura de la sociedad: la existencia de minorías sojuzgadas, explotadores y explotados, diferencias de género, profundas desigualdades de acceso a bienes económicos y culturales, etc. Todo esto lleva a que la situación desde la cual un egresado de la secundaria enfrenta un examen de ingreso sea muy distinta según su contexto económico, social, cultural e, incluso, geográfico. Y que, obviamente, no tenga que ver con su esfuerzo y sus méritos. Este cuestionamiento suele contestarse con un “es prioritario mejorar la escuela secundaria”. Es cierto, pero ¿y mientras tanto? Es más, ¿las desigualdades sólo se asocian a la formación secundaria?

Permitir el ingreso a la universidad a todos es darle una oportunidad a la igualdad. Pero es más que eso, es diversificar la composición social, las historias de vida, las aspiraciones y las realidades culturales del claustro de estudiantes. Eso tiene enormes virtudes, no sólo para aquel que proviene de un secundario no tan bueno, también para el estudiante que hizo su vida escolar en colegios pagos en barrios cerrados.

Mi universidad, la UBA, eliminó el examen de ingreso apenas se pudo salir de la dictadura cívico-militar. Desarrolló un sistema para acompañar a los estudiantes en el proceso de inserción en la exigente vida universitaria: el Ciclo Básico Común. En él se busca incluir al estudiante y no expulsarlo. Por supuesto, el sistema es perfectible pero luego de varias décadas ha mostrado sus virtudes al facilitar el proceso de nivelación de estudiantes que llegan en peores condiciones a los estudios superiores. Por supuesto que hay deserción. Pero, ¿qué tan grave es? Incorporar, aunque sea temporalmente, a la universidad a jóvenes es muy positivo para ellos y para la sociedad como un todo. De esa experiencia salen mejores. El título del artículo de Guadagni indica que nuestra universidad desperdicia recursos. ¿Haber mantenido en el sistema educativo por uno o dos años a nuestros jóvenes es un desperdicio? No, ¡es más educación!

¿Tiene el ingreso irrestricto y el supuesto despilfarro que eso implica consecuencias negativas sobre la universidad y su calidad? No podemos en estos casos hacer un experimento crítico para evaluar la hipótesis asociada a esa pregunta. Sin embargo, algunas evidencias sugieren que no es así. La UBA es la universidad iberoamericana mejor ubicada en el ranking mundial. Teniendo ingreso irrestricto desde hace décadas se posiciona mejor en una serie de indicadores de calidad (número de graduados, generación de conocimiento e impacto en la sociedad) que todas las universidades brasileras o españolas. No figuran en esa base de datos los presupuestos, pero con seguridad la UBA fue capaz de ocupar ese lugar con una fracción muy pequeña del dinero del que disponen universidades europeas o norteamericanas. Si traicionando mi convicciones calculara la eficiencia en el uso de recursos, seguramente la UBA pelearía el top ten. Pero no lo voy a hacer, no hace falta caer en eso...


Fuente: Página 12

Desmontes: un fallo judicial inédito
con aporte de la universidad
 





En un fallo inédito, el Poder Judicial de la provincia de Salta condenó a un productor agropecuario a cumplir una pena de seis meses de prisión por el desmonte ilegal de 12 mil hectáreas de bosques nativos, que también podría involucrar el pago de una multa 171 millones de pesos. El fallo, además de sentar un importante precedente, motivó el desarrollo de una investigación que determinó, por primera vez, cuánto tiempo llevaría recomponer aquella área afectada.

El estudio técnico que apoyó la presentación de los fiscales fue realizado por un grupo de expertos multidisciplinares de la Universidad Nacional de Salta, la Universidad de Buenos Aires, el INTA, la Dirección de Bosques de la Nación y el Cuerpo de Investigaciones Fiscales (CIF), y se presentó en marzo de 2016.

En un período de entre 10 y 20 años, un bosque desmontado alcanzaría un nivel de recuperación aceptable, si se abandona la agricultura.

“Concluimos que el bosque original, con las características que tenía cuando se lo destruyó, probablemente no lo podamos recuperar hasta después de mucho tiempo. Pero sí podemos recuperar muchas de las funciones de ese bosque en un plazo relativamente corto, de unas pocas décadas”, afirmó José Paruelo, director del Laboratorio de Análisis Regional y Teledetección (LART), de la Facultad de Agronomía de la UBA (FAUBA), e investigador superior del CONICET.

El resultado de las investigaciones que la FAUBA y otras instituciones viene realizando logró modificar la perspectiva de las acciones que promueve el poder judicial. A diferencia de los fallos anteriores, ahora ya no alcanza con pagar una multa por haber desmontado en una zona prohibida por la Ley de Ordenamiento Territorial de Bosques Nativos. Esta vez, la Justicia impide continuar haciendo agricultura en ese lugar y determina la necesidad de restaurar ese área.

Campos restaurados

Las investigaciones de la FAUBA, cuyos resultados aportaron a la causa judicial, incluyeron el uso de información satelital, visitas al campo y la realización de una serie de estudios en los cuales participaron docentes y tesistas de posgrado junto a investigadores de INTA.

Al respecto, Paruelo destacó los estudios doctorales de Pablo Baldasini, que evalúa los cambios del carbono orgánico en el suelo, de Laura Amdan, quién midió cómo el desmonte aumenta la recarga de acuíferos y potencia la salinización de los suelos, así como de María Vallejos, quién cuantificó las tasas de deforestación.

“Con esa información, y a partir de trabajos de síntesis realizados con otros docentes e investigadores (Gervasio Piñeiro y Marcos Texeira) elaboramos un índice de cambio en el nivel de provisión de servicios ecosistémicos. Este índice permitió cuantificar el daño provocado por la deforestación. Por otro lado, a partir de la tesis de María Basualdo, quien ahora es docente de la Universidad Nacional de Santiago del Estero, se estimó el tiempo que involucraría la restauración de esos campos desmontados”, explicó.

Los investigadores identificaron decenas de lotes que habían sido desmontados en diferentes momentos para hacer agricultura en la región del Chaco Salteño y Santiagueño, pero que luego se habían dejado de cultivar por diferentes razones. Con sensores remotos y estudios a campo, se pudo conocer cuándo habían sido deforestados y comparar cómo se había modificado la provisión de servicios ecosistémicos en relación a los bosques vecinos, que habían quedado intactos.

“Pudimos comparar cuánto se parece ese bosque a lo que era antes de ser deforestado, en función de la edad del abandono. Y encontramos un parecido importante después de un período que va 10 a 20 años. No es exactamente igual, pero alcanza un nivel de semejanza que es equivalente al que surge de las diferencias que existen entre parches de bosque. Por eso decimos que logramos un nivel de recuperación aceptable”, dijo Paruelo.

“En las áreas donde se había abandonado la agricultura, medimos diferentes aspectos relacionados con la estructura del bosque, la composición de especies, la biodiversidad, las ganancias de carbono y la productividad del sistema a lo largo del año, y advertimos la necesidad de suspender cuanto antes las prácticas agrícolas para dar comienzo a un proceso de restauración pasivo, porque cuando esa zona desmontada se abandonaba relativamente temprano, podemos esperar que en ese plazo de una o dos décadas se recupere una buena parte de las funciones que tenía el bosque”, agregó.

“Es importante que el desmonte en estas áreas prohibidas se frene cuanto antes porque la capacidad de recuperación depende del estado del banco de semillas y propágulos y del tamaño del desmonte. Si las superficies desmontadas son muy grandes y viejas, y con más historia agrícola, su capacidad de recuperación seguramente va a ser menor”, concluyó.


Fuente: FAUBA UBA

Dos equipos argentinos viajan a la final del mundial de programación 




Del 15 al 20 de mayo se lleva a cabo en Tailandia la instancia final del certamen mundial de programación más prestigioso del mundo: la International Collegiate Programming Contest. A esta prueba sólo llegan los mejores 128 equipos del mundo, tras superar exámenes entre más de 40 mil estudiantes de 2.700 universidades.

Y para esta final clasificaron dos equipos argentinos: uno de la Universidad Nacional de Rosario (UNR) y otro de la UBA, que vienen entrenando desde hace meses en busca de un lugar destacado en los podios.

“Esta prueba ya se volvió histórica: es la edición número cuarenta y la auspicia la Asociation for Computing Machinery, que hoy es la principal sociedad profesional del área informática”, detalló Irene Loiseau, profesora del Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la UBA y directora de la filial local de la competencia.

Loiseau estará al frente de una mini-delegación que incluye a los dos equipos que lograron la clasificación y que viajan con al apoyo económico del Ministerio de Ciencia, Tecnología e Innovación Productiva de la Nación.

“En la instancia final nos dan una docena de problemas. Sólo tenés cinco horas y una única computadora para los tres. En ese lapso tenemos que resolverlos, diseñar los algoritmos y codear el programa necesario, así que nos dividimos las tareas y cada uno se especializa en algo diferente”, detalló Pablo Zimmermann, estudiante del último año de la Licenciatura en Computación de la UNR.

El equipo, que conforman además Mariano Crosetti y Martín Villagra, se reúne al menos dos veces por semana para entrenar ocho horas, resolviendo conjuntos de problemas similares y analizando junto a su coach, Leopoldo Taravilse, cómo trabajar para bajar los tiempos y hacer todo en forma eficiente.

El equipo “Pummas ” de la UBA está integrado por Sebastián Prillo, Alfredo Umfurer, Miguel Maurizio y su entrenador es Agustín Gutiérrez. “Para poder clasificar para Tailandia tuvimos que superar dos instancias anteriores, una nacional y otra regional, compitiendo con equipos de Argentina, Uruguay, Chile, Paraguay, Perú y Bolivia”, explicó Maurizio.

¿Cómo entrenan? “Hacemos problemas de informática, leemos teoría de algunos temas y, sobre todo, participamos de simulacros de competencias antiguas, con ensayos que duran cinco horas, tal como ocurre en la final”.

Tradicionalmente dominadas por estudiantes de Rusia y de China, los ganadores del mundial de programación, aparte de un premio de US$ 10 mil, logran un prestigio profesional que encamina sus carreras académicas. “Además, esa visibilidad y el prestigio de los finalistas se extiende a las universidades de donde provienen los participantes”, finalizó Loiseau.


Fuente: UBA

Una idea con muchos beneficios 




En el marco de la competencia TECNOx, un equipo de jóvenes científicos presentó un detector portátil de dengue de bajo costo que, de manera muy sencilla, permitiría distinguir las cuatro cepas del virus. El dispositivo, actualmente en desarrollo, apunta al diagnóstico temprano de la enfermedad, con una especificidad que evitaría confundirla con el zika o el chikungunya.

Mientras la epidemia de dengue sigue azotando a nuestro país, las autoridades sanitarias parecen limitarse, casi exclusivamente, a informar la cantidad de casos confirmados de la enfermedad. Pero esos números, que son personas, esconden una cifra significativamente mayor de afectados, que la ineficacia del sistema de salud no permite detectar.

El diagnóstico certero no sólo es relevante para alimentar correctamente las estadísticas. La confirmación de un caso de dengue y, particularmente, la determinación de cuál de las cuatro variedades virales es la responsable de la enfermedad es, literalmente, de importancia vital. Porque si una persona sufre una segunda infección, con una cepa viral distinta a la primera, padecerá la forma grave del dengue -la fiebre hemorrágica- que puede llevar a la muerte.

No obstante, debido a que el cuadro clínico de la primera infección suele ser parecido al de otras enfermedades virales comunes, es habitual que pase desapercibido o subdiagnosticada. Por otro lado, las zonas más afectadas por el dengue suelen ser poblaciones de bajos recursos, con difícil acceso a servicios médicos públicos adecuados. También es importante que el diagnóstico se efectúe tempranamente, porque eso evita que el paciente reciba un tratamiento inapropiado que puede agravar su salud.

Las pruebas de laboratorio que posibilitan confirmar un caso de dengue demandan tiempo, son costosas (utilizan insumos importados) y requieren de cierta infraestructura, equipos y personal entrenado. Por lo tanto, contar con un método de diagnóstico efectivo, rápido, simple y económico resulta entonces de vital importancia.

En ese camino, un equipo de estudiantes –de grado y de doctorado– de la Universidad de Buenos Aires decidió aplicar sus conocimientos para desarrollar un detector de dengue portátil y de bajo costo que, de manera muy sencilla en comparación con los métodos actuales, permita distinguir las cuatro cepas del virus en etapas tempranas de la enfermedad.

La idea, actualmente en desarrollo, fue presentada en la competencia TECNOx, Estudiantes latinoamericanos articulando tecnologías, que se llevó a cabo en la Facultad de Ciencias Exactas y Naturales de la UBA.

Interruptores sintéticos

El desarrollo está sustentado en ideas y herramientas provenientes de la biología sintética, un área del conocimiento aplicado al diseño de sistemas biológicos que no existen en la naturaleza.

“Nuestra propuesta es el desarrollo de una tecnología que permita detectar el genoma viral mediante interruptores de ARN”, explica un integrante del equipo de la UBA. El ARN (ácido ribonucleico) es una molécula lineal que “transporta” información genética hacia los ribosomas de las células para que éstos “traduzcan” dicha información y, con ella, dirijan la fabricación de proteínas.

El ARN ideado por el equipo de la UBA puede portar información para, por ejemplo, crear proteínas que, mediante una reacción química, generen colores visibles al ojo humano. Además, fue diseñado para que la molécula de ARN se enrolle sobre sí misma en forma de bucle, escondiendo en su interior la zona de unión al ribosoma. De esta manera, funciona como interruptor porque sólo podrá fabricar proteínas “visibles” si se lo desenrolla.

Y aquí está la frutilla del postre: la molécula de ARN desarrollada incluye en su diseño zonas que, en presencia de secuencias genéticas específicas del virus del dengue, tratan de unirse a ellas. Ese proceso, desestabiliza la molécula de ARN y la desenrolla, permitiendo, ahora sí, la unión al ribosoma y la fabricación de proteínas.

La especificidad del método permite distinguir al dengue de la infección por zika o chikungunya, que son causadas por virus muy parecidos y que, muchas veces, algunos métodos de detección tradicionales las confunden.


Fuente: FCEN UBA

Con cuatro nuevos satélites, Argentina e Italia
vuelven a ser socios en el espacio
 





Se firmó un acuerdo para desarrollar la segunda etapa del programa Siasge, el Sistema Ítaloargentino de Satélites para la Gestión de Emergencias.

Sumarán hasta 10 satélites volando en la misma órbita y observando el mismo punto con instrumentos que adquieren información en diferente longitud de onda. La constelación del Sistema Ítaloargentino de Satélites para la Gestión de Emergencias (Siasge) no sólo será "lo máximo" del estado del arte en tecnología satelital, sino la más importante que recorra el espacio tomándole el pulso a la Tierra.

Este prodigio de la ciencia espacial, cuya primera etapa (Siasge I) ya está en marcha, será posible gracias a la estrecha colaboración que comenzó hace poco más de una década entre la Agenzia Spaziale Italiana (ASI) y la Comisión Nacional de Actividades Espaciales (Conae).

Hoy, esa sociedad en el espacio da otro gran paso. Roberto Battiston, presidente de la ASI, estuvo en Buenos Aires para firmar un acuerdo que permitirá iniciar una nueva edición del programa, el Siasge II, que sumará cuatro satélites nuevos a los seis ya programados, dos italianos y dos argentinos. "Construiremos dos nuevos Cosmo SkyMed y dos nuevos Saocom. Será la constelación más grande del mundo de satélites de última generación", afirma Battiston tras una reunión en el Ministerio de Ciencia, Tecnología e Innovación Productiva.

En virtud de acuerdos de cooperación bilateral, en 2005 la Argentina e Italia acordaron el funcionamiento conjunto de sus respectivos satélites de observación de la Tierra: los dos argentinos Saocom 1A y 1B, equipados con sistemas de radar en banda L, y los cuatro Cosmo-SkyMed italianos, con sistemas de radar en banda X. De esta manera, funcionando en conjunto los seis satélites se complementan y se potencian sus aplicaciones, para ofrecer productos y servicios de teledetección con radar de apertura sintética (SAR), especialmente aptos para seguimiento de inundaciones y conocimiento de la humedad de suelo, entre otros numerosos beneficios para actividades socioeconómicas y el cuidado del medioambiente. Los Cosmo ya están en órbita y los satélites Saocom están en su última etapa de desarrollo.

Los Saocom son dos satélites gemelos que orbitarán a 180 grados uno del otro; es decir, que cuando uno está subiendo hacia el Ecuador por el meridiano de Greenwich, el otro va bajando por el antemeridiano. Los Saocom 1A y 1B serán lanzados en 2017 y 2018, y la ASI planea lanzar los Cosmo SkyMed en 2018 y 2019.

Al formar parte de una constelación, también pueden hacer captaciones interferométricas, que brinden información de altura, de deformación del terreno o desplazamiento de volcanes, de placas, glaciares, nieve, avalanchas, para identificación de cultivos, monitoreo de derrames de petróleo, investigación oceanográfica, registro de áreas forestadas o deforestadas, cambios en las ciudades, basurales. Por otro lado, estos satélites tienen la importante particularidad de que pueden observar de día y de noche, con todo tipo de meteorología.

El acuerdo entre ambas agencias no sólo permite compartir la información y el enorme caudal de datos obtenidos por los instrumentos, sino también desarrollar aplicaciones y tecnología en conjunto. "Italia también es un socio en el Saocom, nos aporta componentes esenciales", dice Conrado Varotto, director ejecutivo de la Conae.

Y agrega Battiston: "También estamos intentando operarlos de forma coordinada para beneficiarnos de este sistema único, y desarrollar aplicaciones de los datos recolectados que son la justificación real de este esfuerzo. Porque, al final del día, lo que uno quiere es que alguien reciba esta información en su teléfono celular, que pueda hacer agricultura de precisión, por ejemplo, y la utilice para tomar decisiones".

Italia tiene una larga tradición de más de cinco décadas en el espacio. Fue el tercer país en lanzar un cohete con un satélite a bordo. Es el séptimo del mundo por su inversión en el espacio y el tercero de Europa. La ASI construyó la mitad de los módulos que habitan los astronautas en la Estación Espacial. Participa en muchas misiones de la NASA de exploración del sistema solar, e incluso aterrizó en el cometa 67P/ Churyumov-Guerasimenko como miembro de la misión Rosetta. También participa en el desarrollo del cohete Vega, el más pequeño de la familia de lanzadores europeos y desarrolló radares de observación de la Tierra y los planetas exteriores del sistema solar.

"Lo importante es que cuando uno hace estas cosas también impulsa el desarrollo de la industria, promueve la competitividad -explica Battiston-. Ahora, el desafío es explotar la nueva tecnología de pequeños satélites y ser parte de la economía del espacio, un boom en todo el mundo. Esto significa ayudar al proceso de hacer dinero en el espacio, diseñar aplicaciones, obtener datos, y nuevas formas de mejorar la calidad de vida. Así como existe el GPS y las antenas parabólicas, en el futuro usaremos el espacio mucho más".

Dejando de lado la estación espacial, la constelación Siasge es la colaboración más importante que la ASI tenga con otro país.


Fuente: La Nación

Cambio climático: abril récord en temperatura 




Las alarmas no paran de sonar. El planeta arde: abril marcó un nuevo récord histórico en términos de variabilidad de temperatura tanto en la superficie terrestre como en los océanos. Así lo determinó la Agencia Aeroespacial estadounidense (NASA, por sus siglas en inglés), que indicó que la temperatura media de abril pasado ha sido 1,11ºC superior a la media recogida desde 1951 hasta 1980 por la NASA. El récord anterior de un mes de abril se batió en 2010, cuando la media se superó en 0,21ºC por encima de la media.




Se trata del séptimo mes consecutivo que aumentó la temperatura en al menos 1ºC por encima de los promedios de referencia (1951-1980). Los datos han llevado a los científicos a declarar una "emergencia climática" y ya se están poniendo en duda las promesas hechas en el acuerdo de París, que empezó a rubricarse hace menos de un mes, para mantener el alza de la temperatura por debajo de los 2 grados centígrados, límite que si se supera habrá consecuencias catastróficas para el planeta, según los científicos.

El acuerdo fue consensuado en diciembre por 195 países con el ambicioso objetivo de limitar el aumento de temperatura a 1,5 grados centígrados en comparación con los niveles preindustriales. Los aumentos de temperatura han tenido un impulso en el último año por un fuerte El Niño, un fenómeno meteorológico caracterizado por el calentamiento de las aguas en el Océano Pacífico tropical, que provoca condiciones meteorológicas extremas, incluyendo fuertes sequías y lluvias, en otras partes del mundo. Se espera que La Niña, que normalmente enfría las aguas del Pacífico, apacigüe sus efectos.

En la Argentina abril estuvo marcada por las precipitaciones. El Servicio Meteorológico Nacional (SMN) en un trabajo especial que muestra marcas inéditas en al menos cinco ciudades para la época el año. "Los mayores valores de precipitación se registraron en la provincia de Santa Fe, el norte de Entre Ríos y el sur de Corrientes, donde alcanzaron valores entre los 400 mm y 600 mm en los primeros 20 días del mes. En las provincias de Chaco, Tucumán, Santiago del Estero y Mendoza, el sur de San Luis, el centro de Salta, el norte de Córdoba y La Pampa y el centro-norte de Buenos Aires, se registraron precipitaciones que superaron los 100 mm".

Las causas de este fenómeno obedecieron a la presencia de la circulación de bajas presiones al oeste del centro de Chile y de altas presiones en el Atlántico Sur. Y esto se combinó con la influencia de la corriente de El Niño.


Fuente: La Nación

Hipertensión Arterial, uno de cada tres argentinos la padece 




Como pasa con toda enfermedad silenciosa, la Hipertensión Arterial está allí, latente y sin que la persona sospeche que la padece. Y como en general no da síntomas perceptibles, muchos pacientes se enteran de su condición tras sufrir un infarto o un ACV.

Y es que en la Argentina uno de cada tres adultos sufren de hipertensión arterial, principal factor de riesgo cardiovascular (ya que se encuentra presente en el 80% de los casos de muerte por esa causa) y es por lejos la más importante causa de ACV, capaz de producir la muerte o discapacidad de por vida. Esto se da a pesar de que existen hoy en día medidas de prevención y una multiplicidad de tratamientos eficaces para tratarla.

"Es una patología extraordinariamente frecuente que alcanza prácticamente a un tercio de las poblaciones en todo el mundo", explica el doctor Fernando Filippini, presidente de la Sociedad Argentina de Hipertensión Arterial (SAHA).

La Organización Mundial de la Salud (OMS) reconoce a la hipertensión arterial como uno de los problemas más importantes de salud pública mundial, y responsable del 18% de las muertes por cualquier causa en el año 2010. Y las Naciones Unidas han propuesto como objetivo sanitario primordial para el año 2025 una mejoría del 25% en su control.

Esta falta de control, aseguran en la SAHA, incluye tanto la falta de diagnóstico en la población general (gran parte de la población hipertensa no sabe que lo es) como el abandono de los tratamientos en el caso de los pacientes diagnosticados. "Y también tienen que ver con la falta de campañas públicas para que la gente conozca este problema, para lograr que la gente coma con menos sal y tenga una vida más saludable", agregó el vicepresidente de la Liga Mundial de Hipertensión (WHL por sus siglas en inglés), el argentino Marcelo Orías.

Pocos años atrás, la WHL instituyó al 17 de mayo como Día Mundial de la Hipertensión Arterial (HTA). El objetivo principal de esta prestigiosa institución internacional es fomentar acciones para mejorar el diagnóstico y control de esta enfermedad en todo el mundo. Durante el quinquenio 2013-2018 estas actividades tienen como lema "Conozca sus números". Este año, profesionales a lo largo y a lo ancho del planeta realizarán registros de la presión arterial en individuos con el fin principal de lograr un mejor diagnóstico.

"Se trata de un día que dedicamos a pensar cómo estamos haciendo las cosas para que la gente esté más atenta sobre cómo cuidar su presión arterial, y donde realizamos tareas de screening y difusión de información", expresó el doctor Orías, quien es también miembro de la SAHA.

La meta para este año para esta campaña -que en la Argentina será llevada adelante por la SAHA durante la semana del 17 al 24 de mayo- es que al menos tres millones de personas puedan controlar gratuitamente su presión arterial e incorporarse a la franja de la población que mantiene controlado a este factor de riesgo.

El doctor Carlos Reguera, médico cardiólogo y Jefe del Departamento de Medicina Preventiva y Cardiología del Instituto de Neurociencias de Buenos Aires (Ineba), coincide en afirmar que existe un número importante de personas sin diagnóstico. "La razón de que mucha gente desconozca su padecimiento, es porque generalmente cursa asintomática", explicó y alertó que en el mundo esta enfermedad produce más de 9 millones de muertes anuales (el 45% de ellas son causadas por infartos de miocardio y el 51% por ACV), debido a que su prevalencia se ha acrecentado por varios motivos, tales como, el aumento de la población mundial, la mayor expectativa de vida actual, la mala alimentación, el consumo excesivo de alcohol, el sedentarismo, el sobrepeso y el estrés, entre otras".

Según la última encuesta nacional del año 2013, en Argentina el 93% de la población adulta se controló la presión arterial, al menos, una vez en los últimos dos años. La prevalencia observada fue del 34%, siendo mayor en hombres que en mujeres. El estudio demostró que más del 37% de la población desconoce su enfermedad y que de las personas hipertensas bajo tratamiento (más del 56%), solo el 26,5% estaban correctamente controladas.

"La primera medida preventiva que debemos adoptar es comenzar por tomarnos la presión y conocer cuáles son nuestros valores. Una presión arterial optima es de 120/80 mmhg. Es básico para nuestro organismo el control periódico de la presión arterial. Es un procedimiento sencillo, rápido, eficaz, no invasivo y al alcance de todos", recomienda Reguera.

Numerosas personas, sin saberlo, tienen la presión arterial elevada (140/90 mmHg) durante muchos años y esto es lo que perjudica al organismo. Entre los órganos más afectados por esta patología se encuentran el corazón, el cerebro, los riñones y la vista (retinopatía hipertensiva). A su vez, la Hipertensión duplica el riesgo de padecer un infarto de miocardio en hombres y lo triplica en mujeres.

Si bien esta enfermedad no posee cura, se la puede tratar y controlar, disminuyendo así los riesgos. "El tratamiento no sólo radica en la toma cotidiana de uno o más medicamentos, sino que es multifactorial. Por lo tanto, llevar un estilo de vida saludable es primordial para apoderarse de buenos resultados", dice Reguera, quien enumera una serie de recomendaciones:

.Mantener un peso adecuado (no sobrepeso u obesidad)
.Mejorar la dieta (rica en frutas y verduras)
.Bajar el consumo de sal (no más de 5 gramos/día)
.Realizar actividad física (no menos de 45 minutos, 3 veces por semana)
.Controles periódicos de presión arterial
.No abusar del consumo de café
.Abandonar el tabaquismo
.Disminuir la ingesta de alcohol
.Controlar el nivel de estrés.

¿Cómo saber si soy Hipertenso? El diagnóstico de hipertensión arterial se basa casi exclusivamente en el adecuado registro de la presión arterial. Su registro elevado en forma aislada o esporádica no es diagnóstico de hipertensión arterial. Para el diagnóstico se requiere de por lo menos dos o tres registros elevados en diferentes ocasiones separados por un lapso de tiempo.

Y agregó: "La utilización de tensiómetros automáticos puede ser una alternativa a tener en cuenta. Estos cuentan con gran aceptación en la actualidad por las distintas sociedades científicas nacionales e internacionales, pero se debe tener en cuenta que el equipo utilizado debe ser validado y calibrado (no están aceptados los tensiómetros de muñeca).

El experto afirmó que una vez que está confirmado el aumento de la presión arterial, se debe consultar con el médico, ya que serán necesarios otros estudios para evaluar el estado general del paciente y el impacto que la hipertensión arterial pueda haber provocado en otros órganos.

Según el último Registro Nacional de HTA publicado por la Sociedad Argentina de Cardiología (Estudio RENATA 2011), demostró que un 33% de los argentinos adultos (1 de cada 3 personas) padece HTA, la mitad de ellos (1 de cada 6) desconoce su condición de hipertenso y por último el número de pacientes adecuadamente tratados y controlados es baja.


Fuente: La Nación

El zika atraviesa la placenta y causa microcefalia en ratones 




Dos nuevos estudios evidencian la capacidad del zika para atravesar la placenta y provocar microcefalia. La investigación, publicada en la revista Cell, ha sido realizada en ratones hembra. Los resultados podrían ayudar al desarrollo de fármacos que reviertan esta anomalía, que consiste en un desarrollo insuficiente del cráneo, a menudo acompañado de atrofia cerebral.

La emergencia global surgida tras la propagación del zika ha hecho que países de todo el mundo aúnen fuerzas para mejorar el conocimiento sobre las consecuencias del virus. Dos estudios recientemente publicados en Cell muestran, en un experimento realizado en ratones hembra, cómo el zika es capaz de atravesar la placenta, infectar al feto y provocar microcefalia –desarrollo insuficiente del cráneo– en sus crías.

El primero de los trabajos, liderado por investigadores de la Universidad de Washington (EE.UU.), establece los primeros modelos sobre cómo se transmite el zika desde una ratona embarazada hasta el feto. Los resultados muestran cómo el virus invade y daña la placenta primero, y después infecta al feto.

"Existían dudas sobre la transmisión intrauterina del zika. Nuestros datos confirman que el virus atraviesa la placenta y puede causar problemas congénitos, incluyendo la muerte del feto", comenta Michael Diamond, uno de los científicos participantes en este estudio.

Aunque los ratones normalmente no son susceptibles al virus, el equipo de investigadores desarrolló dos modelos basados en la inmunodeficiencia del ratón para proporcionar al zika una vía de entrada más accesible. En el primer modelo, los roedores hembra fueron genéticamente modificados para tener un sistema inmunitario defectuoso. En el segundo, las ratonas recibieron inyecciones de un anticuerpo que impedía el funcionamiento total de su sistema inmunológico.

En los ratones genéticamente inmunodeficientes observaron que la carga viral era 1.000 veces mayor en la placenta que en el suero de la madre, lo que denota, según los expertos, que el zika infecta prioritariamente este órgano.

Una vez en la placenta, el virus comienza a contagiar las células del trofoblasto –encargadas de nutrir al embrión– y a dañar los capilares sanguíneos del feto. “Trabajos anteriores ya demostraron que las células de la placenta en etapa tardía eran resistentes a la infección del zika, nuestro estudio muestra ahora que el virus es capaz de atravesar la barrera entre el tejido materno y el feto”, afirman los investigadores.

La mayoría de los fetos murieron antes de nacer y, aquellos que lograron sobrevivir, nacieron más pequeños y presentaron replicaciones del zika en el cerebro y en el sistema nervioso central.

Causa de microcefalia

Estos resultados encajan con el segundo trabajo, realizado por el Instituto Chino de Genética y Biología del Desarrollo y el Instituto de Microbiología y Epidemiología de Beijing (China), que demuestra que las crías de ratones infectados con el virus padecen microcefalia al nacer.

En este caso, el virus fue inyectado directamente en los cerebros de los fetos en el momento en el que las células progenitoras neuronales se expanden intensamente y las neuronas comienzan a surgir.

Los científicos pudieron observar una reducción del cerebro de las crías con carga viral. "Lo más sorprendente de este estudio es que aunque se infectaron tanto las células progenitoras neuronales como las neuronas, casi toda la muerte celular se centra en las segundas, lo que indica que las neuronas son más propensas a la muerte celular inducida por el virus", comenta el autor Zhiheng Xu.

"La mayoría de las veces, la placenta es una barrera efectiva entre la madre y el feto, pero el zika es capaz de superarla y contagiar diferentes capas del trofoblasto. Vemos el virus en el revestimiento de los vasos sanguíneos del feto, luego en circulación, y poco después, es capaz de ir al cerebro", explica Indira Mysorekar, autor del artículo de la Universidad de Washington.

Los investigadores de ambos estudios siguen estudiando los modelos y trabajan para identificar fármacos potenciales que puedan revertir el proceso de microcefalia causado por el zika. Pero insisten en recordar que los ratones no son seres humanos y que “hay que tener cuidado a la hora de extrapolar estos resultados al modelo humano”, concluye Cheng-Feng Qin, del Instituto de Microbiología y Epidemiología de Beijing.


Fuente: Agencia Sinc

Afirman que los transgénicos son igual de sanos 




La mayor revisión sobre el impacto de los organismos modificados genéticamente (OMG) que ha hecho la Academia Nacional de Ciencias de EE.UU. acaba de concluir que estas plantas son indiferenciables del resto y que no hay ni una prueba de que tengan un impacto negativo en la salud de las personas. La Academia Nacional de Ciencias, Ingeniería y Medicina, principal organismo asesor del país en temas científicos, tampoco ha encontrado pruebas “concluyentes” de que este tipo de variantes agrícolas causen problemas medioambientales. Sí reconoce que la resistencia de los transgénicos a ciertos herbicidas está causando “un problema agrícola de primer orden”, ya que otras plantas e insectos están desarrollando inmunidad a los herbicidas que se usan en los campos de OMG.

El informe, presentado en rueda de prensa en Washington, es una exhaustiva revisión de estudios científicos publicados desde hace 30 años, cuando se comenzaron a usar maíz, soja y otros cultivos transgénicos, hasta ahora.

Aunque los transgénicos tienen un enorme potencial para desarrollar vegetales con un sinfín de características, por ahora solo han llegado al mercado unas pocas variantes comerciales de maíz, soja y algodón con dos principales características: ser resistentes a los herbicidas y tóxicas para algunos insectos. El trabajo se ha centrado en el análisis de 900 estudios científicos sobre el impacto de este tipo de cultivos y ha sido supervisado por un panel de expertos independientes liderados por Fred Gould, entomólogo de la Universidad Estatal de Carolina del Norte. Estas son sus principales consecuencias:

El comité ha analizado todos los estudios disponibles sobre el tema y no ha encontrado “ninguna prueba” de que los transgénicos dañen la salud, según la nota emitida por la Academia. Los estudios con animales y de composición química no revelan ninguna diferencia para la salud entre el consumo de un transgénico y un vegetal que no lo es.

En cambio, sí hay evidencias de que los OMG resistentes a plagas han supuesto un beneficio para la salud humana al reducir las intoxicaciones con pesticidas. El trabajo destaca también que hay variantes de transgénicos que pueden tener un impacto abrumador en la salud global y cita el caso del arroz dorado, una variante modificada para contener altos niveles en beta carotenos y que sigue en vía muerta a pesar de poder evitar millones de casos de ceguera y muertes infantiles por desnutrición en países en desarrollo.

El uso de transgénicos no reduce la diversidad ni vegetal ni de insectos en los campos donde se plantan e incluso a veces la aumentan, dice el informe. El trabajo reconoce que los genes de los transgénicos acaban invadiendo campos que no lo son, pero que esto no ha provocado ningún impacto en el medio ambiente. El estudio reconoce “la dificultad de determinar cambios a largo plazo a veces hacen difícil alcanzar conclusiones definitivas”.

Este es el único aspecto donde la Academia detecta impactos preocupantes y cuestiona más sus supuestos beneficios, aupados por las multinacionales como Monsanto, principal empresa del sector. El informe confirma que hay insectos que están evolucionando resistencia al tipo de pesticidas usados en los campos de OMG. Esto sucede solo en los lugares donde no se siguen las normas de gestión para evitar que estás resistencias aparezcan. Del mismo modo, el trabajo confirma que hay malas hierbas que han desarrollado resistencia al glifosato, el polémico herbicida que se usa en estos cultivos.

El informe da una versión agridulce de los supuestos beneficios de estos productos para los agricultores. Los transgénicos les han aportado beneficios económicos, reconoce. Incluso agricultores a pequeña escala se beneficiaron con este tipo de cultivos durante los primeros años de adopción. Pero para mantener esas ganancias los productores necesitan ahora recibir apoyo de las instituciones, acceso al crédito, fertilizantes a un precio asequible y acceso a los mercados locales y globales, resalta el análisis.

El estudio ha revisado los índices de producción de soja, maíz y algodón previos a la llegada de los OMG. Según las conclusiones, no hay evidencias de que los transgénicos hayan aumentado la producción de estos productos. En su web, Monsanto sigue manteniendo lo contrario y tacha de “simplemente falsas” aseveraciones similares a la emitidas por la Academia Nacional.

¿Qué es un transgénico?

El informe recomienda que las regulaciones de nuevos tipos de cultivo se hagan en base a las características del producto (mayor contenido en vitaminas, por ejemplo) y no en el proceso por el que han sido desarrollados (modificación genética versus selección de variantes convencional). Según el informe, la línea divisoria entre un transgénico y lo que no lo es se está difuminando con la llegada de las nuevas técnicas de edición genética, como el CRISPR. Una variante agrícola desarrollada por este método no sería considerada como transgénico por la legislación de muchos países, señala el informe. Además, las mismas características que podrían lograrse por ese método se consiguen ahora bombardeando con radiación las semillas y después seleccionando las más adecuadas, un proceso que está considerado como desarrollo “convencional” en la mayoría de países, señala el trabajo.

A la luz de la evidencia científica, el trabajo desaconseja marcar en la etiqueta de los productos que contienen transgénicos como supuesta salvaguarda de la salud pública. No obstante, reconoce que en este caso, como en otros relativos a los OMG, no solo depende de cuestiones técnicas, sino también legales y sociales.


Fuente: El País

“La revolución tecnocientífica crea el tecnocapitalismo, diferente al capitalismo industrial” 




Por Patricio Porta

Javier Echeverría se considera a sí mismo un pionero en el estudio de las nuevas tecnologías de la información y la comunicación. Su libro Los señores del aire: Telépolis y el tercer entorno, publicado en 1999, era una suerte de apuesta para el nuevo siglo que comenzaba. Su precisión lo convirtió rápidamente en una obra de lectura obligatoria para los académicos españoles y latinoamericanos. Invitado por la Universidad de Lanús y por el Centro Cultural de España en Buenos Aires, el filósofo, matemático, ensayista y profesor del Instituto de Filosofía del Consejo Superior de Investigaciones Científicas dialogó con Página/12 sobre las relaciones entre ciencia, tecnología y sociedad.

Su obra tiene un fuerte impacto en el mundo académico de nuestra región.

–¿Usted nació en México?

–Mi padre emigró a México a los 19 años huyendo de la guerra de Marruecos. Cuando mi padre se fue a México quedó como desertor hasta que en 1936 la República le amnistió. Volvió a España, se casó con una mujer del pueblo y se la llevó a México. Hoy parece algo asombroso, pero en esos tiempos eran historias muy típicas las de los indianos, que eran aquellos que hacían las Indias por estrictas cuestiones económicas. Mis hermanos nacieron en México, pero mi madre decidió que yo naciera en España porque había perdido dos niños por falta de atención médica.

–Los señores del aire: Telépolis y el tercer entorno fue publicado en los umbrales del siglo XXI. ¿Cómo evalúa los cambios producidos por las nuevas tecnologías de la información a casi dos décadas de ese trabajo?

– En aquellos momentos los señores del aire eran Microsoft, Nokia y Ericsson. Nokia y Ericsson han desaparecido. Todas las grandes compañías del hardware, el software, las telefonías móviles, los videojuegos y las tarjetas de crédito irían creciendo, y ese sistema de las nuevas tecnologías de la información se extendería por todos los países, como ha sucedido. Quienes controlaran esas tecnologías tendrían un poder creciente. Los señores del aire era una metáfora de los señores de la tierra en el medioevo. Los que tenían el control de la tierra tenía el poder. En el siglo XXI, los que controlaran el aire, internet y las redes telemáticas son los que tendrían el poder. Basta mirar las diez empresas con mayor capitalización en bolsa para saber que siete son del sector de tecnologías de la información y la comunicación. Hace 16 años eran las empresas petroleras, industriales, de automóviles. Amazon, Google, Facebook y Twitter no existían. Los señores del aire han tenido sus batallas, sus conflictos y evoluciones, pero lo fundamental era lo que yo proponía, la metáfora feudal, y lo sigo afirmando radicalmente. Internet o el tercer entorno está en una etapa neofeudal. Hay una especie de dependencia o servidumbre. Cualquier usuario de un software o una red social llega a un momento clave que es el del “acepto”. Uno acepta o no. Si no lo haces no accedes a las redes sociales, y quedas excluido de ese ámbito social, ámbito ciudadano, te quedas sin nada. Y si aceptas, has firmado un contrato donde aceptas todas las condiciones que te impone el señor del aire y que nadie lee. Eso es lo típico de un poder feudal. El origen de sometimiento en la relación es total. Uno pertenece entonces al señor feudal, depende de él, se tiene que atener a sus normas, tiene que actualizar continuamente sus productos. Somos súbditos de estas grandes empresas.

–En su momento, usted usó la expresión “neofeudalismo cibernético”. ¿Estamos más cerca de ser una “democracia electrónica” ahora?

–Esa era la idea de Telépolis, hacer una ciudad democrática en este mundo digital. En 1994, cuando lo publico, esto era utópico, porque estas tecnologías estaban surgiendo. El tercer entorno no es sólo internet. Aparte están las redes digitales, telemáticas, militares y financieras, presentes desde los años 80. Las redes financieras son las que generaron la crisis del 2009. Ahora mismo los Panamá papers es un ejemplo clarísimo de por dónde circulan los grandes dineros. Circulan por redes financieras, que son telemáticas. De la misma forma se mueven las guerras. Antes de organizar una guerra, los países tecnológicamente desarrollados montan la red telemática correspondiente. En la guerra de Irak esto fue clarísimo. Estados Unidos tardó un mes en llegar hasta Saddam Hussein, porque estaba montando toda la red para saber dónde bombardear. El tercer entorno es una estructura diferente de la tierra y de las ciudades, porque no es territorial. Quien domine las redes, sean militares, financieras, científicas, mantenidas por las comunidades científicas y las grandes industrias, o civiles, como internet, tiene el poder. Esto configura un nuevo espacio, el tercer entorno o mundo digital. Ha habido grandes novedades, como Facebook y las redes sociales, y Apple ha superado a Microsoft. En cualquier caso, no ha habido más que cambios en las relaciones de poder entre los señores del aire. Ahora los llamo los señores de las nubes. La metáfora es casi la misma. Puede haber nubes huracanadas, de cenizas, nucleares. Las nubes pueden generar nubarrones y puede ocurrir un huracán, verdaderamente devastador, como le ha sucedido a las redes militares y financieras. Si en algún momento Google quebrara, porque otro señor del aire le bombardeara, cuando comiencen las tecnoguerras, muchas redes caerían.

–¿La masificación creciente en el acceso a internet puede desembocar en una mayor democratización?

–Para nada. En el 99 decía taxativamente que ese espacio no era democrático, y ahora lo es menos que antes. Que haya mucha gente en un sitio no significa que sea una democracia. Una condición sine qua non requiere, en el sentido griego de democracia, que haya un espacio público, el ágora, de acceso universal y libre a todos los ciudadanos. Esto no sucede, pues para acceder a internet tengo que usar un navegador, un portal, una conexión wi-fi. Si internet fuera el ágora, habría un montón de filtros, de señores que me cobran o me controlan por acceder. No hay acceso libre en absoluto. El segundo argumento, más convincente todavía, es que no hay democracia sin división de poderes. Si hay sólo un poder ejecutivo, esto es tiranía. ¿Hay un Parlamento en Facebook, en Twitter? Lo que hay es un consejo de administración cuyos miembros ignoramos todos y que no se elige democráticamente. Si se quiere democratizar, ya no el tercer entorno pero uno de los dominios feudales, pido que elijamos al presidente de Google los usuarios. Mark Zuckerberg, que es tan democrático y anarco, que se someta a la elección de sus usuarios. El concepto de democracia se ha devaluado, se lo confunde con mucha gente. Lo que sí sucede, sobre todo en las ciudades, es que la masificación produce un incremento de valor. Cuando hay un trending topic o un bloguero con mucha audiencia, entonces la publicidad le llega, aumenta el valor de su dominio, el valor bursátil de la red correspondiente y el poder económico.

–¿Qué piensa de las llamadas “revoluciones 2.0”, este matrimonio entre redes sociales y las calles, como lo sucedido en Egipto, Brasil y España?

–En los países árabes todo ha acabado como el rosario de la aurora. Incluso Túnez, que es la única democracia que ha sobrevivido, está completamente controlado y limitado.

–Durante las revueltas del 2011 en Londres, David Cameron apuntó a Twitter.

–Si lo pide Cameron, Twitter negocia. Lo que no se sabe es qué pudo haber obtenido Twitter de Cameron. En esta misma fase, se produjo la revuelta de Wall Street. De eso ha quedado Trump.

–También Bernie Sanders.

–Bueno, pero personajes como Trump son típicos del tercer entorno, de esta nueva modalidad de lucha por el poder, donde triunfa la demagogia y la política del espectáculo. Incluso Putin, que va de serio y riguroso. O del dictador de Corea del norte, que organiza espectáculos, hace ensayos nucleares, tira misiles, sólo para tener publicidad en la prensa. Hitler fue un gran líder de masas. El equivalente al ciudadano clásico es el usuario de las nuevas tecnologías. Democratizar una red es dar el voto libre y secreto a los usuarios. Puede ser democracia directa o parlamentaria, que el Parlamento dicte unas leyes, que el presidente del consejo de administración se atenga a las reglas que han impuesto otros y que gestione la red sin poner las normas él o sus hombres de confianza. A mí me resulta alarmante que se piense que porque hay mucha gente en una red social es democracia.

–Quizás el problema es que se analiza un escenario relativamente nuevo con viejas categorías, como si se tratara del tema de los medios de comunicación tradicionales.

–La tesis de Castells es que los políticos están controlados por los medios de comunicación y éstos están dominados directamente por el sistema financiero. Esa es la estructura del mundo en la actualidad. Pensar hoy en día que los gobernantes mandan es tiempo pasado. Precisamente por eso hay una crisis profunda de las democracias. Estas elecciones entre Hillary Clinton y Trump son un ejemplo de cuánto se ha deteriorado la democracia en un país donde ha habido presidentes como Jefferson o Lincoln. La política se ha convertido en tecnopolítica. Los partidos políticos se han convertido en empresas que compiten en un mercado de los votantes y que capitaliza en las urnas. Un movimiento social importante como el 15M ha acabado en un partido político normal y corriente como cualquier otro que manifiesta su fuerza capitalizando votos. Dudo que eso aumente la calidad de la democracia. Si ha cambiado el concepto de democracia, entonces que se explicite. Si no hacen falta constituciones ni repúblicas, y hay redes privadas como Facebook, que se diga. Google no es una institución pública. Es propiedad privada de unos señores que son muy liberales, tolerantes y sofisticados. No estoy criticando a las personas, sino a la estructura, que es muy alarmante.

–La expansión de internet se asocia con globalización. ¿Cómo impactan estas nuevas tecnologías en las identidades?

–Surgen nuevas formas de identidad. El sujeto pasa a tener una identidad plural. Frente a la noción clásica de sujeto político, por ejemplo, uno puede tener una nacionalidad o a lo sumo dos. En el segundo entorno uno tiene una patria y punto. En el tercer entorno, en cambio, uno puede tener múltiples identidades, porque se es súbdito de varios señores del aire. El ser súbdito de Facebook no me impide serlo de Google. Al revés. Como esas son tecnoidentidades, o identidades tecnológicas, tengo que adquirir competencias y mi mente tiene que estar troquelada para manejar esas tecnologías. Estoy hablando de identidades mentales. El tercer entorno es básicamente una identidad mental y se puede venir abajo en cualquier momento. Y cuando uno se queda sin conexión insulta y pierde los nervios. Un padre quiere que un señor del aire controle las fotos que su hijo sube a Flickr o Instagram o las locuras que hace en las redes sociales. Es decir, está controlado por una empresa. El anonimato es perfectamente posible desde un punto de vista tecnológico, pero esto no les interesa a los señores del aire. Les interesa conocer al detalle los gustos e intereses de sus usuarios, porque al saber sus usos están haciendo un estudio de mercado gratis, del actual y del futuro, en el caso de los jóvenes. Han descubierto la fórmula de la coca cola. Hacer un estudio de mercado es muy costoso e impreciso, bien lo saben los expertos en econometría. Los jóvenes lo ven desde otra perspectiva. Ya veremos quién tiene la razón. –¿Qué cambios produce este nuevo paradigma en la educación y en el trabajo, dos pilares de los Estados modernos?

–En los 90 yo hablaba elogiosamente del teletrabajo, lo consideraba una gran oportunidad para muchos oficios, para gente con mucha movilidad. Ahora el empleo, el trabajo asalariado está menguando en todo el mundo. El valor económico lo generan los propios usuarios en la medida que sean millones de usuarios o telespectadores los que contemplan un partido de fútbol o un atentado como el del 11 de septiembre. Eso genera un valor incalculable, y lo previeron los terroristas, que sabían que dos aviones impactando en las torres impactarían a su vez en las mentes. Yo no olvidaré esas imágenes. Ese es el poder de los señores del aire. El señor feudal antes te marcaba con un hierro caliente. Es mucho más grave que te marquen la mente. El consumo de la información y el uso de las tecnologías son algo productivo si es masivo, si produce riqueza y genera valor económico. Por lo tanto, la producción de riqueza en la economía del conocimiento y de la información está evolucionando de manera distinta a lo que era la generación de valor en las economías industriales, donde lo trabajadores eran los que generaban valor. Ahora lo hacen los usuarios, los consumidores. La consecuencia es que uno se tiene que buscar la vida en la red como sea, de autónomo y de modo precario. Los empleos asalariados en la red son los diseñadores de software, los que controlan la seguridad en las redes, los administradores, pero la gente de base tendrá un dinerito puntual por haber hecho tal trabajo, como creativo o modificando una fotografía. Esto me preocupa mucho porque vamos a sociedades sin empleos. Yendo a la educación, quienes marcaban las mentes en el medioevo europeo eran los sacerdotes, la familia y los vecinos, hasta que la revolución francesa, tremenda, con miles de muertos, instituyó la escolarización obligatoria y un Estado laico. Eliminó el poder religioso del ámbito educativo, arrancó a los hijos de las familias y los vecinos determinadas horas del día y los llevó a la educación pública. Hoy en día los procesos de aprendizaje se hacen a través de la red, la televisión y los videojuegos. Los padres y los maestros ni se enteran. En lo que a los niños les interesa de verdad, saben bastante más ellos que los profesores. Por eso no los respetan. La inversión del conocimiento en el ámbito educativo tiene consecuencias tremendas. En la escuela se mantiene una educación que a los chicos y a las chicas les interesa muy poquito. Encima en España se les prohíben los móviles en las aulas. Es como prohibir el fútbol o el hablar. Instituir la prohibición de cosas que los chicos y las chicas quieren hacer en el tercer entorno no es la vía. Se aprende más en el tercer entorno que en el primero o en el segundo. La inmensa mayoría de los niños empieza a saber lo que son los animales y las plantas a través de la televisión o de internet. Son nativos digitales, su mundo es ese.

–¿Cree que la tecnociencia puede superar su funcionalismo al sistema capitalista?

–La tecnociencia es una revolución. Pero las revoluciones pueden ir hacia la izquierda o hacia la derecha. La revolución tecnocientífica crea una nueva modalidad de capitalismo, el tecnocapitalismo, muy diferente al capitalismo industrial. Las crisis del capitalismo actual son grandes crisis tecnológicas, casi apocalípticas. Como lo que ocurrió en Japón con la central nuclear de Fukushima y el tsunami. La crisis del corralito fue estrictamente de fuga de capitales por las redes telemáticas. Una tecnosociedad es aquella en donde las personas, para relacionarse, deben hacerlo mediante algún sistema tecnológico. Hay personas que son más tecnopersonas que otras. La revolución tecnocientífica comenzó en física, en matemáticas, en biología con el ADN y la secuenciación del genoma, y ha llegado a las ciencias sociales, a las personas y ha transformado al capitalismo. Las nanotecnologías son decisivas, más que las tecnologías de la información. Con los nanoscopios, los científicos han podido ver la materia orgánica e inorgánica a escala diez elevado a la menos nueve. Este estrato de la naturaleza nunca se había visto. Estamos acostumbrados a ver el medio ambiente con nuestra percepción que es de diez elevado a la menos tres milímetros. A una micra no llegamos. A la escala diez elevado a la menos nueve pasan cosas importantísimas, como la interrelación entre las neuronas o el origen de los virus, que se descubrieron a partir del año 2000. Es la tecnonaturaleza. Todos los países están volcados a las nanotecnologías. A uno lo ametrallarán con nanopartículas y ni se enterará.

–Todo esto ligado al imperativo de la innovación.

–En su origen, la ciencia estaba para comprender y explicar el mundo. El mayor ejemplo es Galileo. Comprobamos que la tierra no se mueve y todos lo tenemos clarísimo. Cuando llega la tecnociencia, importan más la transformación y la innovación que la cuestión de la explicación. Hoy vale más el conocimiento científico que genera tecnologías, y si produce innovación uno pasa a tener la financiación. La tecnociencia genera innovación, como el grafeno o Twitter. Steve Jobs es el innovador por antonomasia. Todos los señores del aire son grandes innovadores. Cuando se está hablando de innovación no se está hablando de algo bueno. Schumpeter fue el primer gran teórico de la innovación, y dijo que la innovación es destrucción creativa. Si innovas, destruyes. En el siglo XIX la innovación era rechazada totalmente. Ser innovador social era ser un revolucionario. Proudhon, Owen y Marx eran innovadores sociales. Esto ha cambiado completamente en los años 80 cuando surge la tecnociencia en Estados Unidos, en Silicon Valley, con la innovación como el objetivo principal. Si eres innovador, pasas a ser más competitivo como empresa y a obtener mayores beneficios. Schumpeter lo dijo: la innovación es la esencia del capitalismo.

–¿Qué políticas se deberían seguir para democratizar la producción científica, para mejorar los vínculos con los ciudadanos?

–Un país es tecnocientífico cuando más del 50 por ciento de la inversión en investigación viene del sector privado. Por lo tanto el pensar que son los Estados los líderes en la tecnociencia, ni hablar. La tecnociencia la promueven básicamente Monsanto, por ejemplo. Cualquier gran empresa farmacológica es tecnocientífica y altamente innovadora. Los Estados son sus clientes. Cuando viene el zika se forran de dinero. Todos estarán investigando salvajemente para ver quién consigue la vacuna. Independientemente de eso, es cierto que el sector público todavía produce conocimiento y algunas innovaciones, aunque pocas. La idea clave es que los científicos, los investigadores en concreto, nos hemos convertido en trabajadores del conocimiento. En la economía del conocimiento habrá empresarios y trabajadores. Un investigador es un trabajador del conocimiento. El científico no se ha convertido en una mercancía pero su paper o artículo académico sí. En mi gremio los papers no se leen, sino que se miran el índice de impacto y el número de citas que has tenido. Nadie lee filosofía. Uno se puede pasar dos o tres años leyendo a Hegel. En una sociedad de consumo rápido y fácil, de titulares, pildoritas y tags, uno no se va a poner a leer a Kant. La filosofía mengua entonces su relevancia, justamente porque no se ha hecho tecnofilosofía. En cambio, a los tecnocientíficos les va maravillosamente bien. Lo que valen son las mediciones y las encuestas.

–¿Cuál es la relación entre ciencia y política, o ciencia e ideología?

–Sectores amplísimos de la sociedad miran con desconfianza, y hasta con rechazo, a múltiples líneas de investigación y a múltiples innovaciones. Los que hacen política científica intentan promover vías de comunicación entre la ciencia y la sociedad, con las revistas de divulgación científica para elevar el nivel de conocimiento científico en la sociedad, intentando además que los ciudadanos participen en la toma de decisiones en la actividad científica. Ojalá sucediera en el campo de la tecnociencia, y los ciudadanos participaran en el diseño de Google. Pero no sucede. Google se diseña en los laboratorios de una empresa privada y ahí no hay quien entre. Es confidencial. Apoyo la decisión de la Unión Europea de dar acceso abierto a todo el conocimiento científico que se genere allí. No es cierto que sea todo el conocimiento pero es un avance muy importante. Si uno tiene una financiación de la Comisión Europea, está obligado a hacer público su conocimiento. Hay muchos investigadores a los que mucho no les gusta esto, porque piensan que todo el mundo les va a copiar. El conocimiento de financiamiento privado es inaccesible por completo. Ahí está el cogollo de la cuestión. Las políticas públicas deberían regular el proceso de producción de conocimiento en las propias empresas privadas, sean de software, farmacológicas o telemáticas.

–¿Hacia dónde avanza el tercer entorno?

–La utopía de Telépolis la concebía simplemente como un ayuntamiento de redes, no como un Estado. Hace 20 años ya había muchas redes, con su propia administración, su propia autonomía. Son tecnologías que generan poder. Y donde hay poder hay conflicto. El poder tecnocientífico es una nueva modalidad de poder, y no podemos pensar en arcadias ideales. Pero sí podemos palear los conflictos. Sobre todo, evitar que haya súbditos y un sistema de dominación de unos sobre otros. Es una lucha contra la esclavitud. Por eso citaba a Jefferson y a Lincoln. Con que no seamos esclavos de los señores del aire me daría por contento.


Fuente: Página 12

Programa 226

"Las sorpresas mejoran el aprendizaje
en un porcentaje muy alto"





En esta emisión, contamos con la participación de Fabricio Ballarini, Investigador y Fundador de "Educando al Cerebro", para reflexionar sobre la relación entre ciencia y educación.

En relación al significado de "Educando al Cerebro", Fabricio relató que "es un intento de poder transmitir conocimientos que tienen que ver con el cerebro para mejorar el sistema educativo y hacer una transferencia directa entre ese conocimiento (que lo generan investigadores que trabajan las temáticas) y el sistema educativo y el resto de la sociedad. De alguna manera, intentamos congregar la mayor cantidad de investigadores o personas que están trabajando en áreas que tienen que ver con educación. Lo que observamos es los investigadores y sus resultados no tienen ningún tipo de llegada al aula. Descubrimos que reforzando el vínculo entre educador y científico se empezaron a gestar nuevas cuestiones; principalmente, que el ciclo del científico no sólo es generar conocimiento y que éste desencadene mayor conocimiento, sino que ese conocimiento llegue a la sociedad. De esa forma, Educando al Cerebro brindó la posibilidad contar ciencia a un montón de gente que estaba interesada".

En este sentido, "lo que investigo es cómo las neuronas se contactan entre sí para guardar un recuerdo y cómo se puede hacer que esos recuerdos se fijen por más tiempo mediante la modificación de conductas. Lo que descubrimos es que los eventos que nos generan sorpresa, que rompen con la predicción que uno tiene, se guardan en la memoria con mucha más fuerza. Pero, no sólo se guardan por más tiempo, sino que también recordamos eventos periféricos. De esa manera, este conocimiento lo trasladamos a las escuelas para ver si, a través del mismo, se pueden trazar estrategias educativas que puedan mejorar el aprendizaje y la memoria de los chicos. Concretamente, lo que hicimos fue sorprender controladamente a miles de chicos de distintas edades, y analizar si los aprendizajes cercanos a las sorpresas se reveían reforzados. Lo que vimos las sorpresas mejoran el aprendizaje en un porcentaje muy alto", afirmó el invitado.