Las aguas bajan por el Salado

La foto del chalet vista desde el cielo tenía el efecto de la elocuencia. Rodeado por el agua de la laguna de La Picasa no dejaba lugar las dudas: “¿Alguien hace chalets en el medio de una laguna?”, se preguntó con voz entrecortada el productor agropecuario. “Por culpa de estos desmanejos se inundaron no solo casas como ésta, a 14 km de la laguna, sino también los campos”, sentenció. Sin embargo, y ante la evidencia, la respuesta del funcionario público no se hizo esperar: “Las zonas de afectación que tiene una laguna son zonas de riesgo hídrico, esto significa que cada uno de los productores sabe que está dentro de una zona que se puede inundar”.

El agua en la zona de llanura puede ser la bendición que permite crecer a todo tipo de ser vivo o puede ser la amenaza latente que, sin control ni orden, barre con todo lo que se le ponga en frente, sin pedir permiso y, sobre todo, a una velocidad en la que la respuesta humana resulta inútil. Es por eso que frente al escenario de la laguna La Picasa se pueden dar debates, pero también aprendizajes, como el que se intentó brindar en la jornada Manejo Racional de las Cuencas Hídricas La Picasa y Río Salado, que convocó a productores, funcionarios e investigadores, todos relacionados y preocupados por la situación hídrica actual de ambas cuencas.

Esta jornada fue organizada por la UNNOBA y Honorable Senado de la Provincia de Buenos Aires, a través del senador Gustavo Traverso.

Obras sobre los límites de la laguna de La Picasa.

“Cuenca endorreica”

La cuenca de la Laguna de La Picasa es cerrada, es decir que no tiene una salida propia y natural por la superficie. Es por ese motivo que viene creciendo desde el año 1995, cuando el régimen de lluvias creciente la colapsó, y la sigue haciendo crecer sin parar. Solo entre 2004 y 2008 hubo años de calma, pero el resto de los años las lluvias superaron la media. La acumulación de agua en las lagunas de la cuenca y el ascenso de los niveles freáticos, es decir la acumulación de líquido en el subsuelo, hicieron que no solo los productores y habitantes se vieran afectados: en 2017 la Ruta Nacional N°7 fue superada por el nivel acuático, lo que produjo el corte que se mantiene hasta hoy. El ferrocarril sufrió el mismo destino a causa del desborde.

"En el año 1988 la laguna ocupaba 3 mil hectáreas. En el 2001, un período crítico, fueron 40 mil hectáreas"

Aunque la Cuenca de la laguna La Picasa es administrada por un comité, creado por voluntad de las provincias de Córdoba, Santa Fe y Buenos Aires, fue ratificado por leyes provinciales, y tuvo el tratamiento de una ley nacional que lo avala, el organismo sigue sin arribar a las soluciones y a un enfoque consensuado del problema. Desde el área técnica del Comité de Cuenca se debaten las salidas, y cada provincia tiene sus representantes con sus propuestas, muchas de ellas detenidas por motivos financieros y otras por motivos no enunciados. Y el cruce analítico La Picasa-Río Salado brindado en la jornada universitaria no fue casual. En abril de este año un medio de Junín alertaba: “Entró en funcionamiento un nuevo canal en La Picasa y llegará mucha más agua a Junín”(1). Pero, ¿es así? El debate de la jornada abordó detalles que harían pensar lo contrario. Más allá de los puntos de vista legales y técnicos, el agua ya está escurriendo por ese canal anunciado en abril y en la práctica ya se vislumbra el asfalto de la ruta nacional que, sin tránsito, muestra su raquítica pero valiosa estructura.

Mesa Técnica de la Jornada: Dr. Eduardo Kruse (UNNOBA), Dr. Marcelo Rastelli (Dirección de Hidráulica, Buenos Aires), Ing. Juan Carlos Bertoni (secretario Recursos Hídricos, Santa Fe).

“Alternativa norte”

Juan Carlos Bertoni es el secretario de Recursos Hídricos de la provincia de Santa Fe. En el Auditorio del Bicentenario de la sede Junín de la UNNOBA no dudó en calificar a la compuerta inaugurada en abril como el “Mercedes Benz de las obras”, ya que cuenta con tecnología de punta, como el monitoreo remoto del caudal hídrico. Y no dudó en advertir la gravedad de la situación y la necesidad de actuar: “En el año 1988 la laguna ocupaba 3 mil hectáreas. En el 2001, un período crítico, fueron 40 mil hectáreas. Su cota, esto es la altura del agua sobre el nivel del mar, llegó a 105 metros. Tanto el ferrocarril como la ruta habían quedado totalmente inmersos en la laguna. Hoy la cota está alrededor de los 103 metros, y va cambiando todos los días”.

La altura de la cota es un número que tanto productores como funcionarios siguen atentos todos los días, ya que es el signo de alarma para intervenir. Como referencia informaron: la altura de las vías del ferrocarril está a 104,5 metros sobre el nivel del mar y la Ruta Nacional 7 en los 104,8 metros. Bertoni recordó que hacia octubre de 2017, momento crítico, se llegó a una cota de 105,78 “por lo que la laguna estaba con 1 metro de agua por arriba de la infraestructura, ni hablar de los campos”.

Vista desde dentro del canal derivador que construyó Santa Fe.

Bertoni explicó la decisión tomada: “En el año 2017 la provincia de Santa Fe, ante el comité interjurisdiccional, presentó la propuesta de ejecutar una alcantarilla, es decir un instrumento que escurre por gravedad, sin bombeo. El agua va desde La Picasa hasta Teodelina en territorio santafesino, donde se colocó esta compuerta”. Y agregó: “¿Qué se ha ejecutado? Cuando se supera la cota de 102,7 metros hay una salida de emergencia mediante una alcantarilla, que saca el agua de la laguna y la lleva al nivel apropiado”. La longitud del canal de tipo "by pass" es de casi 2400 metros.

Desde el punto de vista del escurrimiento por gravedad (y no por bombeo, que podría implicar un caudal constante) esta salida de emergencia no sería permanente y dependería del nivel de cota, contribuyendo al descenso del nivel de la laguna. “La alcantarilla, al ser una salida controlada solo para situaciones de emergencia, no puede generar problemas”, indicó Bertoni, aclarando que el caudal máximo de esa salida de emergencia de La Picasa es de unos 5 metros cúbicos por segundo, algo relativamente escaso en relación al caudal de la cuenca del Salado. “Felizmente en esta alcantarilla, que tiene compuerta y una estación de monitoreo, todas las provincias pueden controlar el caudal y el nivel, y siempre está la posibilidad de cerrarla mediante un protocolo de manejo”, destacó.

Ingeniero Marcelo Rastelli, director técnico de la Dirección provincial de Hidráulica del Ministerio de Infraestructura de la provincia de Buenos Aires, expone sus argumentos.

¿Qué sabe el agua de política?

El ingeniero Marcelo Rastelli es director técnico de la Dirección provincial de Hidráulica del Ministerio de Infraestructura de la provincia de Buenos Aires y aportó posicionamientos no sólo acerca de La Picasa sino también, y como “contraejemplo”, sobre las obras del “Plan Maestro Integral de la Cuenca del Río Salado”. Destacó la importancia de este Plan ya que “incorpora áreas propias y áreas anexas y permite así abordar el tratamiento de una superficie total de 17 millones de hectáreas, constituyéndose en el área de estudio y desarrollo más importante de la provincia de Buenos Aires”, donde viven alrededor de 2 millones de habitantes y se concentra el 30% de la producción nacional de granos y de carne.

“La variabilidad hídrica -indicó- nos expone a conflictos de interés entre los diferentes usuarios de la cuenca. Los productores, las actividades recreativas, la pesca, el turismo, las actividades académicas, las organizaciones no gubernamentales, y el Estado que administra... se ponen de manifiesto”.

En relación al Plan, eligió hacer un balance positivo y destacó: “Tenemos más de la mitad del río (Salado) con obras terminadas o en ejecución. Pero también el plan propone la ejecución de nuevos canales troncales que permitan densificar esta red de captación de excedentes y conectarlos a vías de evacuación para proteger las ciudades”. Su énfasis estuvo puesto en que las intervenciones de infraestructura de este tipo, cuando se trata de integrar un territorio tan vasto, solo pueden ser exitosas en la medida en que se cuente con una capacidad de manejo “resultado de acuerdos que alcancen a todos los usuarios de la cuenca”. Y con la idea fuerza de relacionar manejo y acuerdo miró fijamente hacia la provincia de Santa Fe.

“La provincia de Buenos Aires tiene la voluntad de recibir los excedentes de agua que reduzcan los efectos de la inundación en La Picasa, pero entendemos que se deben dar una cantidad de recaudos que nos den garantía. Para esto el denominado canal alternativa norte y las obras de conexión que ha efectuado Santa Fe deben tener mecanismos de control y manejo más eficaces que lo hecho hasta ahora”. Para el ingeniero Rastelli este canal, que está traspasando alrededor de 5 metros cúbicos de agua actualmente, “está conectado de un modo irregular”, porque no se partió de acuerdos comunes.

"Canal alternativa norte", la obra que opera bajo la órbita de Santa Fe y que es objeto de la polémica.

Rastelli señaló que desde el punto de vista de una cuenca, La Picasa abarca o implica unas 500 mil hectáreas en un territorio que involucra a tres provincias. “La cuenca es la extensión de territorio que contribuye a un cuerpo de agua. En este caso una cuenca cerrada y endorreica como La Picasa solo fue identificada como tal hasta mediados de los años 90 y por eso se constituyó en 1998 un Comité de Cuenca”.

Con mucha rapidez se desarrollaron estudios que permitieron contar con un mejor conocimiento de esta “nueva cuenca”, incluso se llegó al planteo de soluciones, y se concluyó que la autorregulación natural que tuvo La Picasa durante tantos años llegaba a su fin debido al incremento de “las expectativas del uso del suelo que tienen los pobladores”, sobre todo en lo relacionado a la agricultura.

Por lo tanto era necesario pasar a la acción mediante obras de infraestructura: ordenar el escurrimiento interno de la cuenca era una necesidad, pero también disponer de elementos de retención. La capacidad de exportación o retención del agua permite sostener el balance en los niveles de fluctuación, tanto en sequía como en abundancia.

Desafortunadamente para los pobladores de la cuenca, el Comité no tuvo el rol esperado y hubo acciones sin coordinación, lo que llevó a que la provincia de Buenos Aires lleve ante la Justicia las acciones de infraestructura de Santa Fe, con posiciones claramente encontradas. “En mi modesta opinión, todo se hizo al revés”, se lamentó Rastelli.

Eduardo Kruse durante su intervención en la jornada.

Datos reveladores

Eduardo Kruse, director del Centro De Investigaciones y Transferencia del Noroeste de la Provincia de Buenos Aires (CITNOBA), puso en escena otros factores a tener en cuenta, como el rol del agua subterránea y la necesidad de una perspectiva de construcción histórica en estos fenómenos, que deben ser estudiados con atención una vez que se los interviene.

“Desde nuestro punto de vista, para considerar un manejo racional del agua en cuencas hídricas en una llanura también hay que tener en cuenta los movimientos verticales del agua, es decir a la evaporación y a la infiltración, y no solo el escurrimiento superficial”, advirtió, ya que todo el debate en las actuales condiciones incluye las obras de drenaje o retención del movimiento horizontal del agua.

Kruse se preguntó por la interacción que hay entra aguas superficiales y aguas subterráneas: “Muchas veces al no ver lo que ocurre en el subsuelo se simplifica su importancia en el funcionamiento hidrológico de una llanura”.

“Las divisorias de agua son difusas”, volvió a advertir. “Esto se asocia con lo climático y a que estamos en una región que responde a lo árido, a una formación arenosa que tiene su origen hace unos 7 mil años en la zona pampeana, con bajas precipitaciones y altas temperaturas, eso generó un paisaje de mantos arenosos que todavía no se han adaptado a la condición húmeda actual”.

Claro que es esta condición árida, sin la cantidad de canales, ríos y lagunas de retención suficientes, la que se trata de modificar a través de las obras de infraestructura, aunque hay que asumir los riesgos de “acelerar lo que naturalmente tendría que producirse con los años”.

El investigador de la UNNOBA recordó que ya en 1884 Florentino Ameghino planteó en un trabajo la idea de no sólo producir drenaje para las inundaciones, si no también que las llanuras requieren del manejo de agua para los tiempos de sequía. “Ameghino es quien plantea uno de los primeros conceptos acerca del manejo racional del agua en un área de llanura”, dijo Kruse ante el Auditorio.

La Laguna de Gómez forma parte de la cuenca del Río Salado. La Universidad realiza estudios sobre los diversos impactos por el uso de los recursos.

Los datos sobre la abundancia de agua actualmente son elocuentes: si hacia la década de 1940 los trabajos citan niveles de 10 o 12 metros de profundidad freática, “actualmente el agua está muy próxima a la superficie, a 2 o 3 metros”. Cuando el ascenso de los niveles freáticos alcanza la superficie se produce el “afloramiento del agua” y empiezan a aparecer las zonas anegadas, al que se puede sumar el otro fenómeno, el de la falta de escurrimiento en superficie, aumentando así el problema de la inundación.

Si bien el dato aportado por Kruse llevó intranquilidad a un escenario de por sí cargado de tensión, el involucramiento y la presencia de la Universidad permitió unificar la mirada hacia el futuro: “El concepto de manejo sustentable supera la cuestión meramente técnica para encontrarse con otros elementos, actores sociales, políticos, académicos y económicos”, insistió para motivar el diálogo.

En concreto la Universidad está desarrollando proyectos relacionados específicamente con la zona y tendientes a lograr precisiones para evaluar adecuadamente la interacción entre agua superficial y agua subterránea y conocer mejor los procesos naturales y su reacción frente a las actividades humanas en relación al recurso agua. Son tres proyectos específicos que destacó Kruse: experiencias hidrológicas piloto en el Campo Experimental de la UNNOBA en Junín; también la vinculación de ecología y monitoreo de ambientes acuáticos pampeanos, relacionados con las áreas lacustres de la cuenca del Salado; y un desarrollo de un sistema de soporte de las decisiones frente a eventos extremos en la gestión de la cuenca del río Salado en la provincia.

 

El rector de la UNNOBA en el cierre del debate: "Importa el interés de los que vienen detrás nuestro".

En este sentido el rector de la UNNOBA, Guillermo Tamarit, destacó ya en el cierre de la jornada: “Nos gusta que en esta casa se puedan desarrollar debates, plantear temas que van atravesando las distintas dimensiones de nuestra sociedad. La universidades somos el ámbito natural para las discusiones de este tipo y respecto a este tema en particular nuestra Universidad tiene un rol importante en dos espacios que son de los más importantes desde lo científico tecnológico en la provincia de Buenos Aires. Uno es el Sistema Integrado de Monitoreo y Alerta Temprana Hidroambiental (SIMATH), que integramos junto al Ministerios de Ciencia y Tecnología de la Provincia, la comisión de investigaciones científicas y ocho universidades nacionales del interior de la provincia de Buenos Aires. Esto en una provincia que tiene problemas desde desertificación hasta inundaciones, donde todas estas cuestiones van siendo atrapadas por conflictos que llegan al nivel científico, porque hay una recurrencia en apelar a las universidades para las respuestas técnicas a medida que satisfacen los intereses particulares y no las mejores soluciones técnicas. Por esto es que hay que mediar”. “Ahora si nos preguntan cuál es el interés que nosotros pretendemos preservar, es el interés del futuro, es decir el interés de los que vienen, y sin duda tiene que ver con el legado que como institución y como padres tenemos que ofrecer”, insistió Tamarit.

Por Marcelo Maggio


Nota:
(1) Junín Digital: "Entró en funcionamiento un nuevo canal en la Picasa y llegará mucha más agua a Junín"


Cuando lo virtual es lo real

Por Marcelo Maggio

Cuando Guillermo Simari visitó la UNNOBA para hablar del “futuro inmediato de la informática”, tal vez hubiera alguien esperando un viaje por las últimas ferias de novedades, como la Google I/O o el E3 de Los Ángeles (1). Pero no.

El docente de la Universidad Nacional del Sur (Bahía Blanca) eligió introducir al auditorio con una afirmación más general: “Tenemos hambre de cuentos. ¿Cuánto tiempo dedica nuestra sociedad a los cuentos? Es como una droga y eso nos ha llevado a la creación de bibliotecas”. De hecho de uno de esos cuentos, Neuromante, surgió la palabra “ciberespacio”. Anclados en la ficción, pero con los pies en el presente, Simari dispara: “La realidad virtual es una extensión de esta realidad y ya no se la puede pensar por separado”.

En el significativo año 1984, cuando el escritor William Gibson acuñaba el ciberespacio, sólo la ciencia ficción podía habitar de esa manera lo virtual, y la pregunta “¿esto es real o virtual?” aún no aparecía como un verdadero dualismo de la era de las computadoras. Pero luego el ciberespacio como metáfora se extendería más allá en el pensamiento y llegaron quienes se preguntaron “¿vivimos dentro de una simulación de computadoras?”, como lo hicieron los cultores del film The Matrix (1999); o también, más acá en el tiempo, “¿es posible descubrir las raíces profundas de lo real o es todo una posverdad, un escenario creado por los media?”. En el mundo de las simulaciones, la realidad virtual parece ser algo más que una simple cuenta en una red social.

“Se interactúa continuamente con lo virtual, por eso no es que tenemos dos realidades separadas: hay una única realidad”, insiste el docente, y el auditorio que lo sospechaba ya comienza a ver el enfoque.

Desde las formulaciones de Francis Bacon (siglo XVII) en adelante, hay un acuerdo en que la percepción sensorial es fundamental para la experiencia del conocimiento: lo real es lo tangible, es decir, lo que se puede percibir con todos los sentidos humanos. Pero ahora hay otra parte de lo real a la que los humanos solamente tenemos acceso si disponemos de un dispositivo electrónico. Al complejo de sentidos humanos se lo denomina sensorium, y la crisis aparece en este punto: hay cosas del mundo que el sensorium ya no percibe, ergo necesitamos algo más para acceder a la realidad.

"No estar conectado ya es como estar ciego. Si a uno le dicen que tiene que estar ciego tres horas por día, ¿lo toleraría?"

La verdadera tendencia, para Simari, es la “conexión más directa con esta nueva realidad porque es una necesidad”. “Cuando uno se queda sin el dispositivo para acceder a lo virtual, como puede suceder en un avión, uno se siente separado. Simplemente no poder acceder por una situación normal como volar no es tolerado. Ese avance continuo de la conectividad va a tener una connotación, que es la conexión directa. No estar conectado ya es como estar ciego. Si a uno le dicen que tiene que estar ciego tres horas por día, ¿lo toleraría?”.

Pero, ¿cómo podría ser esa conexión más directa con la realidad? ¿Acaso no sobra conectividad con la tecnología actual? Parece que no, y la falta de conectividad se puede expresar en males como la “nomofobia”, definida como “miedo irracional a no disponer del teléfono”. La palabra es un acrónimo de la expresión “no-mobile-phone phobia”. Simari no cree que sea algo irracional la nomofobia, porque “se ha creado una parte del mundo a la cual solo podemos acceder si disponemos del teléfono”.

“Hoy el miedo a perder la conectividad es el miedo que puede sentir un animal al ser separado de su manada, es estar solo en el mundo, un resultado agresivo hacia nosotros. Este miedo a no estar conectado no es ninguna locura”, sostiene Simari.

"Uno se mete en el mundo digital e interactúa con cosas que sólo existen ahí. Eso es la realidad virtual..."

Acaso la fusión entre realidades (¿material y virtual?) ya la estaba anunciando el propio Gibson en el inicio de Neuromante, donde se lee: El cielo sobre el puerto tenía el color de una pantalla de televisor sintonizada en un canal muerto.

“Uno se mete en el mundo digital e interactúa con cosas que sólo existen ahí. Eso es la realidad virtual, pero ¿qué pasa cuando para acceder al mundo digital hay que anular un sentido en el mundo real, como con los lentes de realidad virtual? Aunque no es la solución definitiva, están ahí”, indica Simari.

“Creo que la realidad aumentada es un poco mejor, porque no anula la visión sino que complementa los sentidos que ya tenemos. La forma de acceder es complementaria”, considera. La realidad aumentada es un conjunto de tecnologías que permiten “ver el mundo” desde un dispositivo que añade y enriquece con información virtual lo que vemos en la ¿lisa? realidad sensorial.

Uno de esos dispositivos podrían ser los lentes de Google, tanto en su versión original, desbordante de aparatosidad analógica, como en los prototipos que se imaginan para dentro de un momento: lentes de contacto con conexión a internet que brindan información en tiempo real de todo lo que vemos, cual Terminator, pero en tiempos de paz.

Perfil. Guillermo Simari es Profesor Emérito de la Universidad Nacional del Sur (UNS). Doctor of Science (Ph.D.) por la Washington University. Licenciado en Matemática por UNS. Es fundador en 1992 del Grupo de Investigación en Inteligencia Artificial (GIIA) y desde el año 2000 del Laboratorio de Investigación y Desarrollo en Inteligencia Artificial. Fue decano del Departamento de Ciencias e Ingeniería de la Computación de la UNS y ha publicado sus trabajos en revistas científicas y editoriales de todo el mundo.

***

Cuando Friedrich Nietzsche utilizó la expresión “demasiado humano” definitivamente no estaba pensando en un cyborg (organismo cibernético) o en la idea de prótesis maquínica. De todos modos aportó una serie de preguntas que siguieron abriendo la herida narcisista de la humanidad, tal como lo hizo Darwin o Freud. La herida no sanó jamás y ahora surge la pregunta muy a pesar de Nietzsche, ¿si no hubiera más humano y éste ya fuera otra cosa?

Aparecen así los debates sobre posthumanismo y transhumanismo, la hibridación hombre-máquina y la expansión de las facultades sensoriales, ya no sólo por los dispositivos, sino también por la potencialidad de la inteligencia artificial (IA). Y frente a un escenario de posible evolución de la especie aparecen también las preguntas éticas.

“Hoy en día hablar de dispositivos electrónicos y no hablar de inteligencia artificial es dejar la mayor parte del desarrollo afuera. No hay una posibilidad de separar la IA de la informática. De hecho es la parte más novedosa y más efectiva de la informática”, afirma el docente.

"si uno lograra desarrollar lo que se llama ‘inteligencia artificial general’, ¿qué pasa con ese dispositivo?, ¿qué derechos tenemos nosotros sobre ese ‘individuo’ que hemos creado y que es ‘casi como’ un ser humano?"

Hace unos setenta años, después de culminada la Segunda Guerra Mundial, el matemático Alan Turing había propuesto un simple test que imaginaba un desafío: si un humano tenía un diálogo con una máquina que se hiciera pasar por una persona, y el humano no podía determinar después de la charla si había hablado con un humano o una máquina, entonces se habría alcanzado un umbral de inteligencia artificial. El test se popularizó y es un hito en la historia de la informática, pero desde ahí hasta ahora, ¿no ha habido una sobrevaloración de la posibilidad de la inteligencia maquínica?

“Sucede que hay áreas calientes dentro de la IA -define Simari-, que reciben atención mayor en momentos determinados. En la actualidad hablamos de machine learning (aprendizaje de máquina). Eso está fogoneado porque hay grandes masas de datos que están disponibles y se pueden utilizar para aprender. Hay mucho dinero en esto, en la utilización de los datos que dispone una compañía. Así las empresas pueden planear sus desarrollos en función de los requerimientos que se aprenden de los datos que los clientes ya tienen”. Es decir que más allá de los imaginarios colectivos sobre las máquinas que piensan, hay una zona de la economía que se mueve, y mucho, gracias a estos desarrollos.

Aunque todo esto no tenga tanto que ver con lo planteado por los pioneros como Turing, son esas chispas las que permitieron avanzar en técnicas como el big data. ¿O no?:  "Creo que han cambiado las metas. Lo que ha sucedido es que hay sistemas que tienen mayor impacto porque han aparecido las masas de datos que se pueden utilizar para aprender".

"Las técnicas de machine learning que se están utilizando hoy ya son bastante viejas, es decir que en términos de investigación han sido desarrolladas en los últimos veinte años y hoy en día se implementan porque aparecieron los datos, que antes no estaban. Recién hoy se puede aprovechar esa técnica. De hecho su creador, Geoffrey Hinton, dice que hay que tirar todo y empezar de nuevo”, apunta Simari.

"El problema es que la tecnología afecta nuestra vida de una forma tan profunda que… es imposible pensarse por fuera de ella, incluso para los grupos religiosos que intentan mantenerse como en el siglo XIX"

Los desarrollos tecnológicos pueden ser vistos desde muchos puntos de vista. Desde la condena luddita (movimiento de los destructores de máquinas de los comienzos de la Revolución Industrial) hasta el reduccionismo matemático de la ley de Moore (que dice que cada dos años se duplica la potencia informática), o el optimismo sin más de Marshall McLuhan, de pensar el mundo como un gran sistema nervioso interconectado. Incluso hay corrientes filosóficas como el aceleracionismo que parten de Gilles Deleuze y Tony Negri para hacer una crítica al capitalismo desde el análisis de la relación tecnología-sociedad.

En este sentido Simari propone pensar “todos” los componentes del desarrollo tecnológico, no solo “el componente intelectual humano y su curiosidad”. “La parte comercial” sigue estando ahí como factor determinante: “Descubrimientos disruptivos como internet, que no se pensaron desde lo comercial, con el tiempo lo fueron incorporando y así empezó a tener un control bastante fuerte sobre lo que se puede y no se puede hacer, principalmente porque se termina buscando siempre el retorno de la inversión. Los investigadores, al recibir el apoyo de un gobierno o de privados, ya tienen condicionados sus desarrollos”.

Debates, ética y razones prácticas

-En su opinión, ¿qué tipo de debates se inauguran con el desarrollo de la inteligencia artificial?

-El desarrollo de la inteligencia artificial y su parte ética es algo muy complejo. Por ejemplo se trata de pensar qué pasa al asignar ‘responsabilidad’ a un sistema, sea este sistema de armas autónomas, mediante un automóvil que se maneja automáticamente, o en un diagnosticador de enfermedades. Y también preguntas que pueden ir más allá: si uno lograra desarrollar lo que se llama ‘inteligencia artificial general’, ¿qué pasa con ese dispositivo?, ¿qué derechos tenemos nosotros sobre ese ‘individuo’ que hemos creado y que es ‘casi como’ un ser humano? Es decir, si tiene la inteligencia de un ser humano y tiene conciencia de sí mismo ¿hay un problema serio en lo ético? Por suerte estamos bastante lejos de este último problema.

-Uno de los ejemplos que dio es muy poco debatido: armas autónomas. ¿Cómo lo puede definir?

-Es cualquier dispositivo que puede provocar daño y que pueda tomar la decisión de provocar daño sin necesidad de que intervenga un ser humano. Se están desarrollando a pesar de que hay un convencimiento de la población, e incluso de los investigadores, de que no debería hacerse. Y sin embargo se hace.

-En relación a la tecnología, y a la ciencia en general, es muy difícil encontrar un espacio para desarrollar teoría crítica. En relación a la tecnología aparecen rápidamente las acusaciones cruzadas de medievalismo, luddismo, positivismo, etcétera. Tal vez el único reducto haya sido el iniciado por Richard Stallman desde el movimiento del software libre, una expresión crítica hecha desde dentro. ¿Cómo se siente usted en relación a la crítica?

-El problema es que la tecnología afecta nuestra vida de una forma tan profunda que… es imposible pensarse por fuera de ella, incluso para los grupos religiosos que intentan mantenerse como en el siglo XIX. Entonces lo que sí hay es mucha gente preocupada por el desarrollo tecnológico, gente que está pensando en cómo lograr que tenga un buen sentido y dirección. Uno de los avances, por ejemplo, es el que tuvo la Comunidad Europea al aprobar una legislación que obliga a que los sistemas de IA expliquen por qué toman las decisiones que toman o que recomiendan tomar. Esto representa un condicionamiento a los sistemas basados en machine learning dado que actualmente no tienen la capacidad de explicar sus decisiones, y a la vez presenta un desafío para que se investigue cómo producir esas explicaciones en esos sistemas. Y esto es un avance significativo. En Naciones Unidas, por ejemplo, hay un grupo que está trabajando en IA con 17 metas que ellos llaman “metas sostenibles” en las que buscan cómo aplicar las tecnologías de inteligencia artificial a 17 áreas destacadas, como la producción de alimentos o el agua limpia. Pero en términos generales la situación es que desde muchas áreas se está percibiendo cómo el impacto de la tecnología directamente cambia nuestra forma de comportarnos. Creo que ha habido un gran avance en términos amplios, porque se pueden analizar los problemas y encontrar soluciones a los usos de la tecnología, sobre todo porque hay un desarrollo rápido y hay que acostumbrarse rápidamente a los usos.


Nota:

(1) Congreso de desarrolladores que organiza Google todos los años desde el 2008. Allí se presentan y debaten, principalmente, el futuro de los productos de Google. La Electronic Entertainment Expo, Expo 3, o simplemente “E3”, es la convención de videojuegos más importante de la industria gamer del mundo.


Energía solar: ¿realidad o agenda del futuro?

Por Marcelo Maggio

En el comienzo había oscuridad, la Tierra no tenía entonces forma alguna, todo era un mar profundo cubierto de oscuridad, y el espíritu humano se movía… hasta que miró a los cielos, y el humano vio la luz del Sol. Esta podría ser una versión del Génesis, por qué no.

Con más demora que prisa, las implementaciones tecnológicas que aprovechan la energía solar se van conociendo. Sortean los obstáculos que plantean los prejuicios y también el lobby de los viejos paradigmas. Al nombrar “energías renovables” aparecen las reacciones. Los semblantes se tornan adustos o eufóricos y parece no haber medias tintas.

Parte de esa euforia se notó en el Congreso Multidisciplinario de la UNNOBA el día que Leonardo Amet (ingeniero en Electrónica, investigador y docente) se presentó para explicar qué es un “recurso solar fotovoltaico”. Bajo unos rayos solares implacables que castigaban el parque del Edificio Raúl Alfonsín, una multitud escuchó al disertante responder la pregunta: “¿El recurso solar es parte de la agenda del futuro o es una realidad?”.

Leonardo Amet es ingeniero en Electrónica, investigador y docente de la Maestría “Energías Renovables y su Gestión Sustentable” que dirige Silvina Carrizo en la UNNOBA. Impulsa “Ercos”, una empresa que se dedica a la instalación de tecnología fotovoltaica en la región.

Medioambiente y recurso renovable

Uno de los puntos de interés en la energía solar está dado por su carácter renovable, es decir que no se agota a medida que se la consume. Además tiene un costado, o más bien un centro, que implica cuidar el medioambiente, ya que no requiere custodiar peligrosos residuos por miles de años, como ocurre con la energía nuclear. Sus ventajas y diferencias en relación a la energía de origen fósil saltan a la vista principalmente por los costos y la abundancia.

Pero en el universo de las energías renovables no sólo está la energía solar, que puede ser tanto térmica como fotovoltaica, también se deben considerar otras opciones de gran exploración, como hidráulica, biomasa, eólica, geotérmica y marina, principalmente.

Leonardo Amet brinda un dato significativo que destaca la energía solar del resto de las renovables: “Es la más abundante”. Y agrega que “además es silenciosa, a diferencia de la eólica”. Esa abundancia del astro Sol hace que la pregunta por su aprovechamiento recorra las mentes más inquietas. ¿Cuánta radiación hay? ¿Es igual en todas partes? En Argentina sabemos cuánto sol llega a cada lugar del país gracias a una medición realizada por la Universidad Nacional de Luján. Y con esos datos se puede planificar la orientación de los paneles y calcular su rendimiento.

 

Leonardo Amet es ingeniero en Electrónica, investigador y docente de la Maestría “Energías Renovables y su Gestión Sustentable”

Astro Rey

Desde el punto de vista de Amet, para entender la energía solar hay que asumir que estamos en relación con el Sol. Por eso sus charlas comienzan con una explicación y ubicación del astro que guía los ritmos terrestres. Que la distancia a la Tierra es de 150 millones de kilómetros puede sonar lejano. Que produce calor por fusión nuclear, es decir que va perdiendo masa porque la transforma en radiación, suena complejo. Pero que la temperatura en la superficie es de 5700 grados es algo más tangible. Suena a mucho.

De todos modos lo que más interesa es la radiación solar, no tanto el resto. Desde el Sol llegan a la Tierra un conjunto de radiaciones electromagnéticas. Algunas de estas radiaciones están dentro del espectro visual, pero otras no las podemos podemos ver, como los rayos ultravioletas.

Según informa Amet, nuestro planeta intercepta solamente “2 mil millonésimas partes de lo que irradia el Sol, es muy poquito”. Pero esa captación de radiación es variable ya que la Tierra va girando con un cierto ángulo de inclinación, y eso afecta la radiación que llega durante el año a un lugar determinado. Esto impacta directo en un tema imporante: la orientación de los paneles solares. Es decir que según el punto geográfico en el que se esté, y según se mueve la Tierra, se debe cambiar la orientación de los paneles para optimizar la captación de la radiación. “Es lo que se denomina el camino óptico”, define.

Aunque la energía solar tiene variaciones en función del punto geográfico en el que se esté, y de los cambios del clima, “puede resultar mucho más previsible que la energía eólica”, opina Amet, “en la que todo es estadístico”.

El diámetro del Sol es 109 veces el de la Tierra. Pesa 333 mil veces lo que pesa la Tierra y entrarían 1,3 millones de planetas Tierra en el Sol. Las manchas solares de las que se habla a menudo tienen el tamaño de un planeta Tierra.

Paneles fotovoltaicos instalados en el Campo Experimental de la UNNOBA

Paneles al cielo

¿Con qué tecnología se puede aprovechar la radiación solar? En materia fotovoltaica son los denominados “paneles solares”, hechos con silicio, los que tienen el trabajo de convertir en electricidad parte de la radiación solar captada. “Cuando los fotones, entendidos como partículas, chocan contra un átomo, hacen saltar un electrón: eso ya es corriente eléctrica. Pero sólo se produce energía cuando hay luz solar, por eso es un tipo de energía intermitente”, explica Amet.

La eficiencia del silicio no es muy significativa si se miran los porcentajes: tan sólo el 17% de la radiación recibida es aprovechada. Amet cuenta que se están estudiando otros materiales, y “en el Conicet hay pruebas para subir el rendimiento, al menos a un 24%”.

Para lograr que un sistema intermitente sea completamente autónomo se utilizan baterías o “acumuladores”, que incrementan los costos de los sistemas eléctricos solares. Pero no tiene sentido buscar la autonomía en cualquier caso, se tienen que contemplar las necesidades y las aplicaciones concretas: “Por ejemplo un sistema de bombeo autónomo, electrificación en zonas rurales o alejadas de las redes centrales, iluminación pública, telecomunicaciones en lugares remotos, aplicaciones fuera de la Tierra (satélites), son casos en los que el acumulador es necesario”.

Un sistema aislado permite tener energía eléctrica sin depender de una red eléctrica central. La desventaja es que debe dimensionarse para satisfacer toda la demanda, teniendo en cuenta tanto las baterías como los paneles que se van a necesitar para un momento de alta demanda.

¿Cómo es el funcionamiento de un sistema autónomo? Los módulos fotovoltaicos que toman la energía solar. Se transforma en corriente eléctrica que va a un regulador que carga baterías. Después es necesario tener un inversor, que toma la corriente continua de las baterías y la convierte en corriente alterna, como la que se tiene en los hogares.

En el hogar también es posible

Para Leonardo Amet una instalación eléctrica híbrida, con energía generada en el hogar y con energía que proviene de la red central, mejora sustancialmente la economía de un hogar. “Instalando un sistema de 1,5 kW de potencia se puede cubrir, en un hogar promedio, más de la mitad del consumo eléctrico, es decir hasta un 60 % de energía”, afirma. Se trata de sistemas sin acumuladores, que toman la energía que proviene de los paneles de modo directo. En ausencia de electricidad solar la pueden tomar de la red. Pero además tienen otra ventaja.

“Técnicamente se puede hacer que ese sistema instalado en el hogar sea también proveedor de energía para la red central. Es decir que cuando el usuario tiene un excedente, por ejemplo si no está en su casa o porque no está consumiendo, inyecta energía a la red de su ciudad”, relata el docente. Y la gran ventaja de hacer esto es doble: el hogar puede “vender” esa electricidad y la ciudad recibe un aporte para el beneficio de todos.

Estos sistemas conectados a la red eléctrica central tienen la ventaja de ser mucho menos costosos, ya que no necesitan baterías ni construir un espacio para su almacenamiento, algo que puede requerir de una inversión mayor.

En la región existen parque solares que producen energía fotovoltaica sin el uso de los acumuladores. Por ejemplo están las localidades de Arribeños (partido de Gral. Arenales) y también Inés Indart (partido de Salto) en la provincia de Buenos Aires que cuentan con verdaderos “parques solares”. Amet explica que “básicamente son sistemas conectados a red troncal y cuentan con mucha más potencia que un equipo doméstico. Son sistemas sin acumuladores y están conectados a la red eléctrica de la ciudad”. Estos parques permiten generar y sostener el consumo de manera descentralizada.

“Parque solar de Arribeños”, por Diario Democracia

¿Prosumidores?

Inyectar energía a la red nacional estaba prohibido hasta el año pasado. En la actualidad algunas provincias tienen legislación que lo permite, y a nivel nacional desde noviembre de 2017 se cuenta con la ley 27424, “Régimen de fomento a la generación distribuida de energía renovable integrada a la red eléctrica”, conocida como “ley de prosumidores”. “Se trata de poder ser productor y consumidor -explica Amet-; en un momento estaremos consumiendo y en otro produciendo e inyectando lo que sobra”.

La tarifa cambia en este tipo de modelo prosumidor, ya que hay que calcular el precio de la energía que entra, pero también el precio de la que sale y ver cómo queda la factura final con la empresa que brinda el servicio.

En este sentido los sistemas de energía eléctrica solar demuestran ser viables y amortizables en un plazo muy corto, teniendo en cuenta que su vida útil es de 25 años. Esta ley, la 27424, fijaría las condiciones para el autoconsumo y la venta de excedentes a la red eléctrica troncal. Sin embargo, duerme el sueño de los justos ya que no se reglamenta desde que fue sancionada y por eso los casos prácticos se realizan mediante acuerdos puntuales.

La perspectiva es que las ciudades cuenten con parques solares medianos, que las casas puedan también producir e inyectar durante el día su excedente, pero esto sólo será posible cuando sea reglamentada la ley 27424 y el Estado impulse las energías renovables de manera decidida.

 

Parque solar de la localidad de Ullum, San Juan, uno de los más importantes del país.

Por Marcelo Maggio

Foto portada: “Solar eclipse”, por Miranda 72, flickr.com