Juicio por jurados: el ámbito de litigio más exigente
Por Marcelo Maggio
Los juicios por jurados son desde siempre uno de los temas favoritos del cine y de los públicos. Escenas, debates y conflictos que se nos muestran en la distancia de la ficción. Sin embargo, ¿tienen algo que ver con la realidad que vivimos como ciudadanos? ¿Qué tanto se implementan? Y los profesionales que intervienen, ¿serán como ese protagonista de la serie que tanto nos gustó?
Lejos de las pantallas, el ejercicio de la oratoria aparece hoy como una destreza que estudiantes de derecho de todo el país preparan, no sólo para enfrentarse en un concurso nacional sino, fundamentalmente, para su futuro ejercicio profesional.
Desde el Seminario de Litigación Oral que se dicta en la carrera de Abogacía de la UNNOBA se organizan y capacitan equipos de estudiantes que participan todos los años en este concurso. Uno de los responsables del seminario es Pablo Santamarina, docente y fiscal provincial, quien destaca el aspecto formativo que tienen estos concursos, “porque el litigio se aprende litigando”. Este año el desafío es doble para la UNNOBA, porque además de aportar su equipo para competir, también será la universidad sede, en la ciudad de Pergamino.
“Uno de los puntos más fuertes del concurso es la participación en sí —indica Santamarina—, porque no sólo importa ganar o ver cómo litigan los otros, sino que hay una instancia social muy fuerte, y que resulta difícil de apreciar en toda su dimensión por todo lo que aporta al aprendizaje de los estudiantes”.
El Concurso Nacional Universitario de Litigación Penal es una competencia en la que participan universidades públicas y privadas de todo el país y de la región. Más de treinta universidades y cuatrocientas personas entre estudiantes y docentes estarán una semana en la UNNOBA para la etapa presencial del evento, a desarrollarse del 4 al 8 de noviembre.
El docente destaca que “desde la creación del seminario, en 2015, nunca se dejó de participar”. Y elogia los resultados: “Los estudiantes serán mejores litigantes que nosotros, porque inmediatamente adquieren la lógica y las herramientas”. Aunque también hay dificultades a resolver. Señala que todo lo relacionado con la lectura, esos “problemas que se arrastran de los niveles de formación anterior y que no les ayuda al momento de comunicar”.
En relación a la organización del concurso, la idea nació del Instituto de Estudios Comparados en Ciencias Penales y Sociales (INECIP) para hacer un concurso nacional en distintas sedes. La UNNOBA repetirá este año como anfitriona (la anterior experiencia en nuestra Universidad había sido en 2016, en la sede Junín), ya que “estaba previsto hacerlo en Salta y por las dificultades económicas del traslado se buscó una zona central del país”.
El seminario
El seminario de Litigación Oral nace en 2015 como un espacio de formación optativa. Pero rápidamente se toman en cuenta las indicaciones del Ministerio de Educación de la Nación y pasa a ser obligatorio para todos los estudiantes de abogacía de la UNNOBA. “El formato de litigación oral sirve para todo tipo de casos, sean civiles o penales”, detalla Santamarina. En la actualidad está orientado a lo penal porque la Justicia argentina así lo requiere. El profesor aclara que “ya llegará a lo civil, porque esa es la tendencia mundial, en la cual la escritura para resolver conflictos está pasando a un segundo plano”.
En relación a sus integrantes, al comienzo eran sólo dos profesores: Pablo Santamarina y Estanislao Carricart. Al poco tiempo se comenzaron a sumar estudiantes y graduados de la UNNOBA, como Juliana Monguillot. “Ella fue alumna nuestra, entró por concurso universitario para ser docente del seminario, y ahora es la encargada de la preparación de los equipos; incluso este año va a ser evaluadora en el concurso”, cuenta. Y este año se sumó también Florencia Zandrino, junto a un equipo de alumnos ayudantes. “Es algo que va creciendo dentro de la propia UNNOBA —relata Santamarina— porque son los propios graduados y estudiantes quienes se encargan de la preparación de lo que viene. Éramos sólo dos profesores, con una materia nueva y con una perspectiva experimental”.
Concursar en un juicio
Los estudiantes se entrenan para competir en este tipo de concurso nacional. En primer lugar, considerando que “las herramientas de litigación son neutras, es decir, que para todos los casos son las mismas”. Segundo, estudiando los casos que reciben desde INECIP y sobre los que trabajarán con mayor detalle y en los cuales tendrán que asumir roles de defensa o acusación.
Los tres primeros días (lunes, martes y miércoles) afrontan un caso diferente por día y de ahí se eligen a los equipos que clasifican para la etapa final, en la que aparece el cuarto caso. “Por lo general se aborda la realidad en términos de actualidad, por ejemplo violencia de género, institucional, o vulnerabilidad. Entonces, desde el seminario se ayuda a los estudiantes a preparar el litigio del caso”, dice Santamarina.
El INECIP capacita todos los años a representantes de las universidades para que sean evaluadores y otorguen puntaje a cada universidad. Además, estos evaluadores “realizan una devolución a los equipos que compiten, indicando lo que han visto mediante una actividad pedagógica sólida, que es uno de los valores más importantes que tiene el concurso". "No importa sólo el puntaje, sino también la devolución”, destaca el profesor.
Juliana Monguillot representó a la UNNOBA como litigante en los Concursos de Litigación Universitarios en los años 2017 y 2018, luego como entrenadora del equipo entre 2019 y 2023, y este año será integrante del Comité Evaluador junto a otros catorce docentes de distintas universidades del país. La docente rememora: “Participar del Concurso cuando era estudiante me permitió poner en práctica los conocimientos que fui adquiriendo durante las distintas materias de derecho penal, especialmente en la etapa de juicio y así confirmar mi gusto por esta rama del derecho”.
“El paso por los concursos, además, me incentivó a seguir estudiando y a capacitarme en litigación —destaca Monguillot—, conocimientos que pude aplicar durante mis prácticas estudiantiles en el Ministerio Público Fiscal, lugar donde actualmente trabajo, tanto en la etapa de instrucción como también en la de juicio, especialmente en los juicios por jurados”. Además, resalta que entre sus roles está el de asistir al Cuerpo de Juicio para su preparación y también al fiscal en el debate oral. Y agrega: “Desde mi rol docente en la Universidad, también colaboro con el entrenamiento de los alumnos interesados en los concursos”.
Feliciano Larrivieri participó como estudiante en este tipo de concurso de litigación en 2023. Valora especialmente la experiencia: “Durante la competencia se genera un sentimiento de hermandad y compañerismo que es muy lindo de vivir. Se genera cierta tensión con la que uno tiene que lidiar en un escenario de simulacro, algo que también te forja como profesional”. Este año volverá a formar parte del equipo de la UNNOBA.
El sistema de jurados en Argentina
Pablo Santamarina fue atravesando las reformas y los cambios introducidos a la Justicia en estos últimos años de democracia. Desde su doble rol, como docente y fiscal provincial, afirma que el sistema de juicio por jurados llegó para quedarse: “Hay un camino trazado en esa dirección, sin vuelta atrás”.
—Hay una implementación paulatina de la resolución oral en la Justicia, pero ¿sucede lo mismo con los jurados?
—El sistema oral existe, en la provincia de Buenos Aires donde soy fiscal, desde fines de la década del 90. Se puede llevar a cabo ante jueces profesionales. Una primera diferencia es que cuando litigás ante un jurado que no conoce el caso, lo tenés que persuadir, hablar claro, presentar el caso de manera coherente, por lo tanto el nivel de exigencia es superior. Se trata ,sin dudas, del ámbito de litigio más exigente: persuadir a un jurado. En la provincia de Buenos Aires se implementó en el año 2015. Así se dio cumplimiento a un mandato constitucional y fue una forma de acercar el sistema judicial a la gente. A partir de los buenos resultados que se obtuvieron desde el 2015, muchas otras provincias se fueron sumando, se ha ido extendiendo tanto que hoy es imprescindible dentro de la formación de un profesional conocer cómo litigar en este ámbito, incluso en el ámbito civil.
—¿Qué herramientas tiene que manejar el profesional del derecho para desempeñarse en la oralidad?
—Primero, tiene que olvidarse de muchas cosas que forman parte de su saber, como hablar con términos en latín, porque es un lenguaje que nadie entiende: el gran desafío es hablar claro. Para eso, por ejemplo, hay que leer mucho todo tipo de textos que no tengan que ver con el derecho. Además, hay herramientas básicas para la presentación del caso y la formulación de las preguntas que, aunque no son difíciles de aprender, sí requieren de mucha práctica. Lo fundamental es cambiar una actitud o vicio de complejizar cosas que son simples, para así lograr convencer a alguien que no es abogado.
—¿Qué ventajas tiene para la sociedad la introducción de la oralidad y de los jurados?
—Varias. La primera es que el poder lo tiene la gente. Ante un jurado, si querés que alguien vaya preso, tenés que llevar las pruebas y es la ciudadanía la que le otorga, o no, el poder de decidir a un juez. La segunda gran ventaja es que nos obliga a ser más claros, entendibles y por lo tanto, transparentes. Esos son dos pilares fundamentales: poder y transparencia.
—En tu trabajo como fiscal, ¿te desempeñás en juicios orales?
—Sí, trabajo en juicios por jurados y en juicios orales ante jueces técnicos. Lo que se ve es que la calidad del litigio y de la preparación del caso es muy superior ante un jurado.
—¿Cómo se determina si un juicio amerita ir ante un jurado?
—En la provincia de Buenos Aires, los casos que tienen una pena de 15 o más años, en principio, van a jurado, siempre y cuando el imputado y su defensor no prefieran ir ante jueces técnicos. En otras provincias no existe la posibilidad de elegir. Las provincias han elegido empezar con los casos más graves para ir extendiendo de a poco su implementación. Por ejemplo, el proyecto de ley que se está preparando ahora desde la Nación, establece que sea para penas de 6 o más años y, si eso llegara a votarse, serían muchos más los casos en acceder al jurado. Ese proyecto de ley lo estamos estudiando algunos grupos y preparamos una devolución con algunos cambios.
—A partir de la pandemia o de casos mediáticos, hemos visto testimonios de testigos o de acusados mediante sistema de teleconferencia. ¿Qué pasa con la virtualidad y el litigio oral?
—Un juicio no se puede hacer de manera virtual. Sí se pueden tomar algunos testimonios específicos, como de alguien que esté en otro país, o realizar una consulta a un perito que esté a una distancia considerable, pero la oralidad y la virtualidad no van de la mano. Los juicios orales son, por definición, presenciales; lo que sí pueden haber son excepciones dentro del juicio. Esto se explica porque muchas de las bondades que hay en lo inmediato de lo presencial se pierden y así baja la calidad del interrogatorio y, por lo tanto, del juicio.
—Los estudiantes que ustedes van formando en litigación oral serán profesionales que dispondrán de esas herramientas para trabajar, pero ¿qué pasa con quienes se han formado en la lógica del escrito y aún están trabajando en el sistema?
—Se tuvo que empezar a desarrollar una oferta de cursos y diplomaturas de posgrado para estos profesionales, un espacio de capacitación que está creciendo, porque hay que contemplar a quienes no tuvieron este tipo de contenidos y saberes en la etapa de su formación.
Escuelas e institutos
—Una de las prácticas más interesantes, y que debe tener otro tipo de desafíos, es lo que ustedes realizan desde el seminario en las escuelas secundarias. ¿Cómo es ese proyecto y por qué lo hacen?
—Se trata de un proyecto de extensión universitaria que surge como una necesidad que advertimos junto a (Estanislao) Carricart y a Pablo Petraglia (director de la Escuela de Ciencias Económicas y Jurídicas), cuando pensamos en lo poco que se conoce del juicio por jurados en la sociedad. Y la preocupación venía, sobre todo, al tener en cuenta que es un sistema que rige en doce provincias argentinas en las que vive el setenta por ciento de nuestra población. Por lo tanto esas personas pueden formar parte de un jurado o pueden ser juzgadas por un jurado. En consecuencia pensamos en la manera de mostrar el funcionamiento de este tipo de juicios. Así fue que presentamos un proyecto de extensión, aceptado hace dos años.
—¿Lo hacen con estudiantes del seminario?
—Sí, junto a estudiantes del Seminario de Litigación hacemos simulacros de juicio por jurado en las entidades que nos invitan. Por ejemplo, si es una escuela secundaria, son los alumnos los que forman el jurado y tratamos de que los casos tengan actualidad y vigencia. Y nuestros estudiantes son fiscales, defensores, acusados e incluso a veces jueces, así no se les adelanta nada del caso. Se hace un simulacro, una actividad de dos horas y media y son ellos, como jurado, quienes deciden. Después hablamos sobre qué les pareció la experiencia y les comentamos más sobre el funcionamiento del sistema. Lo hemos hecho en escuelas secundarias de Pergamino y de Junín y con la Secundaria “Domingo F. Sarmiento” de la UNNOBA. También hemos estado con la escuela de policía y terciarios de la región. Para estas tareas se ha sumado, de una manera fundamental, el equipo de Litigación Pergamino, un grupo de profesionales locales preocupados y ocupados por mejorar la litigación en nuestro departamento judicial.
Santamarina finaliza destacando algo que permite a la universidad seguir creciendo: “Este tipo de propuestas nos permite mostrar lo que es la UNNOBA y su nivel universitario a la sociedad”.
Diseño: Laura Caturla
¿Enseñar con inteligencia artificial?
Por Marcelo Maggio
¿Cómo enfrentará el sistema educativo los desafíos que le presenta la inteligencia artificial (IA) generativa? ChatGPT, Copilot, Gemini, son sólo algunas de las herramientas más difundidas que, a la vez que masifican su uso, permean en las aulas a gran velocidad.
Con cada nueva capa de tecnología digital se introduce un renovado desafío para la educación. Desde poder pensar la existencia misma de una computadora dentro del aula, pasando por la conectividad a la red de redes, el uso indiscriminado del “dios Google” o la recurrente Wikipedia como la fuente de todos los trabajos prácticos. Sin embargo, hoy parece que el monstruo que emerge del océano es bien diferente a todos los anteriores. Por eso la respuesta no demora y ya se están pensado pedagogías que contemplan nuevas prácticas y que incluyen a la inteligencia artificial, que pareciera extender su sombra como una amenaza de extinción por toda la geografía donde pase.
La inteligencia artificial generativa puede producir "cosas”, ya sean textos coherentes como hace ChatGPT, u otro tipo de contenidos como imágenes, audio, video, presentaciones de diapositivas, programas, diseños web, recetas de cocina… desde las plataformas que van surgiendo a medida que el negocio lo promete. Este nuevo paradigma de aprendizaje, el generativo, para el caso del lenguaje se “entrena” mediante la ausencia de palabras y realiza predicciones sin la participación de un humano que le indique cuál es el significado o qué debe hacer con ese tipo de información.
Algunos intelectuales, como el filósofo Diego Levis no dudaron en plantear sus críticas desde el inicio: “Hace muchos años que los sistemas informáticos avanzados («inteligencia artificial») participan activamente en nuestras vidas aunque su expansión ha sido inicialmente imperceptible”. El problema, la crítica, posa en su implementación actual, ya que "son utilizados para influir, condicionar y dirigir de un modo sofisticado y casi imperceptible nuestros gustos y nuestros deseos, ideas y comportamientos”.
Es por eso que desde las instituciones educativas se está pensando en dar respuesta a los nuevos desafíos. ¿Qué hacer, dejarse llevar por la ola? Alejandro González es docente en el seminario “Inteligencia artificial y educación: análisis crítico y propuestas en educación superior” de la Maestría en Docencia Universitaria de la UNNOBA. Este profesor afirma que “los estudiantes ya están usando la IA, para estudiar y para hacer tareas, y por eso es necesario mantener el poder de decisión y de crítica, para no creer que todo lo que te responde es la verdad absoluta”. En 2023 desde The New York Times se advertía sobre una de estas aristas: “La inteligencia artificial a veces alucina, es decir, inventa cosas. Y estos errores pueden ser simplemente decepcionantes o, por el contrario, tener consecuencias devastadoras para algunas personas”. (Elda Cantú, en el sitio de Diego Levis aquí).
En esta entrevista, el responsable del área de Educación a Distancia de la Universidad Nacional de La Plata (UNLP) parte de pensar la tecnología educativa desde una línea histórica general, que puede iniciar en el libro en papel y seguir hasta los medios masivos tradicionales. Sin embargo, González enfatiza en la necesidad de hacer foco en lo digital: “Incluimos todas las tecnologías, pero puntualmente la digital, pensada en la relación que se da con los procesos educativos. En este sentido, la irrupción de la inteligencia artificial generativa es la tecnología que está siendo más analizada, probada y puesta en perspectiva desde el año pasado”.
Frente a la dicotomía “amenaza o revolución”, que impondría la nueva inteligencia artificial sobre la educación, González plantea que hay que asumir que estamos ante "una tensión permanente” y no frente a una dicotomía.
Las tecnologías del conocimiento vigentes no tendrían por qué sentirse amenazadas sino que habría que encontrar su nuevo lugar en un escenario reconfigurado. “Todas las tecnologías de la educación forman parte de lo que la persona utiliza para aprender, y hay que identificar que son distintas. Podemos elegir un libro y preguntarle a la inteligencia artificial cuál es la idea principal del autor, y quedarnos con eso. Pero la experiencia de leer el libro completo no la puede reemplazar, y mucho menos esa fascinación de tenerlo en la mano, por ejemplo”, asegura González, magíster en Tecnología Informática Aplicada a la Educación.
Desde su experiencia como docente, González advierte algo que podría pasar inadvertido pero que en un proceso histórico puede tener consecuencias diversas: “Hay una tendencia a la virtualización de los objetos. Esto es parte de algo más profundo, que tiene que ver con cómo el mundo imagina su futuro”.
La problemática excede al debate educativo, pero dentro de su esfera aparece con claridad con el avance de los "entornos digitales", y se la puede pensar en los términos más amplios de un nuevo estatus del régimen de la materialidad y el mundo de las cosas.
González es docente de grado y posgrado en diversas universidades, y afirma que en sus cursos se ponen “todas las tecnologías sobre la mesa y ahí es cuando aparece lo interesante”, mediante esa interacción con las tecnologías. “Más allá de la posición de cada uno, tratamos de que se pueda comprender qué es una tecnología digital y qué está reemplazando y, sobre todo, si ese reemplazo es el más adecuado, o no, para el proceso educativo”.
Tecnologías educativas, un camino
La tecnología digital educativa tiene su recorrido y los desafíos no comenzaron con ChatGPT. González rememora: “Cuando en los 80 aparecían las primeras computadoras, y se hablaba de la computadora en el aula, parecía algo imposible. Luego hubo una primera impronta en los 90, que fue marcada por internet y su apertura para mejorar la comunicación y distribuir la información. La educación a distancia permite entenderlo mejor, porque fue la primera forma que tuvo la educación de incorporar estas tecnologías, porque las necesitaba, desde el momento cero, cuando se deja de pensar en revistas, fascículos o televisión y se empieza a pensar en que hay otro medio para distribuir el conocimiento”.
Estos antecedentes desembocan en lo que se conocen como entornos virtuales de enseñanza aprendizaje, un espacio réplica del aula física denominado “aula virtual”. Desde los años dos mil, aparece el híbrido, el aula que va más allá de las cuatro paredes gracias a las nuevas tecnologías. Internet y la computadora en el aula van llegando al aula gracias a programas como fue Conectar Igualdad en Argentina (2010). Y también el debate sobre el uso de las redes sociales con fines educativos (2015).
Un recorrido que llega hasta la pandemia y ahí se pone a prueba. “En la pandemia se produce un quiebre —afirma González— porque la hibridación que faltaba era la videoconferencia. Lo que termina de hacer esta aparición es dar cuenta de que hay otra manera de enseñar y que no es teniendo al alumno dentro del aula, algo que no era una novedad, pero que no se hacía por falta de aceptación”. La necesidad llevaba a la herejía.
“La no aceptación es parte de la dinámica habitual de los procesos educativos, porque son procesos lentos, y fue necesaria una situación extrema como la pandemia”, reflexiona. Y agrega: “Aunque hubo retrocesos, la tecnología sigue avanzando, es inevitable, y el hito que viene ahora es la inteligencia artificial generativa”. Por eso, “es un buen recurso para pensar qué tecnologías elegir y qué formas de trabajo hay que dejar atrás”. “Este cambio de lo que requiere es mucha planificación y preguntarse para qué, cuáles son las necesidades y qué tecnologías se utilizan”, sintetiza González.
Preguntarnos cómo funciona
—Muchas veces las tecnologías emergentes se introducen en el aula casi por la ventana, porque ya se usan o porque todos hablan de eso. ¿Cómo enfocar este problema desde instituciones que tienen lógicas distintas a la del mercado?
—Pensando en el seminario de la maestría, lo primero que tratamos de hacer es plantear que debemos entender cómo funciona. Como con cualquier tecnología, para saber manejarla hay que saber cómo funciona. La segunda vuelta es probarla, empezar a usarla y ver para qué sirve. Recién después podés pasar al plano de la planificación didáctica. ¿Creemos que se puede usar tecnología de inteligencia artificial generativa en el aula? Sí. Pero lo que necesitamos es que la prueben y la usen primero los docentes. Por ejemplo, hay que saber preguntarle y repreguntarle a una IA. Esa es una parte del seminario. La otra parte es la cuestión ética, no sólo los problemas típicos que preocupan a la docencia, como la copia y el plagio, sino acerca del contenido y las ideas que se introducen, porque debemos pensar en quiénes entrenaron a esa IA y con qué material. Si uno puede interpretar que hay un sesgo, volverá a preguntar y hacerla responder de otra manera. Es el mismo sesgo que tenemos nosotros, claro, porque es algo creado por humanos.
Alejandro González destaca que es un tema preocupante relacionado con los usos de la inteligencia artificial generativa y que por eso intentan abordarlo puntualmente en el seminario de posgrado, “para poder pensar actividades que enseñen a los estudiantes un buen uso de la IA”.
“Lo planteamos de este modo porque sabemos que los estudiantes ya están usando la IA, para estudiar y para hacer sus tareas. Por eso destacamos que es necesario mantener el poder de decisión y de crítica, para no creer que todo lo que responde la IA es una verdad absoluta”, afirma. Y en este sentido les insiste a sus colegas docentes: “El mayor problema que podemos encontrar es el uso indiscriminado, que lamentablemente va a pasar, como pasa con las redes sociales, el mal uso. Somos los docentes quienes podemos resolver estos problemas, no queda otra”.
—¿Por qué se está hablando de una alfabetización digital? A inicios del siglo XX la alfabetización era un concepto centrado en la lectoescritura. Sin embargo en la actualidad se plantea que esta nueva capa tecnológica requiere de una alfabetización específica.
—Creo firmemente que la alfabetización digital es algo central. Desde hace tiempo venimos planteando que es un elemento más a incorporar. Nosotros lo hacemos a nivel universitario, lo hacíamos en su momento cuando enseñábamos a usar un buscador de internet. Le podemos decir alfabetización mediática o informacional, pero ese es el punto al cual tenemos que ir: lo vienen planteando UNESCO y UNICEF, pero no termina de plasmarse.
—¿Alguna hipótesis de por qué no se logra avanzar en este sentido?
—Creo que la tecnología digital no lo logra porque tiene la tendencia, más que otro tipo de tecnologías, de volverse invisible, transparente, en el hacer diario de las personas, y eso genera que sea complejo poder entenderla, porque si muchas cosas no las vemos, entonces las iremos perdiendo en tanto son un objeto tecnológico. Considero que es importante la alfabetización digital en todos los niveles educativos y que podría ser, incluso, una asignatura. ¿Por qué? Porque existe un pensamiento computacional, poder pensar en qué es lo que está pasando ahí, en esa máquina, que funciona de una manera diferente a la de nuestro razonamiento habitual. Son ejes que debemos pensar para incorporarlos desde la temprana edad y acompañarlos debidamente en su evolución.
—En tiempos de la prepandemia, desde la Fundación Sadosky, el espacio denominado Program.AR, el Instituto Nacional de Educación Tecnológica (INET), entre otros, se planteaba algo similar, en esta línea. Decían que se tenía que incorporar "programación" como asignatura a los planes de estudio de la educación obligatoria, al nivel de matemática o lengua. Vos, que también enseñás programación, ¿estás de acuerdo?
—Estuve en ese debate. Incluso uno de los informes de UNESCO, “Educación 2030” (y también desde este documento puntual), solicita que se incorpore la enseñanza de la programación como tema. Creo que va en línea con lo que decimos. Para poder entender estas tecnologías no alcanza con los saberes que se brindan actualmente, porque hay algo del razonamiento que se le pone a la tecnología digital que no está presente en otras disciplinas. Sigue siendo un faltante. Aunque hay escuelas de nivel medio que enseñan tecnología digital, pero desde lo herramental, es decir aprender a usar tal programa, hay que ir más allá. Se discutía a inicios de los 90 que la programación era algo elevado para el nivel medio, se mencionaba a Piaget y las capas para el razonamiento. Pero hoy vemos que estudiantes de 6 o 7 años pueden programar. Y en este sentido, lo que notamos en nuestras carreras de informática es que los estudiantes alcanzan un mayor nivel de comprensión sobre cómo funciona esta tecnología cuando hacen programación de computadoras.
La soberanía, ¿un término del pasado?
—Genera curiosidad saber cómo queda la temática de la "soberanía digital" frente al nuevo escenario que nos impone la IA de los gigantes tecnológicos. Hubo desarrollos, por ejemplo en el marco del programa Conectar Igualdad, que apuntaron a esa idea. En el presente la problemática de la soberanía aparece borrosa, en parte porque cada vez estamos más atravesados por los recursos que nos proponen las grandes tecnológicas del mundo. ¿Se puede continuar reivindicando la soberanía digital o ya hemos quedado muy atrás en el desarrollo tecnológico y en el discurso político?
—Yo creo que sí hay que retomarlo. No tenemos un contexto político del país que lo favorezca, absolutamente para nada, todo lo contrario. Tenemos un mal momento político, donde cualquier propuesta de soberanía digital no va a ser bien vista ni entendida. Al revés, traemos la distribución de internet mediante Elon Musk, pero no va por ahí la cosa. Desde las universidades podemos hacer mucho por la soberanía digital. Los Estados tienen que tener sus propios desarrollos, tanto en IA como en otros campos. Acá no hay ningún proyecto que yo conozca que esté pensado para dar cuenta de esto. ¿Hay desarrollos puntuales y locales? Sí, claro, por ejemplo desde una materia estamos desarrollando un chatbot con toda la complejidad que te imagines, porque no quiero que utilicen ningún servicio externo, queremos que sea un servicio nuestro, de la UNLP. Ahí vos ya tenés una primera mirada sobre la soberanía. Claro, eso es David contra Goliat, pero son los Estados los que deben fomentar el uso de tecnología digital pensando en la soberanía: cuidado de datos, recursos, servidores propios. Por ejemplo, los datos de los estudiantes los tenemos en nuestros propios entornos virtuales, siempre nos negamos a comprar una plataforma externa. ¿Quién tiene los datos, quiénes los administran? Somos nosotros. Por más extraño que parezca el momento que estamos viviendo, creo que la soberanía digital no está perdida, para nada. Si primero la lucha por soberanía fue territorial, cuando se quieran dar cuenta la disputa va a ser por los datos.
“En la inteligencia artificial hubo una revolución”
Por Marcelo Maggio
Cuando Juan Pablo Tessore empezó a estudiar la carrera de Ingeniería en Informática en la UNNOBA corría el año 2006. Para ubicar el frenesí de la historia si se mira desde el prisma digital, se pueden citar algunos datos de color. Lo ubicamos como el año en que Google adquiere una pequeña pero prometedora plataforma para subir videos: YouTube. También fue el año en que aprendimos a tuitear. Y para decorar, en diciembre Steve Jobs deslumbró a un grupo selecto revelando su nueva creación, el iPhone.
La inteligencia artificial ya era un campo de investigación que venía pidiendo pista desde hacía muchos años, pero seguía siendo un tema de especialistas, algo lejano a los usuarios de a pie, de la prensa masiva y de las cotizaciones en bolsa. En 1950 Alan Turing escribió un breve artículo en el que se preguntaba “¿pueden pensar las máquinas?”, y encendió la mecha. Su exploración fue sumando cada vez más adeptos; Juan Pablo Tessore se inscribe en esa historia con su labor.
“Modelado e implementación de algoritmos inteligentes de análisis de opinión” es el título de su tesis, presentada en la Facultad de Informática de la Universidad Nacional de La Plata para el Doctorado en Ciencias Informáticas. Con este trabajo, defendido y aprobado en septiembre pasado, Juan Pablo Tessore se convirtió en el primer graduado de la Escuela de Tecnología de la UNNOBA en obtener un título de doctorado. Para Mónica Sarobe, directora de esta unidad académica, “Juan Pablo representa la importancia de la formación continua, algo central en cualquier disciplina pero en especial para las relacionadas con la tecnología, porque ha dejado de ser una alternativa para pasar a ser una prioridad”. “Esta titulación, sin duda, redundará en mejoras tanto para nuestro proceso académico como para la investigación”, destaca la directora de la Escuela de Tecnología.
Tessore nació en Junín y deseaba estudiar informática sin alejarse de los suyos: “Empecé a tener contacto con estudiantes que ya cursaban en la UNNOBA y les consulté cómo era la carrera; tuve buenas opiniones sobre lo académico y respecto de los profesores también. Eso me convenció. Además, está la parte de los afectos, el hecho de tener a mi familia y a mis amigos acá. Tenía todos los beneficios sin los costos de irme”.
Mientras estudiaba, comenzó a desempeñarse como ayudante alumno en la materia “Bases de datos”, hasta que finalizó su carrera de grado como ingeniero en Informática, en 2011. Trabajó para el sector privado en diversas empresas, pero la Universidad siempre estuvo presente para él. Siguió un tiempo como docente desde las materias “Lenguajes de programación” y “Compiladores”, hasta que la curiosidad y las elecciones de la vida lo llevaron a dedicarse por completo a lo académico. Inició los estudios de un doctorado y se puso nuevamente al frente en las aulas de la universidad en los cursos de las materias “Compiladores” y “Sistemas inteligentes”.
En la búsqueda de la inteligencia artificial
Para empezar su doctorado tenía que presentar una propuesta. Tessore confiesa que siempre estuvo enfocado en el mismo tema, aunque implicara estar en el ojo del huracán: “En nuestra rama, en este tiempo, hubo una revolución y nos tuvimos que adaptar, aunque siempre estuve concentrado en la inteligencia artificial que estudia el aprendizaje automático, el procesamiento del lenguaje natural y el análisis de sentimientos y opiniones”.
Cuando el mundo digital estaba viviendo la fiebre de las apps en los dispositivos móviles, Tessore hizo su apuesta personal por la inteligencia artificial. Cuenta que pudo ver cierta tendencia y sentía que tenía que explorar por ese camino porque “había algo que iba a explotar”. Para él, “es un área que trae muchísimos beneficios y riesgos. Los beneficios de la automatización de tareas son evidentes, tareas que pueden ser tediosas, incluso riesgosas para las personas y que solucionadas por la automatización traen beneficios económicos claros”.
“A inicios de 2017 hice un intercambio en España, estuve en Zaragoza y en Madrid. Los investigadores de allá me plantearon que no había recursos para entrenar clasificadores basados en aprendizaje automático para el análisis de sentimientos y opiniones en el idioma español”, recuerda. Este tipo de herramientas estaban muy avanzadas para el idioma inglés, pero en español la investigación estaba rezagada. Así fue que arrancó su propuesta.
¿Pero qué implica todo este tema del aprendizaje automático? Tessore lo explica así: “Es una rama de la inteligencia artificial que se centra en desarrollar algoritmos que puedan aprender a partir de los datos y, para nuestro idioma, faltaban muchos recursos, entre los que podemos encontrar los denominados 'datasets etiquetados'. Desde el Instituto de Investigación y Transferencia en Tecnología (ITT) de la UNNOBA trabajamos para recopilar textos de redes sociales y diseñar una metodología para clasificarlos de manera semiautomática y, a su vez, validarlos”. Esos datos servirían para entrenar a los algoritmos.
“Los resultados fueron buenos”, afirma Tessore, “y determinaron que los clasificadores entrenados por el equipo del ITT tenían un rendimiento similar a lo que estaba presente en los otros idiomas”. Pero había más: “Creamos una metodología que permitía crear esos datos de entrenamiento de manera mucho más ágil, sin la intervención de una persona que lo haga todo de manera manual”.
Las implicancias de este cruce entre IA y lenguaje aún nos siguen sorprendiendo. “Por ejemplo, estas herramientas se pueden usar para un análisis automático de opiniones de un producto en venta al revisar los comentarios en una plataforma online, lo mismo podría usarse para los comentarios durante una transmisión en vivo. Por lo tanto, el objetivo es analizar un texto informal que aparece en una red social y obtener resultados”.
Procesamiento del lenguaje natural se denomina a la rama de la inteligencia artificial que se ocupa de la interacción entre las computadoras y el lenguaje humano, algo que despertó las alarmas de los críticos, como la del best seller Yuval Harari. “La IA tiene la capacidad de hackear y manipular el sistema operativo de la civilización. Al adquirir el dominio del lenguaje, la IA se ha apoderado de la llave maestra de la civilización, capaz de abrir desde las bóvedas de los bancos hasta los santos sepulcros”, declaró para The New York Times el filósofo.
Esta interacción entre computadoras y lenguaje humano puede trabajar sobre texto escrito, pero también se puede orientar hacia algo mucho más arriesgado como es la generación y comprensión de voz humana. Tessore advierte que su trabajo apunta hacia lo textual, como lo que podemos ver en ChatGPT: “Eso es el procesamiento del lenguaje natural, cuando interactuás con una herramienta y puede parecer que se trata de una persona”.
“Creo que cualquier tarea va a tender a estar basada en este tipo de interacción con el lenguaje natural. Por ejemplo, las empresas están invirtiendo mucho en pasar de los chatbots tradicionales hacia este modelo, ya que la diferencia es enorme”, explica. Pero hay riesgos que asumir al atravesar ese umbral, como los nuevos tipos de problemas que aparecen a nivel de seguridad. Tradicionalmente los ataques informáticos tenían que ver con un dominio muy profundo de la técnica computacional. Sin embargo, expertos como el español José María “Chema” Alonso afirman que el hacking actual se basa más en un uso creativo del prompt (cuadro o vía) de diálogo con una IA que en las técnicas tradicionales. Para esto, “hay que estudiar más psicología que programación”. En criollo, el nuevo hacking está más cerca del cuento del tío que de pantallas llenas de código.
La investigación, un camino
—¿Cómo vivís la experiencia de investigación en un área que es tan amplia y cambiante?
—En esta disciplina siempre me dediqué al software y al pensamiento abstracto; eso es lo que te permite la programación y no tanto lo que es el trabajo con hardware. Cuando empecé a estudiar se veían algunos cambios, sobre todo los relacionados con la masificación de internet y con los nuevos dispositivos. Pero, al elegir esta carrera, mi objetivo fue siempre formarme en algo específico y que me gustara. Y aunque estuve unos años trabajando en el sector privado, decidí volver para seguir estudiando y hacer investigación, algo que pasó gracias a la insistencia y el ofrecimiento de Hugo Ramón (prosecretario TIC de la UNNOBA).
—¿Cómo evaluás el nivel académico de la investigación informática en nuestro país?
—Hace poco hablaba con un colega que trabaja en una empresa del exterior y me decía que buscaban especialmente gente de Argentina por el buen nivel técnico que hay en informática. Y no es la primera persona que me lo dice. Mi directora de tesis, que es argentina y vive en Europa, insiste en que le gusta sobre todo colaborar con los proyectos de nuestro país por el buen nivel que hay. Son ejemplos, pero creo que nos ayudan a ver dónde estamos.
—¿Alguna hipótesis de por qué sucede eso?
—Creo que hay una presencia importante de carreras y programas de formación e investigación en el país. Mi carrera de grado la hice sin pagar nada y tuve acceso a una educación excelente, con docentes del ámbito local y también de otras ciudades, una tradición que creo nos da una posibilidad que en otros países no existe. Hoy tengo cantidad de compañeros egresados de la UNNOBA que están insertos en la industria, y aunque por ahora soy el único que terminó el doctorado, destaco que también están Leonardo (Esnaola) y Benjamín (Cicerchia) finalizando los suyos.
—¿Cómo sigue tu labor a partir de ahora?
—Partiría de tomar el surgimiento y desarrollo de estos grandes modelos del lenguaje y me gustaría utilizar alguno de ellos para aplicarlo en optimizar tareas en alguna institución. Por ejemplo, para la asistencia en los sistemas de enseñanza dentro de las aulas virtuales, o incluso dentro de una empresa en un sentido más amplio, para optimizar procesos.
—A nivel nacional, ¿qué tipo de desarrollo hay en inteligencia artificial?
—Hay muchos grupos de investigación abocados a la tarea. Lo que hay que tener presente es el gran financiamiento que tienen las empresas que están hoy en boca de todos, y por eso el crecimiento que han tenido. De hecho, en los últimos congresos a los que asistí, un tema que se ha debatido es que tenemos que involucrarnos para que estas herramientas dejen de ser una “caja negra”, porque no sabemos qué es lo que hacen para dar las respuestas. Y si las integramos a los procesos productivos sería bueno poder explicar por qué se toman las decisiones, para que no sea algo arbitrario. Es necesario que los investigadores que estamos en las universidades del país nos involucremos en esto para poder crear herramientas similares a las que ya hay, que sean más transparentes y que sepamos cómo funcionan. Esto es crítico si pensamos integrarlo a la vida social, por eso las instituciones públicas y el Estado tienen un rol que cumplir en eso.
—¿Existe un espacio específico desde el cual debatir sobre IA en nuestro país?
—Por el momento, tenemos los congresos de informática, como el Whorkshop de Investigadores en Ciencias de la Computación (WICC) (el último se realizó en la UNNOBA) y el Congreso Argentino de Ciencias de la Computación (CACIC 2023). En ambos espacios hay líneas abocadas a la inteligencia artificial. De hecho, yo estuve en un panel sobre IA y educación en el último CACIC. Pero creo que el auge del tema hará que surjan más espacios para debatir y planificar tareas.
Práctica profesional: el desafío del mundo del trabajo
Por Marcelo Maggio
La estrategia de implementar Prácticas Profesionales Supervisadas (PPS) se extiende en el sistema educativo y son cada vez más las carreras que a nivel nacional deciden incorporar este modelo de finalización de la cursada de grado. Ante la demanda social por acercar teoría y práctica, el sistema universitario argentino fue desarrollando cambios en los planes de estudio que permitieron crecer en este sentido.
“Desde 2017 todas las universidades que dictan la carrera de Contador tienen la obligación de acreditar nuevos planes de estudio”, explica Marcelo Storani, secretario Académico de la Escuela de Ciencias Económicas y Jurídicas y docente de materias del área de Contabilidad. El procedimiento para las reformas, sea en esta carrera o en otras, incluye tanto a las universidades como a las instancias nacionales que dependen del Ministerio de Educación con el objetivo de “integrar conocimientos académicos con la realidad profesional”. “Las PPS son, además, un mecanismo de evaluación de la institución junto a la comunidad, porque aparecen empresas y organismos públicos que le brindan espacios al futuro graduado, son un estímulo y, además, estas prácticas permiten encontrar distancias, diferencias, problemas, entre la demanda social y la oferta académica”, sostiene el funcionario.
En agosto de este año comenzó la cursada del seminario en materia jurídico tributaria, a partir de un convenio con la Administración Federal de Ingresos Públicos (AFIP), una práctica que les permite a los estudiantes de Abogacía y Contador cumplir con las 100 horas previstas, tanto en Junín como en Pergamino.
Storani detalla que se trata de un recorrido con teoría y práctica: “Se utiliza la plataforma de AFIP para el desarrollo de trabajos prácticos sobre cada uno de los impuestos que se estudian, con casos reales, quitando los datos sensibles. Luego el estudiante tiene que elegir un tema y desarrollarlo ante un jurado, así se recibe, esa es su última materia”.
El nuevo plan de estudio para la carrera de Contador data del año 2018 y contiene la obligatoriedad de culminar la carrera con 100 horas de práctica. Y en Abogacía ya estaba prevista esa práctica, que atravesó varias reformas. “Tenemos varias modalidades para cumplir esas horas. Una de ellas es la tradicional tesina, que consiste en la investigación de un tema —relata el docente—. Pero ahora también tenemos la interacción con las empresas y organismos mediante estas prácticas, que implican la firma de convenios con cada uno”. En particular, Storani destaca este convenio con AFIP porque la modalidad de seminario permite hacerlo de modo grupal, con una docena de estudiantes que practican todos juntos.
Además de ir abordando cada uno de los distintos tributos y temas (desde la relación entre sistema tributario y el los poderes del Estado hasta temas específicos como monotributo, relación de dependencia o cargas según el sector productivo) con docentes y funcionarios del organismo, luego los estudiantes realizan una visita guiada al organismo, donde se entrevistan con los responsables de cada sector, desde atención al público y revisión de recursos hasta la parte jurídica, de particular interés para estudiantes de Abogacía. Aunque hacen el seminario de manera separada, la Universidad mantiene una relación entre lo jurídico tributario y lo estrictamente contable tributario.
Derecho y economía
—¿Cómo funciona lo jurídico tributario? Es decir, ¿cómo es esta práctica para los abogados?
—En el organismo está la parte jurídica. Cuando uno tiene, como contribuyente, un proceso de fiscalización, puede impugnar o puede presentarse con una disconformidad ante el organismo. Existe un cuerpo de abogados de AFIP que analiza el pedido que hace el contribuyente. Lo admite o lo rechaza. Si se lo rechaza, el contribuyente tiene la posibilidad de ir a un tribunal fiscal, salir de la órbita de AFIP e ingresar a la esfera judicial, seguir así un proceso en un tribunal.
—Es decir que sólo abordan litigios y conflictos.
—Exactamente. AFIP tiene muchísimos abogados trabajando, casi la misma cantidad que contadores.
—¿Ese nivel de conflictividad es normal, es algo exclusivo de Argentina?
—El conflicto es permanente. En materia tributaria existen plazos y recursos. Son dos instancias distintas: lo administrativo y lo judicial. Y es algo normal, en todos los países existe. Muchas veces extender el conflicto permite no pagar, extender el tiempo, quizás conseguir una moratoria. O mantener la expectativa de un fallo a favor porque pudo existir algún error en el proceso de fiscalización por parte de los agentes.
—¿Cómo es la obligación de la práctica en la carrera de Abogacía?
—Es algo previsto en el plan de estudio. Y estas prácticas orientadas a la experiencia profesional equiparable nos permiten que el futuro egresado se adelante a la vida laboral, tenga contacto con el no sólo con el Poder Judicial, sino con una empresa o un organismo, como en este caso, para así mejorar la formación cuando finaliza su carrera. Pero también las prácticas tienen otra ventaja, por ejemplo para estudiantes de distintas localidades que terminaron la cursada y que pueden hacer estos trabajos en su lugar de origen. Entonces se vincula a la Universidad con los diversos distritos de la región.
Impacto académico y salida laboral
“Las PPS también nos han dado la satisfacción de poder vincular al estudiante con una primera salida laboral —indica con gusto el profesor Storani—, porque allí, en esa práctica, suelen encontrar su primer trabajo como premio a su desempeño”.
Claro que para realizar un trabajo en el marco de una PPS se tienen que dar una serie de acuerdos legales que no son improvisados. Es un trabajo que se da mediante la firma de un convenio específico entre un empresa/organismo, la universidad, el estudiante y los tutores, “porque se designa un tutor por el lado de la empresa y otro por el lado de la universidad”. Todo esto permite pactar “un plan de trabajo, donde figura qué es lo que tiene que realizar el estudiante en ese trayecto formativo durante el cumplimiento de las horas”.
Así se puede garantizar que se trata de una práctica formativa y no de una simple utilización de mano de obra gratuita, o un uso improductivo del tiempo estudiantil. Storani, como secretario Acedémico de la Escuela, tiene una visión amplia y estratégica del tema.
—Este tipo de cambios en la formación era algo que aparecía en los discursos públicos. Se pedía una formación que no estuviera tan apartada de la práctica, ¿usted lo ve así también?
—Claro. Cuando me recibí hace treinta años, también reclamábamos esto. Y por eso también buscamos que las carreras de grado se acorten, tener planes de estudio con menor carga horaria, que esa carrera esté más cerca de la práctica profesional del graduado; que brinde una formación generalista para luego seguir mediante el posgrado y la formación permanente enfocados en el área que más le interesa o que le brindó la oportunidad laboral, que muchas veces pueden ir de la mano.
—¿Estas reformas también impactan o se orientan en ampliar la base de estudiantes graduados?
—Entre otras cosas, se busca achicar la deserción y acortar el período de graduación. Los promedios de graduación pueden llegan al doble de lo estimado por el plan de estudio, y eso no es bueno, esa dilación, por eso buscamos acompañar a los estudiantes ya desde el inicio. Por ejemplo, en los primeros años de la carrera buscamos, sobre todo, que no se abandone haciendo seguimientos y ofreciendo más opciones de cursada a quienes tuvieron problemas.
—¿En estas carreras también son los primeros años los más críticos en términos de deserción?
—Sí, lamentablemente. En primer año la deserción puede llegar al cincuenta por ciento. Y se se dan muchas cosas como para poder analizar, desde que la base que un estudiante trae de la secundaria, que nunca alcanza, hasta el tema vocacional, porque cursando se pueden dar cuenta de que en realidad buscaban otra cosa. Ahí lo que tenemos que hacer es acompañar esos procesos de búsqueda.
Relación con AFIP, el rol del Estado y los impuestos
—¿Cómo es la génesis de esta práctica profesional en concreto, cómo llega la Universidad a articular con un organismo de la dimensión de AFIP?
—Desde hace más de diez años AFIP tenía un convenio con la universidad mediante el cual se dictaban seminarios de cultura tributaria. Eran cursos abiertos, no formaban parte de la currícula, y tenían como objetivo generar conciencia en el estudiante. Luego, hace unos seis años, aparece la idea de los “núcleos de asistencia fiscal” (NAF) y para eso participé en un programa de capacitación en la casa matriz de AFIP, dentro del Ministerio de Economía. Los NAF eran como "minioficinas" del organismo dentro de las universidades donde el estudiante trataba de atender y colaborar los ciudadanos. Pero este proyecto no prosperó por diversas cuestiones propias del organismo. A partir de estas experiencias pasadas, del buen vínculo que veníamos teniendo, y teniendo en cuenta que varios funcionarios de AFIP a nivel regional ya eran graduados UNNOBA, pensamos desde Junín armar este seminario, con características bien específicas. Desarrollamos un programa, lo presentamos a AFIP para que sea aprobado y lo vieron bien. Incluso lo tomaron como ejemplo de experiencia para replicar en otras agencias de AFIP para el resto del país.
—AFIP es un espacio para la práctica y la formación en un momento histórico en el cual el concepto de impuesto aparece en el foco de la crítica política, hasta lo impositivo en general. ¿Cómo podemos interpretar, en este marco, la formación impositiva, contable o jurídica?
—Nosotros tenemos que ser profesionales en la liquidación de los distintos tributos, independientemente de la política y más allá de nuestra crítica, o no, a la carga tributaria. Lo cierto es que cuando nos recibimos tenemos que saber liquidar los impuestos existentes. Entonces hay que tratar de trabajar de un modo profesional acatando cada normativa y cada procedimiento. Es más, en esa línea estamos intentando sumar a ARBA (ente responsable en la provincia de Buenos Aires) para ver también los impuestos provinciales y sumar también a los municipios para estudiar el tema tasas. Si el día de mañana hay una reforma que reemplaza impuestos, los elimina, o los reforma, tendremos que adecuar el seminario a los tributos vigentes. Tenemos que ser prácticos y objetivos para la labor del profesional del futuro, ya que tanto sus clientes como la sociedad toda dependen de que hagan bien su tarea.
Enigma GPT: preguntas a una tecnología
Por Marcelo Maggio
La sensación generalizada es que, al parecer, la promesa de la inteligencia artificial se ha cumplido, que ha dejado de ser un fenómeno de científicos o de la literatura, y que ya está disponible en cualquier dispositivo, lo sepamos o no.
El nombre de la inteligencia artificial (IA) hoy es ChatGPT. La técnica o la publicidad así lo determinaron. Los tiempos actuales son así, virales se dice, no importa que la idea tenga setenta años y miles de proyectos anteriores o paralelos. Se trata de “una arquitectura de red neuronal profunda llamada GPT (Generative Pre-trained Transformer) que fue entrenada con grandes cantidades de datos textuales para poder generar respuestas coherentes y precisas a las preguntas y consultas de los usuarios”. Al menos eso es lo que respondió el propio Chat acerca de sí mismo. ¿De sí mismo?
ChatGPT fue la aplicación que más rápido crecimiento en número de usuarios tuvo en la historia de internet. Como si se tratara de un gran estadio en el que se jugaba la final del mundo y las masas agolpadas afuera pudieran entrar sin pagar entrada. Así fue. Las más profundas curiosidades y temores nos movían. Sin embargo, esas cavilaciones concretas, a nivel de la técnica, esas ideas sobre una máquina que pudiera hacer lo que hoy hace ChatGPT, comenzaron con una leyenda de la historia de la informática: Alan Turing, el que permitió iniciar el triunfo de los Aliados sobre los nazis mediante una computadora, la famosa Enigma (se puede ver el film Código Enigma de 2014). Luego de la guerra, Turing escribió el artículo “Maquinaria computacional e inteligencia” (1950) en el que se preguntaba, “¿pueden pensar las máquinas?”. Ya nada sería igual después de ahí, de la apertura de esa “compuerta evolutiva” que tiene, aún, destino incierto.
La ciencia ficción comenzó a popularizar la pregunta, sobre todo en el cine. En las décadas siguientes se pudo conocer a la supercomputadora HAL9000 (del film 2001, una Odisea en el espacio, de 1968 y basada en la novela de Arthur Clarke ) que consideraba a los humanos una amenaza para su existencia, o también al más afable androide C-3PO (Star Wars, 1977), que estaba siempre al servicio de las personas.
Sin embargo, las empresas apenas podían volcar en el mercado unos toscos artefactos informáticos, primero gigantes, y luego más pequeños con la llegada del chip y la miniaturización en la década del 70. Las primeras PC de IBM se empezaron a popularizar a inicios de los 80 y aunque las revistas especializadas intentaban generar entusiasmo, las Personal Computer tardaron en ser vistas como algo útil.
Se podía computar, bastante, pero claramente no era lo mismo que pensar. Uno de los pioneros de la inteligencia artificial, Marvin Minsky (MIT), respondía de este modo a las dudas y el escepticismo mediante un artículo publicado en 1982: “La mayor parte de la gente asume que un ordenador no puede ser consciente de sí mismo; que como mucho, pueden simular que lo son. Por supuesto, esto está basado en la suposición de que los propios humanos somos conscientes de nosotros mismos. Pero, ¿lo somos? No lo creo”, desafiaba. Y apostaba por un crecimiento mutuo: humanidad y máquinas del mundo, a unirse. “Tal y como la evolución cambió nuestra forma de ver la vida, la IA cambiará la visión sobre la Mente. A medida que encontremos más caminos para que las máquinas se comporten de un modo más sensible, aprenderemos más sobre nuestros procesos mentales”. El resplandor de una utopía cibernética que no terminaba de nacer.
El crepúsculo de los dioses
El 22 de marzo de 2023 es el día D (por utilizar la metáfora bélica de los tiempos de Turing). Se conoció una carta abierta titulada “Pausar experimentos gigantes de IA” (Pause Giant AI Experiments: An Open Letter) publicada por el instituto Future of Life. El texto se viralizó más rápido que una extravagante tropelía de Donald Trump. Fruto de un encuentro ecuménico, la carta está firmada por miles de personalidades (cerca de 30 mil intelectuales, empresarios, activistas), en la cual firman desde magnates como Elon Musk (Tesla/Twitter) y Steve Wozniak (Apple), pasando por investigadores de la IA como Ramana Kumar (Google DeepMind) o Emilia Javorsky (directora de la organización de científicos contra armas autónomas), y hasta filósofos best seller reconocidos por su postura crítica a la IA, como Yuval Noah Harari. Su pedido era simple: “Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.
Al instante todas las luces, las de alarma y las de la publicidad, se encendieron. ¿Qué era GPT? ¿Era el verdadero nombre de la famosa Skynet que anticipó el film Terminator? ¿Qué hacemos en seis meses, esperar el fin del mundo?
¿Entrevisté? a una red neuronal. Pregunté a GPT mediante su interfaz de chat, y no sin temor a que se ofendiera, lo siguiente: dicen que sos la mejor IA del mundo, ¿es así? En tono neutro, respondió: “ChatGPT es parte de una nueva generación de modelos de lenguaje que han logrado avances significativos en la capacidad de la inteligencia artificial para entender y generar lenguaje natural”. Ante mi insistencia periodística, tuvo que agregar algo: “La popularidad de ChatGPT se debe a su capacidad para generar respuestas coherentes y útiles a una amplia variedad de preguntas y consultas, lo que lo hace especialmente útil para tareas como la asistencia al cliente, la investigación en línea y la educación”. Seguimos hablando un largo rato, yo me cansé primero, así que le agradecí y me respondió: “Estoy aquí para ayudarte en lo que necesites. ¡Que tengas un buen día!”. Tuve una sensación similar a la primera vez que usé un chat en tiempo real por computadora (quizás alguien se acuerde del viejo ICQ), pero esta vez no estaba eufórico, era otro el sentimiento, más indescifrable.
Tenía que chequear con un humano esta información. Además, me seguía dando vueltas la posibilidad de que estuviéramos frente a una gran campaña publicitaria, un vicio profesional, sobre todo porque detrás estaba la empresa Microsoft. Con estas preguntas y otras dudas recurrí a nuestro experto en IA, Leonardo Esnaola (Investigador del Instituto de Investigación y Transferencia de Tecnología de la UNNOBA -ITT-, doctorando en Ciencias Informáticas, docente del área de Software y Sistemas de la Información). Después de recordar algunos detalles de anteriores entrevistas, Esnaola se puso serio, se acomodó la incipiente barba y espetó: “Sí, esto es algo distinto”.
Red neuronal: “El porvenir de una ilusión”
“Estamos en el campo de la inteligencia artificial generativa, una inteligencia artificial que puede generar cosas, ya sean textos coherentes como hace ChatGPT, una IA generativa de imágenes, o de otros tipos de contenidos”. Esnaola destaca la diferencia con los modelos anteriores, porque la IA generativa puede tomar datos sin etiquetar, es decir sin la participación de un humano que le dice cuál es el significado o qué debe hacer con esa información (ver Altoritmo, divino tesoro).
“Recoger datos etiquetados lleva un tiempo, un costo, tener a alguien —un humano— trabajando, y eso hace que no puedas tener bases de datos demasiado grandes porque hay que contratar personas”. Este nuevo paradigma de aprendizaje, el generativo, se entrena mediante la ausencia de palabras y la predicción: tiene que encontrar la palabra que falta en un hueco. “Como vos ya tenés la respuesta correcta, que es la palabra que borraste, eso lo usás para entrenar la IA. Ese es el enfoque de Bard (de Google), que es autosupervisada. En GPT, en vez de borrar una palabra, borran la terminación de una frase. La IA es entrenada para predecir las palabras, examinar el contexto de las palabras y trata de predecir y completar la frase”.
El abandono de la supervisión humana y el cambio en el modelo de entrenamiento no es el único factor. Aparecen más vetas. En los feeds de noticias de mi teléfono aparece la noticia: “Google desarrolla una inteligencia artificial generalista y dice estar más cerca de alcanzar la humana”. Esnaola opina que “los modelos generativos tienen un cierto propósito general, se está hablando de eso, pero es algo difícil de medir aún”. Y ejemplifica: “Las tareas que son complejas para el ser humano, como el cálculo, la máquina las hace bien, pero las tareas como comunicarnos o mirar el cielo y saber si está nublado, esas que parecen simples, para una computadora no lo son, requieren de un conocimiento del mundo. Estas herramientas se están metiendo, justamente, en ese terreno”.
Esnaola afirma que al menos la carta abierta publicada en Future of Life plantea que es un camino difícil de manejar “porque hay una competencia entre empresas líderes que fogonean tecnologías que quizás se publican antes de lo que deberían por el hecho de competir comercialmente”. Hoy OpenAI (vía Microsoft) y Google son los que llevan la delantera, claramente. Pero Esnaola advierte que “es cuestión de tiempo para que salgan otras empresas a jugar, mejorar, optimizar y competir”. De hecho, la tecnología que hay por detrás de los modelos de GPT los propuso Google originalmente. “El proceso, de alguna manera, se fuerza en esta competencia y así se descontrola”.
Libertad de mercado y gobierno
Para abordar este aspecto consulté a Martín Gendler, doctor en Ciencias Sociales (UBA) y profesor de Sociología. Él viene estudiando temas como la “Gobernanza de Internet” y los impactos de las nuevas tecnologías en la sociedad. Gendler es contundente: “GPT rompió el delicado equilibrio que hay en el capitalismo de plataformas”. Incluso más: “Las plataformas de la actualidad generan un ecosistema con segmentos definidos en el que cada empresa tiene una parte con dominación, y pequeñas presencias en los otros. Sin embargo, a la vez, todas estas empresas vienen trabajando e investigando en todas las líneas posibles, como inteligencia artificial, realidad aumentada o internet de las cosas. Lo que nadie esperaba es que, sobre una de estas cuestiones (IA) una de estas empresas (OpenAI) diera un salto tan grande y por eso están temerosos”, indica.
El primer modelo red neuronal profunda del modelo GPT fue lanzado en 2018: “Podía almacenar su aprendizaje en función de algo más de cien millones de parámetros”, cuenta Esnaola. “GPT2, lanzado en febrero de 2019, ya pasa a miles de millones de parámetros, es decir que creció exponencialmente. Con cada generación que sale, crece su poder de cómputo y alcanza textos más coherentes”, explica. Esta interfaz que está conmoviendo a la humanidad, Chat-GPT, fue lanzada en noviembre de 2022 y en pocos meses, marzo de 2023, se lanzó GPT-4, el nuevo modelo. La empresa OpenAI, a diferencia de lo sucedido con modelos anteriores, no publicó las características, por lo tanto no se sabe qué tan grande es.
Todo chat es ideológico
Esnaola explica que la gran novedad es que antes, para conversar con GPT o cualquier otro modelo similar, había que instalar un software y tener conocimientos de informática. Ahora, al introducirle una interfaz tan simple como un chat que cualquier usuario de internet sabe usar, cualquiera puede preguntar. Al mismo tiempo esa interacción le va brindando un entrenamiento (aprendizaje) a la red neuronal. El límite y hasta dónde se lo puede usar y puede aprender se está viendo en la práctica misma, a medida que la inventiva de las preguntas lo hace avanzar. La incertidumbre está presente.
El modelo de chat o conversación con la máquina se remonta al icónico “Test de Turing” (sí, por Alan Turing, el de Enigma). El test dice que si una computadora puede manejar el lenguaje de modo que un humano, desde atrás de un canal conversacional, no puede distinguir si habla con una persona o con una máquina, entonces se afirma que estamos ante un comportamiento inteligente.
Lenguaje e inteligencia unidas detrás de un ordenador. Fue demasiado para el filósofo Yuval Harari, quien tomó la bandera de la humanidad y encaró hacia las trincheras enemigas: “La IA tiene la capacidad de hackear y manipular el sistema operativo de la civilización. Al adquirir el dominio del lenguaje, la IA se ha apoderado de la llave maestra de la civilización”.
Cuando el siglo XX se despedía, había ocurrido un hecho de parecida resonancia mundial al actual incidente GPT. Tal vez no resultó tan paradigmático como para convertirse en una compuerta evolutiva, pero Deep Blue (la máquina de IBM que había sido entrenada en el ajedrez, durante los años 1996 y 1997) jugó una serie de partidas contra el campeón mundial de este deporte, el ruso Gary Kasparov, y le ganó. “Pensar es calcular”, había pronunciado Gottfried Leibniz trescientos años antes. Deep Blue le dio sentencia de muerte a su idea. La máquina ahora podía hacer los mejores cálculos. Pero entonces, ¿qué era pensar? Nos quedaba, aún, el refugio del lenguaje.
Al utilizar nuestro lenguaje, “la nueva IA está interviniendo directamente en el proceso social de creación de significado” por lo tanto “los sistemas GPT son máquinas de ideología”, afirma el investigador en tecnología digital, Leif Weatherby. El aspecto ideológico de algoritmos e IA viene siendo abordado desde la categoría de “sesgo” (bias en inglés). Los problemas de sesgo aparecen cuando los programas informáticos favorecen cierto tipo de respuestas frente a otras. ¿Cómo se dan esas “preferencias” que muchas veces se muestran como recomendación? Son los algoritmos inteligentes los que toman las decisiones, ¿o las empresas deben responder por sus diseños? Lo cierto es que a partir de la generación de lenguaje y creación de significado la categoría de sesgo parece quedar corta. Es lo que parecerían estar planteando Harari y Weatherby.
Una caja negra para tu navidad
La carta abierta de Future of Life habla de “modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”. Si la creación de significado está sujeta a lo impredecible, ¿debemos asumir que hay una parte del funcionamiento del modelo generativo de la IA al que no podemos acceder?
“Sí”, responde Esnaola. “En realidad sólo vemos el funcionamiento a nivel sistémico, por lo tanto hay entradas y salidas a una caja, que es el sistema. Si querés ver cómo se transforma esa entrada en una salida, en este tipo de tecnología como son las redes neuronales, no lo sabés, porque lo que guardan son ‘pesos’ o valores que ponderan transformaciones matemáticas que podemos leer pero que no nos van a dejar descubrir por qué hace lo que hace”. Es decir que se pueden ver los valores o datos usados por el sistema, pero no los podemos interpretar. Por lo tanto, no sabemos qué es lo que está sucediendo ahí adentro, en la black box.
“Esto es muy distinto a los modelos anteriores”, enfatiza Esnaola. En la programación tradicional se establecen los mecanismos para seguir un camino u otro (mediante "reglas" de decisión). En cambio, “este tipo de elementos, acá, no los ves”.
Es por eso que espacios como la Fundación Vía Libre se han expresado en contra de lo que plantea la carta abierta: “Esta gente está pidiendo que se pause la investigación y no la aplicación. Lo que efectivamente puede hacer mal es la aplicación de estos sistemas, no que se investiguen. De hecho, que se investiguen debería ser positivo para que se entienda mejor cómo funcionan”.
Trabajo y máquinaria: por el camino de Ned Ludd
Culpar a la tecnología como la causante de un proceso social, no es algo nuevo. Lejos en el tiempo se hizo célebre Ned Ludd, el personaje que supuestamente fue el primero en destruir una máquina de hilar en la Inglaterra de la Revolución Industrial. Los artesanos se quedaban sin trabajo frente a la nueva técnica, y una de las respuestas que encontraron para protestar fue destruir las máquinas.
Una de las preguntas que me llevó hacia Martín Gendler tenía que ver con este tema: ¿cómo se prepara la sociedad de la información para enfrentarse a un posible mundo sin trabajo? “Desde la época de la Revolución Industrial sabemos que cada nueva ola de desarrollos tecnológicos plantea transformaciones en relación a esperanzas y temores. Uno de los ámbitos en los que se ven ambas cosas, es el laboral”, reflexiona Gendler. “Desde aquellos tiempos se planteaba la idea de mejorar procesos, optimizar tiempos, espacios, cantidad de producción y también se sabía que podía dejar en el desempleo a muchas personas; y esto lo podemos rastrear hasta en la literatura, como en Charly y la fábrica de chocolate, donde todos los trabajadores son reemplazados por uno, el encargado de verificar que cierre bien la cajita”.
El fin del trabajo humano es una distopía que cobra más fuerza a medida que la maquinización y el automatismo crece. Gendler comenta que el fin del trabajo se relacionó con la informática desde los comienzos mismos de internet, cuando la red tenía menos de diez años de vida y menos de doscientas mil personas conectadas. “Ahora estamos en una época en la cual, aunque hay una mayor magnitud de uso de la tecnología digital, la cuestión es la misma: surge una innovación disruptiva y aparecen las esperanzas y los temores”.
“Desde que las tecnologías digitales impactan en el mundo del trabajo, los expertos plantean que se viene acrecentando la división social del trabajo en dos polos: el polo hipercalificado, con habilidades y acceso a tecnologías, y el polo hiperprecarizado”, detalla. Según el docente, se lo puede plantear de modo más simple aún: están quienes diseñan la tecnología y quienes la ensamblan. “El trabajo creativo e intelectual siempre tuvo mejores condiciones que el manual pero, en esta época informacional, la brecha se acrecienta, por eso utilizamos el término hiper delante de calificado y precarizado”, sentencia.
“Con la inteligencia artificial se sigue el mismo patrón. ¿Quiénes pueden hacer un uso creativo y hasta lucrativo de estas tecnologías?”, pregunta Gendler. Las empresas que monitorean el flujo de usuarios en internet informaron que ChatGPT fue la aplicación que más rápido crecimiento tuvo en la historia de internet. Sin embargo, ¿son usuarios o tan solo personas motivadas por la curiosidad? Para Gendler, “cuando estas tecnologías se vayan introduciendo como obligatorias en el ámbito laboral, van a magnificar aún más esta brecha entre tipos de usuario. La diferencia estará no sólo en poder acceder o tener una habilidad básica, sino que habrá que tener el conocimiento específico para sacarle ‘todo el jugo’. Por lo tanto, probablemente el segmento de los trabajadores hipercalificados sea cada vez más segmentado y más pequeño, especialistas en estas cuestiones, y muchos otros que hasta ahora eran calificados pasen a ser parte del proletariado informacional”.
Hija de la definición clásica de proletariado (quienes sólo disponen de su fuerza de trabajo y la venden en el mercado para poder sobrevivir), la de proletariado informacional irrumpe en el capitalismo de las plataformas: “Hoy ese proletariado son los chicos de Pedidos Ya, de Uber o los que mueven las cajas en Mercado Libre —indica Gendler—. Pero con estos avances recientes, ese proletariado se va a ampliar, por ejemplo con la incorporación de los programadores. Si estas tecnologías hacen lo mismo que diez programadores, ¿quién será el hipercalificado? La persona que tenga la habilidad necesaria. El resto se encargará de arreglar algún fallo”.
Un ensayo para el gobierno civil
Empresas como Microsoft, Meta (Facebook) o Alphabet (Google), disponen de una inversión para la investigación difícil de dimensionar. En el marco de este proceso de competencia entre gigantes, surge la pregunta sobre la posibilidad de una regulación o “gobernanza” en este terreno. ¿Admitirían estos gigantes ser regulados?
Al respecto, Martín Gendler afirma: “Más allá de la posibilidad, creo que es totalmente deseable y que el único camino posible es el de la gobernanza”. La idea, que viene de la ciencia política y es muy aplicada a cuestiones derivadas de internet y las nuevas tecnologías, involucra no sólo al Estado de modo aislado para llevar adelante la regulación. “Por la magnitud global, y porque hay muchísimos conocimientos que no se tienen —plantea Gendler—, la idea de la gobernanza implica que todas las partes interesadas, con capacidad de acción y que tienen algo para decir, puedan juntarse y decidir cómo operar. Esas partes son, además del Estado, el sector privado, la sociedad civil y el sector técnico. La gobernanza se enriquece de los aportes de cada uno de los sectores”.
Con la inteligencia artificial sucede algo muy curioso: no existe a nivel mundial marco regulatorio alguno. En mayo de este año, Sam Altman, el director ejecutivo de OpenAI, se presentó ante el Senado de los EE.UU. y dijo que “regular la inteligencia artificial es crucial”. Gendler aclara que existen variedad de declaraciones, guías, marcos éticos o planes de políticas públicas con recomendaciones, pero no existe “ninguna ley”. “Si la inteligencia artificial tiene más de sesenta años, ¿por qué pasa esto?”, inquiere.
“El consenso que había hasta ahora, el de las empresas que se autorregulan, se cae con el escándalo de Cambridge Analytica (2017) porque se pensaba que era lo mejor que se podía hacer, que si el Estado se metía iba a arruinarlo. Se le dio todo el poder a las plataformas”, pondera el sociólogo.
Hay pocos países en el mundo con organismos institucionalizados y con una lógica de gobernanza que puedan asegurar el cumplimiento de “líneas guía”. “Uno de los países que aplica la gobernanza es Brasil, mediante el Comité Gestor de Internet (cgi.br), que nació en 1995 y que entre sus miembros tiene representantes de todos los sectores”. Para Gendler, “hay muchos marcos internacionales dentro de los cuales la gobernanza de la IA se podría gestar, pero no se está haciendo”.
¿Entonces el pedido de “suspender la investigación” podría ayudar en este sentido? Para el investigador social, parece que “este tipo de empresas se preocupan por los derechos humanos, cuando en realidad ven un riesgo económico muy fuerte para ellos, y no por una mala decisión propia, sino porque otro actor (OpenAI) les sacó gran ventaja”.
El copiloto menos esperado
Con la compra de OpenAI, Microsoft dio el salto. ¿Cuándo impactará en sus productos? Ya lo estamos viendo. Este artículo está ilustrado con imágenes “creadas” con Bing Image Creator a partir de textos. “Quiero ver una rivalidad entre IA y la matrix”, o “un humano alienado por las redes”, y con esas frases Bing hace lo suyo. Se trata de una tecnología denominada DALL-E (nótese el juego de palabras), una IA generativa de imágenes impulsada por OpenAI.
“Hace mucho tiempo que Microsoft está tratando de integrar esta tecnología a sus productos. De hecho, a pocos días de lanzar GPT-4 hicieron un evento en el que anunciaron que habían introducido IA del modelo generativo en Office, por ejemplo con un programa denominado Copilot”, indica Esnaola. ¿No puedo estar en la reunión a la que me convocaron? Copilot hace un resumen de los temas principales, porque está conectado al flujo de audio, lo transcribe, o hace el resumen y si escuchó que la próxima semana hay otra reunión, pregunta si hay que agendarla. “Los avances van a venir no tanto por el tamaño del modelo, sino por la potencialidad de uso, que son cosas distintas”. La imaginación (tecnológica) al poder.
“A medida que se van masificando, las tecnologías se van naturalizando”, considera Gendler. “Cuando trabajo con estudiantes de primer año de la universidad y les hablo de lo que implicó la aparición del smartphone, muchas veces no lo entienden, porque ya está naturalizada su existencia. Resulta difícil imaginar una sociedad previa porque muchas veces se impulsan andamiajes discursivos que sostienen que lo tecnológico es el progreso”.
Nuestros sueños más valientes o las pesadillas más crueles muchas veces se manifiestan mediante obras literarias, y con gran anticipación. Retratos de un espíritu de época que nos invade, ideas fantasmagóricas que se transforman, gracias a la imaginería técnica, en una inventiva o en el simple despliegue de las fuerzas sociales frente a lo inevitable.
Mientras escribía este artículo encontré una vieja antología de cuentos de ciencia ficción publicada en Argentina, allá por 1975. Me sorprendió el cierre del libro, el último párrafo del último de sus cuentos ("Café molecular", de I. Varshavski), casi una premonición para cerrar el libro: “Cuando me desperté resultó que todas estas tonterías del café las había soñado, y entonces escribí este cuento; pues me parece que si dejamos sueltos a los cibernéticos, el resultado no puede ser muy bueno. Es necesario que la gente no los pierda de vista”.
Ciencia y redes sociales: las narrativas del saber
Por Marcelo Maggio
Uno de los profesores cuenta que cuando asiste a un congreso científico no toma apuntes tradicionales, sino que prefiere escribir tuits, un resumen que le permite además contar lo que va pasando, como un cronista. Otro docente relata que necesitaba una persona para colaborar en su equipo de investigación y que se le ocurrió hacer el llamado a través de una red social, “¿a alguien le interesa el tema?”, preguntó. Ambos profesores comparten la práctica de la investigación científica y la dirección de proyectos. Los dos afirman tener poco tiempo para intervenir en sus redes, que les resulta difícil establecer una rutina de trabajo para difundir lo que hacen. Sin embargo, ambas anécdotas representan un cambio de época.
Rolando Rivera Pomar trabaja en la UNNOBA, es docente en la carrera Licenciatura en Genética y fue director del Centro de Bioinvestigaciones (CEBIO) durante siete años. “Cuando tengo tiempo miro Twitter, no tengo una rutina”, es lo primero que dice y deslizando que no se considera un especialista. Lo cierto es que para el investigador de la genética de los insectos, lo que comenzó siendo un juego para ver a “algunos personajes”, terminó siendo un medio para la consulta y la comunicación con pares: “Me empecé a enterar de montones de cosas, cuestiones que no eran del área propia”. Para él, “Twitter es donde se puede hablar de ciencia, pero también de política o de fútbol: es como el bar de la esquina donde uno va a charlar”. Y también utiliza Instagram, pero con otros fines: “La tengo exclusivamente para investigación, para contar cuestiones de naturaleza, biología; como ahí es todo más gráfico, subimos parte del trabajo que hacemos con los insectos de los glaciares”.
En relación a ese proyecto de investigación para los glaciares, cuenta cómo fue la convocatoria mediante redes. “Yo me siento un usuario más, pero vi todos los contactos y referencias que se iban dando. Entonces, por ejemplo, junto a Pablo Pessacq, un colega y amigo que trabaja en Esquel en el tema de los insectos de los glaciares, dijimos '¿por qué no pedimos un becario doctoral para trabajar en este tema?'. Y se me ocurrió contarlo en Twitter. Entrevistamos a una cantidad de gente que nos escribió hasta que finalmente comenzamos a trabajar con una tesista de la Universidad de Tucumán, ¡algo que salió por Twitter! Muchas veces cuando uno busca personas para trabajar tiende a terminar con los más cercanos o con sus estudiantes… De este modo fue algo de alcance nacional”.
Francisco Albarello es docente en la Universidad Austral, secretario de Investigación en la Facultad de Comunicación y director del Doctorado en Comunicación. Nació en Junín, estudió periodismo en La Plata, y desde hace tiempo se dedica a investigar cómo es la lectura en las pantallas. Hoy es una referencia nacional en el tema de la “lectura transmedia”. Sin embargo, en esta ocasión no va a ser él quien pregunte sobre los consumos en las redes, sino que nos interesa él como usuario. ¿Cómo relaciona su actividad académica y de funcionario con el uso de las redes sociales?
“Considero que las redes sociales son una manera de contar lo que uno hace, una ventana de difusión de la ciencia”, define. Y sigue: “Antes estabas limitado a publicar un paper en alguna revista, o un libro y que la editorial lo difundiera, no mucho más que eso. Hoy, todo lo que yo hago lo difundo en las redes, es una manera de hacerlo visible y establecer contacto con otros lectores, y no sólo estudiantes sino también con otros investigadores”.
Albarello afirma que usa Twitter porque es la red social en la que se siente más cómodo, aunque no deja de lado las demás, como Instagram y Facebook. Aunque manifiesta la dificultad de encarar esta tarea de publicación de modo constante, algo en lo que coincide con Rivera: “El tema es que publicar implica un tiempo que muchas veces no tenés. Produzco bastante, no sólo dando clases, sino escribiendo, investigando; queda poco tiempo para darle toda la difusión que quisiera y de un modo más sistemático”.
Con respecto al tipo de contenidos que publica, cuenta que identifica dos tipos: “En primer lugar están mis propias producciones, que publico con un hashtag que trato de mantener (#lecturatransmedia) que me permite conectar no solamente las producciones propias sino también con colegas, por eso Twitter me parece una herramienta maravillosa para encontrar material”. El otro tipo de contenido que genera el docente de la materia “Tecnologías de la información y la comunicación” es el relacionado con diversas actividades académicas, como los congresos y las conferencias: “Intento ser un cronista, cubrir los eventos científicos a los que asisto pero no de un modo tradicional tomando apuntes en un cuaderno, sino escribiendo tuits. Voy haciendo comentarios, citas, fotos, hilos en Twitter. En ese sentido trabajo codo a codo con la comunicación institucional y etiqueto generando marca con el lugar en el que trabajo. Creo que en Twitter pude desarrollar una lógica de publicación”.
Del laboratorio a la red de redes
En los últimos tiempos se ha podido acceder a resultados de investigaciones mediante las redes sociales y la inmediatez se impuso como prioridad frente a los temas que preocupan a la sociedad. Esto provocó, además, una relación directa entre investigador y opinión pública. Rivera considera la posibilidad de esta relación como “algo muy importante”. “De hecho sigo a muchos científicos que van actualizando sus novedades, gente a la que he empezado a seguir durante la pandemia, un momento de desinformación horrorosa —relata—; entonces sirve tener un grupo de científicos referentes a los que se le tiene confianza. Si uno puede aportar algo, como lo hacés con tu familia cuando te preguntan algo, compartir una información de utilidad y tratar de explicar su importancia, lo tenés que hacer”.
Rivera admite que desde el surgimiento de la última pandemia hay una tendencia a realizar esta tarea por parte de los científicos, algo a nivel mundial. “Por ejemplo, en Alemania una de las personas más seguidas en redes sociales, y hablamos de cientos de miles de seguidores, es el profesor Christian Drosten, un virólogo, que era la persona que mejor explicaba lo que estaba pasando con la pandemia”. Drosten, además de hacer su trabajo en investigación, “es escuchado por su lenguaje claro a través de podcasts o seguido en las redes sociales por su forma sencilla y rigurosa, algo de lo más difícil de lograr”.
Es un hecho conocido que durante la pandemia se potenciaron de modo significativo las noticias falsas, sobre todo mediante las redes sociales. Pero también, en modo paralelo, se daba otro movimiento, no estructurado pero constante: el de científicos que comenzaron a trabajar de manera colaborativa a partir de la lógica de la red de redes, compartiendo materiales e informaciones. ¿Cómo se experimentó ese tipo de colaboración no estructurada por parte de nuestros protagonistas?
Para Albarello este tipo de funcionamiento colaborativo se remonta, y tiene relación, con el origen mismo origen de la web, ya que era un protocolo universal para compartir información académica. “El origen de la web fue ese: compartir conocimiento de modo horizontal; la pandemia lo puso en evidencia, tanto para el desarrollo de las vacunas como para algo tan extendido como realizar nuestras tareas de docencia mediante la virtualización forzada de la enseñanza en 2020”, recuerda. Y agrega: “Fue el año de los webinars, una palabra que se impuso; y luego se compartían en las redes no sólo los recursos, sino también las ideas: había un espíritu colaborativo que explotó entre los docentes, algo altruista, como cuando suceden inundaciones y florece la solidaridad. Fue algo similar”.
“Quedó en evidencia que lejos de las miradas apocalípticas sobre las pantallas, vivimos un escenario contrario a eso”, celebra Albarello. En este sentido recuerda su propia experiencia con el proyecto “Investigar en red”: “Lo realizamos entre once universidades argentinas, un proyecto de investigación que publicamos recientemente y que da cuenta de cómo leen, estudian y se informan estudiantes de comunicación de las once universidades intervinientes. Este proyecto, con treinta y cinco investigadores, lo hicimos a través de la web y se llevó adelante durante la pandemia. Lejos de obstaculizar, la pandemia lo potenció, porque participamos universidades de varias provincias que de otro modo no nos hubiéramos podido reunir. La necesidad nos movió a desarrollar competencias de trabajo en red: teníamos las herramientas, pero tuvo que suceder algo extraordinario para decidir hacerlo”.
¿Hacia un nuevo tipo de influencer?
¿Las redes sociales habilitarían una nueva era en la cual los científicos tienen la posibilidad de ser celebridades? Rivera cuenta que retoma este tema en sus propias clases. Y afirma que “no es tan así”, ya que la ciencia es una preocupación pública desde mucho antes. “En el siglo XIX, las discusiones de las academias de ciencia salían en los diarios y la gente tomaba partido. Cuando discutían creacionismo versus evolucionismo en la Academia de Ciencias de París se trataba de una pelea como si fuera Chevrolet contra Ford. Están los diarios de la época para consultar. Esos temas formaron parte de la opinión pública, como el libro de Darwin El origen de las especies, que tuvo un impacto descomunal, ¡y estamos hablando del año 1860! Y Albert Einstein, quien quizás fue el primero en estar en el día a día de los medios”.
Claro que la intervención social de los científicos se ve incrementada no sólo por las redes: muchos medios masivos tradicionales los incluyen en su agenda para tomarlos como referentes de consulta. Esto es así, según Rivera, porque “el científico tiene una credibilidad, sobre todo ahora después de la pandemia. La gente empezó a hablar de cuestiones científicas, ¿te hiciste el PCR? Pero antes, ¿quién sabía lo qué era PCR? O también temas que se hacen populares, frases como “está en el ADN de River”. Entonces si lo dijo un científico vale la pena: pero un científico puede decir tantas pavadas o verdades como cualquiera, si se le consulta más allá de su campo de saber especializado".
En este sentido, Albarello coincide y marca los riesgos y la responsabilidad que implica ese prestigio para opinar: “Hay una lógica propia en las redes sociales, en la que con pocos elementos y con mucha convicción una persona puede creer que sabe de un tema. Está en la televisión también, por ejemplo, referentes de la nada misma que hablan más o menos bien. Y en las redes pasa lo mismo. Se construye sobre una subjetividad narrativa: cualquiera con ciertos elementos narrativos puede erigirse como un influencer”.
“Por eso mismo creo que hay que estar en las redes sociales”, asegura Albarello. “Tengo la esperanza de que nuestro mensaje tenga una lectura, no porque seamos mejores, sino porque podemos comunicar desde un método, riguroso, sostenido en el tiempo, a riesgo de ser aburridos por hablar siempre de lo mismo, pero justamente es lo que nos convierte en especialistas: alguien que se dedica a un tema sistemáticamente”.
En las redes sociales se puede ir detectando a los referentes. Y ahí viene el llamado de Albarello: “Creo que tenemos que ser referentes de los temas que investigamos, no en el sentido de ser personajes especiales, sino de hacer nuestro aporte”. Se trata, de algún modo, de un llamado a la responsabilidad por la intervención en un escenario que está cargado de ruido y subjetividad.
Y justamente porque son las redes sociales el espacio para la expresión máxima de la subjetividad humana, y la ciencia, supuestamente, el espacio para la búsqueda de la verdad despojada de los prejuicios, es que puede aparecer una simple pregunta: ¿cómo puede dialogar la ciencia con las redes sin abandonar su lógica, sin sopesar lo verdadero frente a lo retórico, lo expresivo, lo individual?
Rivera patea el tablero y arroja su sentencia: “La ciencia puede no ser subjetiva, ¡pero los científicos somos subjetivos! En las redes somos como todos, subjetivos. Yo trato de ser objetivo cuando presento una cuestión científica, y me da igual si el resultado es el que esperaba o no. Pero no todo el mundo es así. Y muchas veces hay límites entre ciencia y política, lo que se vio claramente en la pandemia, en donde los científicos eran capaces de torturar los números para que confiesen lo que ellos querían. Apremios ilegales de los datos, porque había mucha intencionalidad política”.
Para el docente de genética, “el científico es un tipo común, que a la hora de plantear cuestiones no científicas, puede ser tan tonto o tan inteligente como cualquier persona. Hay mucha subjetividad, en las redes y en las no redes".
La velocidad de la difusión: revistas versus redes
Con la web y las redes sociales no sólo cambió la temporalidad: también cambió el concepto mismo de acceso. La idea de acceso abierto (open access) irrumpe de la mano de un movimiento derivado del espíritu del software libre y las licencias abiertas. La reivindicación del acceso sin restricciones a material de tipo académico y educativo ya tiene un recorrido en el mundo digital (quizás el hito más conocido esté retratado en el film “El Hijo de Internet. La Historia de Aaron Swartz”, 2014). Las revistas científicas, que tradicionalmente se manejaron mediante la suscripción y con tiempos de publicación extensos, se ven seriamente impactadas en este nuevo escenario.
Albarello informa que como editor de una revista académica, la Revista Austral Comunicación ha tenido que asumir el tema. “Precisamente en el congreso de ALAIC que se hizo en Buenos Aires hubo un panel sobre revistas académicas, de modo que esta pregunta es muy pertinente, porque hay una problemática en las revistas”, reflexiona. Y agrega: “La movida del acceso abierto al conocimiento va teniendo muchas revistas que se suman, como la nuestra. Es una modalidad con mucha fuerza. Considero que las revistas académicas no deberían ser pagas”.
Para poder difundir materiales que requieren una circulación rápida se ha comenzado a utilizar el sistema de publicación denominado preprint. Además hay revistas que tienen un sistema de publicación continua, con mayor flexibilidad ya que no se ajustan a llamados puntuales. Estos recursos van permitiendo acelerar tiempos y ampliar la posibilidad de circulación de los textos.
“Creo que el sistema de publicación tradicional está en crisis por varios motivos —indica Rivera—, y el principal es el tiempo desde que uno lo envía”. “Algo se ha resuelto con los denominados preprints, que son trabajos científicos sin referato, pero que permiten que la información esté disponible en los repositorios digitales de cada universidad, espacios donde también hay tesis y otros materiales, todo disponible en la red”.
En este sentido, Rivera señala la importancia del acceso: “Con la pandemia hubo mucha información disponible que servía para que el resto pudiera seguir construyendo conocimiento y eso cambió la lógica de la publicación, porque las revistas importantes empezaron a monitorear los repositorios digitales para encontrar trabajos que a ellos les interesaban; así se empezaron a comunicar con los autores. Cambió la relación, eso fue muy evidente”.
Por su parte, el profesor en Comunicación Digital, Francisco Albarello, suma otra definición: “Como investigadores deberíamos producir distintos tipos de contenidos, no sólo publicaciones académicas tipo papers”. Esto afecta el núcleo mismo del sistema, ya que sólo reconoce un tipo o modelo de publicación al momento de otorgar puntaje a quienes investigan para continuar con su carrera.
Albarello da detalles de su propuesta: “El libro que publicamos ahora sale con todos los resultados y va a estar liberado en formato PDF mediante una edición de la Universidad Nacional de Rosario, pero a la vez vamos a hacer un White Paper, como un folleto, con los resultados más breves para difundir en medios de comunicación, y también vamos a hacer podcast para aprovechar la diversidad de voces que hay en el registro”.
“Hay que producir microcontenidos para redes también —agrega—, hay que pensar como una especie de ecosistema de productos más allá del típico paper que queda limitado a un público muy reducido. Si se hace una inversión de tiempo y dinero, eso no puede quedar sólo en la lectura de un puñado de personas. Hay una responsabilidad de los investigadores y la universidad en que el trabajo derrame en la sociedad. Por lo tanto, se deberían producir otros contenidos, más allá de cumplir con los actuales parámetros del sistema”.
Diálogo, interacción y… ¿discusión?
En la interacción en las redes sociales se pueden encontrar todo tipo de intercambios: desde preguntas y opiniones hasta ataques o insultos. Los científicos no están marginados de esta regla de funcionamiento, más allá de que su público mayoritario sean estudiantes, docentes y otros científicos. ¿Cómo viven ese intercambio en el mundo virtual?
Rivera afirma que lo vive igual que por fuera de las redes, “no creo que haya mayores diferencias”. El punto en el cual sí las encuentra es en lo que denomina “las malas interacciones, porque la ventaja de las redes es el anonimato”. De todos modos el profesor de genética afirma fijarse bien antes de responder: “Sólo respondo dependiendo quién y cómo lo preguntan”.
“El intercambio en las redes sociales es muy rico, porque se supone que uno publica para otros lo lean, comenten, respondan —indica Albarello—. Me pasa que leen mis trabajos en otras universidades donde hay colegas que son conocidos, me citan, entonces genera una movida muy linda, de estar en un ambiente donde hay una valoración de tu trabajo”.
Para Albarello es importante siempre tener presente el ida y vuelta, ya que así como él publica sus materiales y quizás terminen en las clases de alguien, él también utiliza información que publican desde otras cuentas: “Así la web es un gran apoyo para la investigación”, concluye.
Diseño: Laura Caturla
Ambientes digitales para enseñar y aprender
Por Marcelo Maggio
Este artículo forma parte de una serie vinculada a los 20 años de la UNNOBA. En esta ocasión se aborda la evolución de las nuevas tecnologías aplicadas a la enseñanza, aprendizaje y la vida institucional.
Aulas virtuales, videoconferencias, chats, ¡inscripción online! Los procesos de digitalización avanzaron sobre todas las dimensiones de la vida social, y la educación no podía permanecer ajena. La pandemia aceleró muchos cambios y para la UNNOBA ese cambio de ritmo en la demanda de la virtualidad implicó “un cambio en la escala”: se trataba de aumentar recursos y presencia allí donde ya se venía trabajando.
En la actualidad, la Universidad tiene dos espacios que cubren las necesidades planteadas por el desafío digital: el Sistema Institucional de Educación a Distancia y Digital (SIEDD) y la Prosecretaría de Tecnología de la Información y la Comunicación (TIC).
“Educación Digital es nuestro nombre reciente, pero nos podemos remontar al año 2009 —rememora Claudia Russo, responsable del SIEDD—. En aquel año, la Escuela de Tecnología puso en marcha un ingreso semipresencial y también se comenzaron a dar los primeros pasos con un sistema de gestión de aprendizaje (LMS, por sus siglas en inglés), que era la plataforma Moodle, vigente en la actualidad”.
“Moodle hoy es un standard, y también algo histórico en materia de aulas virtuales —explica Hugo Ramón, prosecretario TIC—. Este software es como el núcleo de una cebolla al que se le pueden agregar funcionalidades y contenidos”.
En un primer momento, esta plataforma se utilizaba como un repositorio en el cual los docentes dejaban sus producciones o se comunicaban con los estudiantes, siempre como apoyo a la presencialidad. “En aquel tiempo no pensábamos en virtualizar horas o algo similar a lo que ocurrió con la pandemia —aclara Russo—. Sin embargo, a medida que pasaron los años, la plataforma fue teniendo cada vez más uso dentro del ámbito de lo presencial, como una manera de extender el aula”.
Ese recorrido fue impactando a nivel institucional: antes de la creación del área de Educación Digital ya se venía trabajando desde un programa que funcionó como antecedente, dirigido por Diego de La Riva y con Florencia Castro a cargo de la Secretaría Académica. Russo agrega que, “el área de Educación Digital de la Universidad se crea a partir de una resolución ministerial sobre la educación a distancia, pero le agregamos el nombre de digital y no sólo a distancia porque el objetivo es abordar la innovación tecnopedagógica en el aula, sea tanto en modalidad presencial como virtual”.
Las iniciativas y los debates acerca de la presencialidad no se iniciaron durante la reciente pandemia. El recurso de la distancia y la virtualización viene permeando en la educación desde hace tiempo, y en la UNNOBA se remonta al 2009, momento en el cual se implementó el ingreso semipresencial. Sin embargo, desde antes ya estaban en uso las salas de videoconferencia en Junín y en Pergamino, donde los docentes podían estar de manera presencial en una sede y con otro grupo a distancia desde la otra e interactuar mediante sonido y video. “En este tipo de videoconferencia, las aulas estaban en la Universidad —destaca Russo—, docente y estudiante tenían que ir a alguna sede universitaria, un tipo de tecnología híbrida”.
Cultura online y recursos
“En la UNNOBA ya teníamos la cultura de la videoconferencia gracias a nuestras aulas conectadas punto a punto en cada sede”, resalta Hugo Ramón. Con esa ventaja, se pudo dar el salto hacia la videoconferencia online en tiempos de pandemia. “Necesitábamos implementar una tecnología, y la Universidad fue por el lado del software libre y la implementación de un servidor Jitsi”, recuerda Russo. De este modo, a partir de 2020 se habilitó a los docentes esa herramienta para comunicarse con los alumnos en clases sincrónicas.
Hugo Ramón recuerda cómo se fueron dando los pasos para llegar al Jitsi, el primero de los recursos que se usaron en este sentido. Fue tan solo unos meses antes del salto a la virtualidad total: “En marzo de 2019 empezamos a tener problemas con las cámaras móviles de las salas de videoconferencia y no se conseguían los recambios. Empezamos a evaluar Jitsi porque era un software que ya se estaba utilizando desde 2014 para la telefonía IP. Alguien del equipo (de la Prosecretaría TIC) descubre que tenía una funcionalidad para videoconferencia y la empezamos a probar. Cuando en 2019 el área de Educación Digital, recién creada, nos pide un recurso para una reunión virtual, propusimos Jitsi. Así, hacia fines de noviembre de 2019, se usó por primera vez. En marzo, sólo unos meses después, aparece la pandemia”.
Claudia Russo recuerda que su área empezó de modo incipiente, “pero la pandemia hizo que se tomara un gran volumen de trabajo en un corto tiempo”. “Creemos que la Universidad pudo dar respuestas en ese contexto gracias a la proyección que ya teníamos —indica la responsable de Educación Digital—. Se le pudo dar apoyo a docentes para que transformaran sus clases presenciales en clases virtuales y lo que a nivel nacional se llamó educación de emergencia, desde la UNNOBA lo fuimos transformando, paulatinamente, en una educación a distancia”.
Saldos de los tiempos de encierro
En el presente los desafíos son otros y se intenta asimilar los pasos ya dados: “Hay que tratar de no perder lo que se aprendió en esa etapa, incluso poder trasladarlo al aula presencial. Entendimos qué cosas se pueden hacer virtuales y cuáles no, dependiendo de las carreras, las disciplinas, el tipo de prácticas que se realizan, por ejemplo”, reflexiona Russo.
En este sentido, tanto Russo como Ramón coinciden en que la virtualidad y sus herramientas brindan oportunidades únicas que se deben intentar poner en práctica, como la facilidad para estudiantes que trabajan o quienes no cuentan con los medios económicos para trasladarse hasta alguna sede de la Universidad.
“Se puede tener un aula presencial con uso de tecnología, un aula virtual, o se puede tener un aula mixta con una parte virtual y otra presencial”, destaca Russo. Se puede lograr así una “hibridez entre lo presencial y la distancia como una nueva modalidad educativa”.
La implementación de tecnología en las aulas físicas de cada edificio universitario es una tarea a cargo de Hugo Ramón: “La Universidad siempre se caracterizó por tener tecnología en el aula. Por ejemplo, casi el noventa por ciento de la superficie edificada de la universidad tiene wifi disponible, eso incluye a las aulas, que además cuentan con proyectores”.
Enseñar y aprender en la sociedad del conocimiento
Una de las actividades que impulsó el área de Educación Digital fueron los workshops con docentes, reuniones para el intercambio de experiencias con tres ejes, los más icónicos de la educación a distancia: la organización del aula, el rol tutorial y la evaluación. A partir del segundo workshop se incluyó la participación de otras dos universidades: UNSADA y UPE.
“La estructura del WITE (Workshop de Innovación y Transformación Educativa) es totalmente virtual, con muchos asistentes y ponentes de otros países y de otras universidades argentinas —cuenta Russo—. Lo que hemos visto durante la pandemia es que la posibilidad de asistir a eventos no presenciales hizo que la participación aumente, por eso creemos que hay que mantener ese espíritu de evento virtual. En lo que queremos hacer hincapié es que no se trata de un congreso científico: en el WITE cada uno puede contar sus experiencias, y no sólo las virtuales, sino también las que se dan en la presencialidad, porque la educación presencial también está bajo la misma observación que la educación a distancia”.
Hay quienes plantean, como el especialista David Buckingham, que la educación digital ha permitido pensar nuevos modos de la pedagogía e incluso avanzan sobre el potencial educativo de los videojuegos, en lo que se denomina "gamificación". Desde Educación Digital de la UNNOBA, Claudia Russo se pregunta: “Después de la pandemia, ¿por qué irías hoy a escuchar una exposición de un docente, si después esa clase va a estar online porque alguien la grabó? ¿Por qué voy al aula? Tengo que ir porque me va a dar algo más de lo que puedo encontrar en internet. Entonces, si hay gamificación, clase invertida, desafíos para pensar soluciones y debatir la clase, exponer mi trabajo, entonces voy. Eso piensa un estudiante actualmente, después de la pandemia. Pero sucede que no todos los docentes estamos dispuestos a enfrentar esta realidad”.
--Entonces, ¿por qué insistir en las prácticas presenciales?
--Es un debate actual. Por un lado, hay un sentimiento muy fuerte de querer pertenecer y querer estar con las compañeras y compañeros en el aula, algo muy entendible, porque la universidad es mucho más que lo académico. La universidad brinda muchos valores a los estudiantes y la presencialidad es muy importante en este sentido. Pero en los años superiores, y en algunas disciplinas, la virtualidad puede ayudar a que no abandonen por los diversos motivos que aparecen, como el trabajo. La virtualidad aparece entonces como una oportunidad para quienes no pueden acercarse a la universidad y deciden estudiar. Por eso es importante dar respuesta a todas las situaciones. De hecho ya tenemos, desde la UNNOBA, dos carreras aprobadas por Consejo Superior para ser cursadas completamente a distancia.
--¿Qué evaluación hacen de la apropiación y utilización por parte de docentes universitarios de las nuevas tecnologías y los entornos virtuales?
--En la Universidad hay que reconocer que todos los docentes dieron respuesta en el contexto de pandemia. No hubo ni una asignatura, de ninguna carrera de la UNNOBA, en la que un docente diga 'si no doy presencial no doy la materia'. Por lo tanto, la respuesta fue muy buena. Claro que hubo diferentes usos de la tecnología, y eso siempre va a pasar. En el transcurso de la pandemia y en lo que llevamos de presencialidad, vemos que hubo una apropiación de lo aprendido, ya sea para seguir llevándolo hacia adelante en las aulas virtuales o en la presencialidad misma. Por ejemplo, para ver cómo crece el interés en el tema, desde Educación Digital hemos creado dos diplomaturas de posgrado, diseño de aulas virtuales y contenidos digitales, tomadas por gran cantidad de docentes, tanto de la UNNOBA como externos.
--Guillermo Simari, cuando visitó la UNNOBA, planteó que debíamos entender el desafío de la continuidad que hay entre las realidades virtual y material. ¿Se ha dejado de ver, por fin, lo digital en educación como un asunto "informático"?
--Creo que se está avanzando y que la pandemia nos ha dado un "sacudón" muy importante en ese sentido. Se cambiaron las cosas de un día para el otro, se nos puso a todos no sólo en un nivel de uso de tecnología en general, sino de uso en el aula para enseñar. Y esto va a continuar también porque son los estudiantes los que nos van a pedir cada vez más. Entonces nos vamos a tener que acostumbrar a los nuevos contextos educativos, porque ya no hablamos solo de presencialidad o distancia, también hablamos de la hibridez, o de una flexibilidad en la que es cada uno quien determina de qué manera quiere hacer su carrera.
Recursos e implementaciones
“Somos un área transversal y nuestros servicios impactan en las funciones sustantivas de la universidad (académica, investigación y extensión), pero también en las otras áreas transversales, como la administrativa”, explica Hugo Ramón.
La Prosecretaría TIC, por su transversalidad, debe enfrentar todas esas necesidades y demandas y, luego, establecer prioridades para el uso de los recursos digitales. “Tenemos que mantener operativos todos los servicios, independientemente del área de destino. Sí está claro que cada servicio maneja escalas y prioridades distintas —indica Ramón—. Por ejemplo, el servicio administrativo presupuestario es utilizado por una cantidad pequeña de personas si se lo compara con el académico, que es impactado por toda la población de docentes y estudiantes de la Universidad”.
“Para nuestra área es crítico que cualquiera de los servicios funcione bien, ¡y todo el tiempo!”, indica. Ramón se refiere a tareas que van desde la ejecución de pagos hasta inscripciones, calificaciones e inscripciones a finales, o las ya mencionadas relacionadas con el aspecto académico dentro de las aulas virtuales.
--¿Cómo resuelven a nivel infraestructura la creciente demanda de recursos?
--La infraestructura, el nivel físico, tiene un ciclo de actualización tecnológica. En este momento estamos volcando muchos servicios a la "nube" y otros, como los servicios críticos, en una infraestructura propia. Hay muchos servicios que estamos tratando de sacarlos afuera para evitar problemas relacionados al costo operativo y la disponibilidad. Y todo es creciente porque no se destruye información. Entonces tenemos más estudiantes, más docentes, más metros cuadrados a cubrir con internet y más consumo de ancho de banda. Incluso hay que pensar en la obsolescencia de los equipos.
--Actualmente la Universidad está brindando una integración con Google. ¿Cómo se establece esa decisión y qué beneficios tiene?
--Venimos desarrollando una estrategia para que cada integrante de la comunidad pueda acceder a todos los servicios que le corresponden mediante una validación con su cuenta de correo institucional; desde cursar materias hasta conectarse al wifi en cualquier edificio. Esa convergencia iba a terminar en alguna solución en la nube. Nos decidimos por Google por un tema de escala, en el que la gestión de los correos es el mejor ejemplo, porque hay una cantidad de información para almacenar que nos dificulta el funcionamiento, el respaldo y la estabilidad. Para este servicio, sin embargo, las claves no las almacena Google sino la institución, es decir que se autentifica con nuestro servidor mientras que todos los datos permanecen en la nube. Además hay otros beneficios, como acceder a las herramientas que están dentro del paquete, como el Meet para las videoconferencias. Pese a la ventaja que implica, hay que seguir educando en el uso responsable de estas herramientas. Es como en una casa, hay que ser ordenado y guardar lo que es importante, porque siempre la capacidad está limitada.
--¿Qué tendencias hay en tecnología, sobre todo en educación?
--Hay una tendencia a la descentralización y a la operatoria al cien por ciento, esto es que necesitamos que los sistemas estén disponibles todo el tiempo, lo que nos convierte, a su vez, en seres cada vez más dependientes de la tecnología, algo que se aceleró con la pandemia. ¿A dónde vamos? Claramente la hibridez es uno de los temas. También hacia el trabajo domiciliario o ubicuo, desde cualquier lugar. Y otro de los temas que en particular estamos analizando es el de la identidad digital: en nuestro caso la clave la maneja y almacena la Universidad. Ahora bien, ¿por qué los atributos para que vos te identifiques los tiene que tener un tercero? Con el DNI es el Estado, con Google es la empresa, pero ¿por qué no lo puede tener el ciudadano en una billetera digital? ¿Por qué no podemos usar una tecnología tipo blockchain para dar esa trazabilidad? De esa manera se podría validar la identidad sobre una tecnología que es propiedad de todos, o de nadie.
--¿Cómo impacta la brecha digital en el nivel universitario? Sobre todo, si pensamos en la crisis económica actual y los precios internacionales de los servicios.
--En nuestro país hemos tenido, históricamente, un retraso en el acceso a equipamiento de última generación. Hoy vemos que las soluciones en la nube nos han permitido amortiguar este problema, pero las restricciones económicas siempre tienen consecuencias, aunque desde que trabajo en el ambiente universitario convivimos con este tipo de problemas. Creo que el impacto que tiene la tecnología en nuestras vidas, en el trabajo, en la educación, hace que tenga que tener un tratamiento especial. Un chip o un software están en cualquier lugar de la vida que uno mire, no sólo en la educación. Por lo tanto hay que hacerse responsables de eso. Lo que sí sabemos es que desde la Universidad estamos preparados y equipados para enfrentar cierres o crisis de este tipo por unos años. En términos más amplios, la brecha digital me preocupa porque ahí entran muchos aspectos, desde quien enseña que no puede armar una presentación de diapositivas, hasta estudiantes que aún no pueden utilizar una herramienta básica como un procesador de textos: es decir que no lo tenemos que reducir a un tema de acceso. La brecha digital no deja de ser un tema a resolver desde la educación temprana, por eso la educación en tecnología debería estar ahí también, desde los primeros años de vida de cada estudiante.
Diseño: Laura Caturla
Unicornios y otros animales fantásticos
Por Marcelo Maggio
Las promesas de la economía global, conectada en tiempo real gracias a las nuevas tecnologías de la información, con prosperidad de crecimiento veloz y ruptura de todo lo establecido, aparecen detrás de una denominación: empresas unicornio. Sin embargo, ¿qué características tienen?, ¿cómo se preparan los Estados para los desafíos que plantean este tipo empresas?
Aníbal Cueto, profesor titular del área de Comercialización de la UNNOBA, explica que “antes de poder definir una empresa unicornio hay que definir una empresa startup, porque van de la mano”. “Una startup es un emprendimiento, implica la organización de personas para diseñar nuevos productos en condiciones de incertidumbre extrema, y busca un crecimiento exponencial”, sostiene. La traducción de startup nos dice que es algo que se pone en marcha, pero no cualquier cosa: se trata de proyectos vinculados a la tecnología y eso los diferencia de emprendimientos tradicionales.
Ahí aparece otra diferenciación. Según Cueto, todas las startups son emprendimientos, pero no todos los emprendimientos son una startup. “Si mañana ponés una pizzería o una panadería, claramente se trata de un emprendimiento, pero no de una startup, porque no se desarrolla un producto que no existe y tampoco hay incertidumbre”. Las startups, por lo tanto, se definen y juegan el todo o nada ahí: en la incertidumbre. Por eso es que sólo dos de cada diez startups sobreviven, una tasa que no se corresponde con emprendimientos de mercados más tradicionales.
“Emprendedurismo no es emprender cualquier cosa”, advierte Cueto. No estamos hablando de emprender el ejercicio de un deporte o de comenzar a estudiar una profesión. Se trata de desarrollar un proyecto económico: “Está vinculado a proyectos que desarrollan ideas de negocios, por lo que la idea es la piedra fundamental que, a su vez, tiene que estar vinculada a una oportunidad de negocio”, detalla el docente.
No es sólo una cuestión de tamaño
Vemos que las startups están llamadas a dar el salto. Y de hecho algunas lo hacen, ¡y cómo! Por eso es que aparece “una suerte de subcategoría de startup”: los unicornios. “Se trata de una expresión de Aileen Lee, quien la utilizó en el año 2013, haciendo referencia a estas criaturas mágicas. Ella decía que unicornios son las startups que tienen un desarrollo extraordinario. Y lo termina cuantificando: hoy decimos que un unicornio es una startup que alcanza una valoración de mercado de mil millones de dólares”.
Por eso es que los unicornios empresariales, al igual que los seres mágicos, son poco numerosos, escasos. Argentina tiene los suyos, no podía ser menos, y se ubica segundo después de Brasil en la cantidad de esta especie en Latinoamérica: Mercado Libre, Globant, Despegar, OLX, Auth0, Vercel, Aleph Holding, Mural, Bitfarms, Ualá y TiendaNube.
Otras características que tienen los unicornios, detalla Cueto, es que “son creadas y administradas por personas de entre treinta y cuarenta años, que están vinculadas a la tecnología y las redes y que, por lo general, funcionan con la modalidad B to C”. Se trata de la abreviatura del inglés business to consumer, es decir que son empresas que le venden directo al consumidor. En esta terminología también se pueden distinguir las empresas B to B (empresas que le venden a empresas), o B to G (empresas que le venden al gobierno). “En general, los unicornios se orientan al consumidor”, enfatiza Cueto.
Parece impensable este desarrollo sin un escenario digital, sin una gran penetración de las nuevas tecnologías de la información. ¿Será este el factor determinante hacia la consolidación de una economía de los servicios que desplace a la productiva, como se auguraba hacia fines del siglo XX? Cueto, quien está a cargo de la Maestría en Dirección de Empresas de la UNNOBA, confirma que si bien la economía de servicios se ha expandido en los últimos setenta años, “la transformación digital cruza de modo transversal a toda la economía, no solo a los servicios”. Lo digital “se puede encontrar en plataformas de pago y en el e-commerce, pero también en toda la industria, por ejemplo en internet de las cosas y en todos los desarrollos que la pandemia ha consolidado; eran recursos que estaban disponibles pero que se fueron incorporando a la cotidianidad, desde la educación hasta la compra de comida”.
¿Global versus multinacional?
“Las startups, y los unicornios en general, tienden a un mercado global: aunque después cada una segmente en su negocio, miran al mundo como un solo mercado. Tienen otra visión del negocio, con criterios de desarrollo del producto por segmentos, regiones, tal como lo hace Netflix”, aporta el profesor de UNNOBA.
En este sentido es que resulta interesante pensar el rol de los Estados, ya que si se trata de empresas que no reconocen fronteras, ¿cómo se puede regular ese movimiento global? Incluso Argentina, en este terreno, ya no se puede pensar como un simple consumidor, porque posee once empresas que traspasan sus fronteras de cara al mundo. ¿Sabe el país cómo relacionarse con este emergente económico?
“El gran desafío que tienen hacia adelante los gobiernos es pensar cómo regular estas nuevas formas de economía y comercio, y lo vemos con Mark Zuckerberg sentado en el Congreso de los Estados Unidos —grafica Cueto—, dando explicaciones: ahí vemos a la economía y la política tratando de buscar acuerdos, consensos, un desafío más grande que nunca”.
Pero, ¿qué sucede con las empresas multinacionales, ya no existen más, se han quedado quietas? Cueto explica que empresas como Ford, Coca-Cola o Toyota “están hace mucho tiempo operando en todo el mundo, pero con concepciones distintas”. Y las define: “La multinacional es una empresa que opera en distintos mercados, adecuada a las reglas de cada uno de esos mercados locales, a sus leyes. En cambio, la empresa global opera por arriba de los Estados, y ese es el gran desafío. ¿Cómo regular a un Facebook o un Netflix si no están radicadas en tu país?”, se pregunta el docente.
Trabajo local en crisis
Se suele abordar la cuestión del mercado global desde las características del denominado “mundo empresario”, esto es, el rol de las ideas, el trabajo en equipo, la inserción en el mercado global, cómo hacer para no quedar aislados del mundo, y temas similares. Pero, ¿cómo impacta el fenómeno en el trabajo, sus características, sus derechos?, ¿cuáles son las respuestas trabajadoras para acoplarse a este tren?, ¿y qué hacer con las relaciones y contratos establecidos durante el siglo XX?
Por el momento, en este terreno no aparecen las respuestas innovadoras. Más bien se ve una suerte de duelo entre las posiciones clásicas, por ejemplo "Estado de bienestar" versus "liberalismo salvaje", o sindicatos versus desregulaciones al estilo siglo XIX. Por eso es que se pueden leer las críticas a la burocratización del mercado laboral por “exceso de derechos” por un lado, o las propuestas de dejar el trabajo humano expuesto a los vaivenes del mercado, por el otro. Pero la dinámica económica no espera a la resolución política del debate: avanza. Una base que determinará a su superestructura jurídica. Entonces, tanto unicornios como multinacionales moldean su mercado laboral. Por ejemplo Mercado Libre dio la nota con el informe 2021, año en el que generó siete puestos de trabajo por día. O Toyota Argentina, que no alcanzó a cubrir los puestos ofrecidos por problemas en la cualificación de la mano de obra.
Aníbal Cueto estima que aún se está “en el inicio de la curva de aprendizaje sobre estos nuevos formatos”. “Es un desafío saber cómo regular estas nuevas relaciones laborales y económicas. No va a ser sencillo, porque implica un verdadero cambio de paradigma. Cuestiones como el home office resultan todo un cambio, porque ¿cuál es el horario de trabajo?”, reflexiona.
—¿No considera preocupante el actual escenario de auge político antiestatal y antiderechos laborales? Siguiendo su planteo, tanto con la defensa de las burocracias como del liberalismo salvaje se podría estar anulando por completo esa curva de aprendizaje que mencionaba, ese diálogo entre política y economía.
—Por eso decía que es un gran desafío buscarle reglas a esta nueva economía. Las soluciones viejas para los problemas nuevos no van a funcionar. Esta es otra economía. La solución no pasa por regular o desregular todo, la solución pasa por ser lo suficientemente creativos para encontrarle las reglas a esta nueva realidad, estando seguro de que las reglas viejas ya no funcionan. Y, si queremos ir con esas reglas viejas, nos vamos a quedar fuera, porque todos se van a ir donde tengan mejores condiciones. Es otro mundo, en el cual la oferta de puestos de trabajo también es global. Si uno quiere obtener los beneficios de esta transformación y desarrollarse en la economía digital, tiene que ver la manera de generar condiciones favorables y a la vez contención.
Diseño: Laura Caturla
Alimentación saludable: algo más que una etiqueta
Por Marcelo Maggio
Se podría empezar esta historia desde muchos lugares posibles. Este es uno de ellos: de cada cuatro muertes que se producen en el mundo, tres son producidas por enfermedades no transmisibles.
¿Cuáles son? Enfermedades como las cardiovasculares, producidas por acumulación de grasa en las arterias; distintos tipos de cáncer; diabetes y enfermedades respiratorias, principalmente. Según la Organización Mundial de la Salud (OMS), la incidencia de estas muertes es mayor en países como los nuestros, pobres. Enfermedades producidas por dietas distorsionadas, tanto por excesos como por ausencias de nutrientes. Y a ese cóctel se le agrega el consumo de tabaco y alcohol, la inactividad física y el ritmo de vida actual, incluso alterado por la reciente pandemia.
Distintas instancias dependientes de Naciones Unidas como FAO (alimentación y agricultura) o la OMS, plantean combatir esta problemática desde un enfoque integral, única manera de frenar el avance de las enfermedades no transmisibles (ENT). Una de las vías es concientizar a los consumidores mediante una mejor información acerca de los productos con los que se alimentan y así brindar herramientas clave para que las personas puedan tomar las mejores decisiones para el cuidado de su salud.
¿Mal comidos versus mal educados?
Estamos “mal comidos” fue la frase mediante la cual un libro instaló un debate bastante masivo allá por el 2013. Denunciaba directamente a la industria de los alimentos por sus graves consecuencias sobre la salud humana. Sin embargo, están quienes sostienen que se trata básicamente de una responsabilidad individual y que el Estado no debe intervenir en cómo decidimos alimentarnos. En el medio, también, una amplia variedad de posiciones políticas posibles. Frente a este debate aparecía el desafío de consensuar una ley informativa y un plan de alimentación saludable para bajar los números de muertes y de enfermedad que van en crecimiento.
El proyecto de ley de “Promoción de la alimentación saludable”, que aprobó el Senado casi por unanimidad en octubre de 2020, tardó un año en poder salir de las comisiones de debate de Diputados y tuvo su primer intento a inicios de octubre de 2021. Pero fracasó por una ausencia masiva de diputados. Se tejieron especulaciones de todo tipo, desde los manejos políticos hasta las presiones de sectores económicos.
Ese proyecto de ley, o alguno alternativo, tenía un futuro más que incierto porque toda la discusión se reducía a la presencia, o no, de unos polémicos “octógonos negros con letras blancas” sobre productos que tuvieran exceso de grasas (saturadas y totales), azúcar, sodio, y calorías. El problema de la alimentación saludable quedaba así tapado por el problema económico.
Sin embargo el acuerdo llegó a las pocas semanas, y el martes 26 de octubre de 2021, en el día de la vuelta a la presencialidad plena en la Cámara de Diputados de la Nación, el texto que había enviado el Senado hacía un año fue aprobado con el respaldo de unos 200 diputados y diputadas de distintas fuerzas políticas. El consenso había llegado y el encuentro de posiciones se debía a una preocupación fundamental: detener el silencioso avance de estas enfermedades.
Agustín Sola es el director del Proyecto de Fortalecimiento de las Carreras de Alimentos de la UNNOBA. Además es docente de la materia “Proyecto Industrial” y coordina el Programa de Alimentos “Sabores UNNOBA”. Fue consultado sobre las repercusiones que podría tener esta ley en el proceso productivo y también en las potencialidades, o no, para lograr torcer los malos hábitos en el consumo de alimentos.
--¿Tu mirada trata de incorporar de un modo más fuerte al consumidor como una parte importante de este problema?
--Exacto. Se trata de entender que hay otra realidad más allá del fabricante, algo que me dijo una profesora antes de recibirme: "Cuando tenés hijos y se portan bien, ¿a dónde los llevás? Al kiosco, no los llevás a la verdulería. El hábito de algo dulce como premio es responsabilidad de los adultos".
--Es como el premio McDonald’s en una salida con niños.
--Sí. Cuando era niño, y viajaba a Buenos Aires, si no me llevaban a comer a McDonald’s era como si no hubiera viajado: mi principal objetivo era lograr ir ahí. Pero era un gusto que te podías dar, no lo que comías todos los días. Por eso tiene que haber un equilibrio entre la exigencia a la industria para que cuide al consumidor y la responsabilidad del consumidor en sus elecciones.
--¿Eso nos puede llevar a pensar que hay una contradicción entre los alimentos nutritivos y saludables, por un lado, y los alimentos del placer, por otro? Recuerdo una canción infantil de Luis Pescetti que plantea esto, una mamá o un papá que le explican las propiedades de los alimentos al hijo para que coma, como si esto fuera una motivación real para comer.
--Es que nadie come sólo para nutrirse, la mayoría comemos para disfrutar, ni hablar en nuestra tradición. ¿Es necesario comer hasta reventar cada vez que nos juntamos los domingos en familia? Poner logos en los productos y demonizarlos con una ley de etiquetado frontal no va a resolver el bajo consumo de frutas y verduras que tenemos en Argentina.
--Es interesante el punto del bajo consumo de frutas y verduras, ¿no hay un problema de precios ahí? Porque, en definitiva, una franja de los alimentos ultraprocesados terminan siendo mucho más baratos y accesibles.
--Hay soluciones. Si vos consumís productos de estación vas a encontrar precios adecuados. Pero si querés comer mandarinas en febrero o kiwi en invierno, pasa eso. Además, tanto en Argentina como en el mundo hay que tener presente que casi un 50% de las frutas y hortalizas se echan a perder. Por eso es importante conocer a los productores locales, para consumir los productos de tu lugar y en la estación que corresponde. Los productos de alta humedad son perecederos.
--Entonces, volviendo a la legislación, las alertas en los envases, ¿pueden ayudar o no en el intento de torcer estos hábitos?
--Para que el rotulado frontal funcione tiene que ser comprensible para la población, no alcanza con poner un signo de alerta. Hay que acompañar la ley con una campaña de educación alimentaria, justamente para poder elegir, administrar alimentos, saber cuánto se está consumiendo. Se debe permitir al consumidor tomar decisiones saludables. Lo que no se debe hacer es causar temor o confusión. Además el sistema de rotulado tiene que estar adaptado a las particularidades de la población local y no copiar iniciativas que vienen de otros países. Esto es un problema grave, porque ya hay iniciativas a nivel Mercosur y esa es una complicación que se agrega al tema.
Mercosur: la articulación fallida
Argentina, como país miembro del Mercosur, tiene una legislación que indica lo que se debe incluir en un envoltorio de alimentos. Agustín Sola lo detalla: “En términos generales se tiene que indicar la denominación del producto según el Código Alimentario Argentino, es decir que no se puede decir cualquier cosa, el contenido neto (lo que pesa), y el contenido escurrido (si corresponde). Si se hizo en el país debe decir que es industria argentina. Además deben figurar la tabla nutricional, el tenor graso (si corresponde), los datos del elaborador y el registro del establecimiento, que es como el documento de quien hizo el alimento. También, desde hace un tiempo, es obligatorio el registro del producto, debe mostrarse el listado de ingredientes y los alérgenos, si los tiene. Debe especificarse si el producto hay que prepararlo y no está listo para el consumo, la fecha de vencimiento y el lote. Todo eso es obligatorio. Y es opcional colocar un nombre de fantasía al producto”.
El rotulado frontal para indicar “excesos” en determinados nutrientes, como sodio, azúcar, grasas y calorías, es algo relativamente nuevo. En algunos países es obligatorio y en otros es optativo. Chile (2016), Uruguay (2018), Perú (2019) y México (2020) son los países de la región con esquemas de advertencia similares al aprobado en Argentina. “El rotulado frontal tiene distintas disposiciones o formatos: puede ser un semáforo o un octógono negro con letras blancas como se aprobó para implementar aquí; dentro de esos octógonos se indicaría cuál es el nutriente que está en exceso”, informa Sola.
De todos modos, a nivel legislativo hay aspectos que Argentina, como país miembro del Mercosur, debería tener en cuenta: “La normativa alimentaria debe ser armoniosa con todos los países miembro. Uruguay se adelantó, ya usa el rotulado frontal. Chile, aunque no es del Mercosur, también lo tiene. Todo el tratamiento normativo a nivel regional está ríspido", señala Sola, y ese fue uno de los argumentos que señalaron los diputados que votaron en contra en la sesión.
A nivel empresarial, esto impacta de un modo directo, ya que si bien la importación y exportación de alimentos empaquetados seguiría abierta, una ley de este tipo podría trabar la circulación de mercadería. “Las empresas tendrán que considerar que, cada vez que se exporta un producto, se tiene que cumplir con los requisitos de etiquetado del país de destino. Si en Brasil tienen una exigencia particular, la empresa deberá generar un envase especial para poder exportarlo, distinto al de circulación local”. Este punto no parece haber pesado en la redacción final de esta ley, ya que la palabra Mercosur no aparece.
Nuevos tipos de consumidores
“Está claro que hay una tendencia mundial: los consumidores quieren saber cada vez más sobre los productos que están comprando, y el rotulado frontal se volvió tendencia por esas exigencias, y no solo hablamos a nivel nutricional”, indica el docente de la UNNOBA. “Un ejemplo de estas nuevas exigencias son los consumidores que se fijan en el impacto ambiental que genera la producción de lo que van a comprar, o en los métodos de elaboración que se utilizan, aspectos que van más allá de lo nutricional”.
--Otro aspecto que señalan los críticos de los productos ultraprocesados es que, además del alimento, hay otros ingredientes como los conservantes, antiapelmazantes, etc., todo tipo de aditivos que incluso pueden tener más impacto en la salud que el exceso del nutriente marcado en la etiqueta.
--Los aditivos tienen que estar detallados en el listado de ingredientes; y sí, es verdad que también hay una tendencia mundial a utilizar lo que se denomina el “etiquetado limpio” o clean label, en donde se indica si el producto se ofrece con pocos aditivos. Además todos los ingredientes deben ser conocidos e informados claramente. Pero este proyecto de ley que se presentó no apuntaba a un clean label, sólo apuntaba a los excesos de nutrientes.
--Pero entonces, ¿pueden ser un problema aún mayor los aditivos? Pienso en las personas que consumen envasados durante las distintas horas del día porque están en la calle haciendo sus distintas actividades.
--Para todo lo que son los aditivos hay algo que se llama “ingesta diaria recomendada”. Quienes fabrican alimentos necesitan una aprobación y por eso no pueden colocar más aditivos de los permitidos. Los productores éticos, quienes trabajan bien, señalan esto y es seguro el consumo de sus alimentos. Pero también te puedo preguntar desde el lado del productor: ¿alguien te obliga a vos a consumir todos esos alimentos con aditivos durante todo el día? También podrías hacer el producto en tu casa, pero es más fácil comprar la torta hecha. Entonces podemos exigirle todo lo necesario a la industria, pero quien termina eligiendo el alimento es el consumidor.
“Si sus monedas lo pueden comprar,
ellos se olvidan de lo artesanal” (Viejas Locas)
--Hoy se puede percibir un auge de lo artesanal como sinónimo de bueno y saludable en determinado sector social, que lo enfrenta a lo industrializado. ¿Cuál es la idea de saludable que aparece en el texto de la ley aprobada en Argentina?
--Este texto entiende como alimentación saludable aquella que está basada en criterios de equilibrio y variedad y que, de acuerdo con las pautas culturales de la población, le aporta una cantidad suficiente de nutrientes esenciales, a la vez que es limitada respecto de aquellos nutrientes cuya ingesta en exceso constituye un factor de riesgo para enfermedades crónicas no transmisibles. Es decir, se habla de nutrientes y no se habla de escalas, como podría ser artesanal o industrial. Muchas veces es preferible elegir un alimento industrializado porque se tiene la certeza de que se respetaron ciertos procesos de producción, a diferencia de las empanadas que hizo la vecina porque no sabemos nada de las condiciones en las que las cocinó. Entonces, puede ser que el producto artesanal no te genere una enfermedad no transmisible, pero sí te puede dar una intoxicación o una enfermedad de transmisión alimentaria. Por lo tanto es preferible cocinar uno mismo o comprar una marca con trayectoria reconocida.
--Otro punto áspero, muy discutido por el impacto en la industria de la publicidad, fue el de la comida destinada a niños, con la prohibición de la utilización de personajes de ficción e incluso no poder venderlos en los kioscos escolares.
--Esta ley contempla ese aspecto, directamente prohibir publicidad, promoción o patrocinio en productos que tengan al menos un sello de advertencia y que estén dirigidos a niños o adolescentes. Además, como señalás, los kioscos presentes dentro de las escuelas no podrán ofrecer productos que tengan al menos un sello de alerta. La pregunta es si estamos educados y preparados para esto.
--Es difícil, porque lo que ves en la puerta de las escuelas es que los niños ya van muñidos de golosinas desde la casa.
--Por eso mismo, lo que no compre en la escuela se lo dará la familia.
--Eso es así, pero sigue estando la realidad ahí vigente, esa que dice la OMS, la relación directa entre los alimentos ultraprocesados y las enfermedades no transmisibles, y algo hay que hacer.
--Es verdad, pero hay que completar el panorama, porque este crecimiento de enfermedades va de la mano con otros factores, como la falta de actividad física, el consumo de alcohol, el ritmo de vida. Por ejemplo, ¿qué pasa con toda la gente joven que no cocina? Es cada vez más la cantidad de jóvenes que compran comida hecha, ¡todos los días! Después vienen las consecuencias. Entonces, si estamos hablando solamente de los alimentos envasados, toda esta realidad nos está quedando afuera.
Diseño: Laura Caturla
Energías renovables para enfrentar el cambio climático
Por Marcelo Maggio
Después de vivir casi diez años en un campo al sur de Santa Fe, por fuera de los tendidos eléctricos tradicionales, fue que Pablo Atencio se empezó a encontrar con las energías renovables. Allí se puso a explorar las energías solar y la eólica, por su cuenta. “Había que tener lo necesario para los consumos de la casa”, rememora.
Hoy es el primer egresado de la Maestría en Energías Renovables y su Gestión Sustentable, dictada en la UNNOBA. La tesis, que fue defendida este año, hace un estudio ambiental y propone la implementación de un parque fotovoltaico en la localidad de O’Higgins, partido de Chacabuco. Y fue a partir de su experiencia como subsecretario de Medio Ambiente en este municipio, entre 2015 y 2019, que surgió toda la inquietud, tanto de cursar como de elaborar la propuesta.
La relación entre “generación de energía” e “impacto ambiental” es mayor de lo que se pueda pensar. En su trabajo, Atencio publica que, por ejemplo, en Chacabuco la categoría Energía es la que produce la mayor parte de las emisiones de gases de efecto invernadero, con un 53%, seguido por la producción agropecuaria, que es de un 44%. Es por eso que ya desde el título de la tesis invita a pensar en la multiplicidad de dimensiones: “Políticas Públicas Locales frente al cambio climático en la Ciudad de Chacabuco: Plan Local de Acción Climática y uso de Energías Renovables”.
“El cambio climático está potenciado por las acciones antropogénicas, entre ellas la producción de energía, esto es, cuando para producir energía emitís gases de efecto invernadero. Esto va desde los motores diésel hasta el uso de represas hidroeléctricas, que implican inundación de superficies y el desplazamiento social”, explica Atencio. En este sentido, la construcción de parques solares o eólicos implica una reducción de la producción de las energías tradicionales, como las fósiles. “La implementación de energías renovables implica también un cambio de paradigma en lo social, porque todo cambio tiene que ir acompañado en el uso. Por ejemplo, un exceso de consumo de bienes lleva a malgastar energía, porque se usó energía en producir esos productos”, agrega. En este sentido "la domótica en las casas (automatizar procesos como encendido de luces o el mantenimiento de la temperatura del hogar) lleva a economizar los consumos; o la bioconstrucción, que permite que la calefacción o refrigeración sea utilizada de manera eficiente, sin derroches; todos estos pasos que acompañan a las energías renovables y a un futuro necesario”.
En el título mismo de la maestría se utilizan dos conceptos que pueden o no ir de la mano: renovable y sustentable. Sin embargo, hay energías con diversos cuestionamientos en relación a sus impactos, desde las tan extendidas represas hidroeléctricas hasta las más asociadas con lo renovable, como los biocombustibles, el litio para los acumuladores eléctricos o los residuos de los paneles solares.
Leonardo Amet es codirector de la maestría y docente de las asignaturas “Energía Eólica” y “Energía Fotovoltaica y Térmica”, y en este sentido afirma: “Es verdad que para fabricar algo, por ejemplo una turbina eólica, generás una huella de carbono, debido a la energía que se necesita, a los materiales que extraés, los residuos que se generan. Lo mismo pasa con los paneles y hay debates sobre este tema. En mi opinión, tanto la tecnología no renovable como la renovable generan huella de carbono, pero la diferencia hay que verla con lo que pasa durante su vida útil”, y ahí es donde la energía renovable y sustentable saca su ventaja.
Sin embargo, muchas veces renovable no es equivalente a sustentable, como plantea Atencio: “Los denominados biocombustibles no los considero como una energía renovable porque el recurso que se utiliza es finito. El suelo, si no se lo cuida adecuadamente, se degrada. El agua es también un recurso finito. No lo veo como una solución, aunque sí lo veo como una forma de resolver una problemática puntual para el sector agropecuario, utilizarlos en un ámbito particular y no de forma masiva. Pero priorizar los biocombustibles para mantener la misma flota de automóviles, para mí, es demencial”.
Por eso, quienes trabajan en energías renovables están planteando la idea de la eficiencia energética, para lo cual la innovación tecnológica es clave, tanto en el lado del consumo como de la producción. Leonardo Amet lo explica en estos términos: “Primero, tratás de ser eficiente para bajar el consumo energético. Por ejemplo, lo que sucedió con la iluminación en pocos años, pasando de la lámpara incandescente a la tecnología LED. Pero también en el lado de la producción de energía, se están haciendo más eficientes los paneles fotovoltaicos, con los que se está tratando de aprovechar cada vez más la cantidad de radiación solar que les llega”.
Crear dos, tres, muchos parques
En O’Higgins tenían un problema recurrente: la caída de tensión eléctrica. Esto era, en parte, debido al largo trayecto que recorre su línea para conectarse a la red. “¿Por qué un parque fotovoltaico? Porque se nos acerca la Sociedad de Fomento de O’Higgins y nos comentan que tienen un predio disponible y que quieren llevar adelante la construcción de un parque fotovoltaico”, relata Pablo Atencio, en ese momento subsecretario de Medio Ambiente local. Con el parque solar podrían inyectar energía a la red y minimizar las caídas de tensión.
Desde la subsecretaría, Atencio se puso a trabajar junto a la Red Argentina de Municipios frente al Cambio Climático para poder contar con un "plan local de acción climática”, verdadera “llave” para acceder desde el municipio a los créditos que otorga el “fondo verde” europeo. Pero ese plan iba a tardar. Incluso la aprobación llegaría mucho más tarde, con el cambio de gestión administrativa. ¿Cómo seguir?
“El presupuesto nos daba que había que gastar cerca de 1,3 millones de dólares. ¡Obviamente no nos pudimos ni acercar a esa cifra!”, se lamentó Atencio. Sin embargo, tanto desde el municipio como desde la Sociedad de Fomento y la Cooperativa Eléctrica se pusieron a buscar opciones. “Dimos con Alfredo Zuccotti, gerente jubilado de la cooperativa que nos ayudó mucho, y a través de su informe técnico se pudo llegar al Ministerio de Energía de la Provincia y obtener fondos del Programa Provincial de Incentivos a la Generación de Energía Distribuida (PROINGED)”. “Hoy ese parque ya está en funcionamiento, un parque pequeño, de 400 KW, pero que es un hecho”, celebra Atencio.
“Mientras esto pasaba, yo cursaba la maestría. Quería plantear una tesis sobre cómo se tienen que plantear las políticas públicas para el sector”, indica. Es por eso que en su texto está no sólo el proyecto para la construcción de un parque fotovoltaico de 2000 KW de potencia en un predio municipal. También está el planteo de un proyecto a mediano plazo, que implicó la elaboración de un "plan local de acción climática" con todas las etapas necesarias, “un proceso de cuatro años que va desde el inventario de los gases de efecto invernadero, los planes de adaptación, planes de mitigación y el plan de acción”. Políticas públicas, energías renovables, cambio climático y una gran cantidad de actores involucrados. ¿Es algo posible de articular desde lo local?
“Para que los tiempos de implementación sean efectivos, es mucho más ágil la interacción entre gobiernos locales”. Quizás debido a ese convencimiento es que Atencio se puso a trabajar junto a la Red Argentina de Municipios Frente al Cambio Climático, un espacio que une a los municipios que quieren seguir este lineamiento y busca los medios de coordinación internacional y los fondos para llevarlos adelante.
“Desde mi punto de vista, los gobiernos locales tienen que ser un nexo. El municipio tiene que ser uno más y no la figura principal. ¿Por qué? Porque de esa manera la interacción va a ser más sana y con más llegada social, sostenible en el tiempo, porque a la larga la gente se cansa de las manipulaciones políticas”, opina haciendo un balance del camino recorrido.
Para Atencio, es fundamental el involucramiento de la sociedad en las políticas públicas relacionadas con el medio ambiente. “Se trata de políticas que tienen un impacto directo en la calidad de vida, por eso es la gente la que tiene que presionar para que se lleven adelante las decisiones”.
En este sentido, Argentina, como todos los países firmantes del Acuerdo de París, está obligada a informar sus emisiones de gases de efecto invernadero periódicamente, utilizando un inventario como instrumento para hacerlo. “A nivel nacional, la última comunicación nacional fue publicada en 2015, con los resultados de la evaluación de emisiones del año 2012”, detalla.
“El desafío lo marca el cambio climático, porque si no tenemos un cambio de mentalidad pronto, el futuro va a ser cada vez más difícil”, sintetiza Atencio.
Diseño: Laura Caturla