Inteligencia Artificial, guerras y medio ambiente

En el marco de un simposio académico sobre IA, ética y comunicación, el autor analizó ciertos conceptos desatendidos o mal difundidos, discutiendo en particular tres mitos: neutralidad, conciencia e inocuidad ambiental.* Eso no le impidió señalar ciertos emprendimientos de universidades y organizaciones sin fines de lucro que procuran equilibrar la balanza con IA y big data en busca del bien común. Lo que sigue es una desgrabación fiel del audio mediante TurboScribe.ai con mínimos ajustes. **

21/06/2025 Agustín Courtoisie
Foto-víctimas-civiles---972-Magazine-(1)
Inteligencia Artificial, guerras y medio ambiente

Muchas gracias a todos por estar aquí y especialmente a los organizadores. Decidí hacer algo un poco diferente de lo que tenía previsto.

A veces cuando traemos una serie de diapositivas, las diapo nos atan a un determinado esquema y prefiero discurrir en torno a las cosas que he escuchado en estas presentaciones respetando la estructura principal. Vamos a dejar esa diapo principal simplemente, que remarca los tres ejes de esta charla.

Los tres mitos sobre la inteligencia artificial que me propongo presentar ante ustedes tienen que ver con el concepto de neutralidad, con la presunta inocuidad ambiental y con el concepto de conciencia en un sentido psicológico (no en un sentido moral, no como conciencia moral).

Yo digo que la inteligencia artificial es como una pareja tóxica. Tenemos los momentos más sublimes, después pasamos momentos terribles, pero siempre la necesitamos. Y como en la vida últimamente las descargas de dopamina tienen que ver con el scroll que hacemos en Instagram u otras redes, tal vez es preferible una mala pareja que ninguna pareja. La inteligencia artificial con esta metáfora yo creo que queda emplazada desde el punto de vista de sus ambigüedades.

Para ponernos más académicos, sobre fines de los años 90, Harry Collins y Trevor Pynch escribieron un libro que se llamó El Gólem. Todo lo que deberíamos saber sobre la ciencia. Y ellos levantaron esta metáfora formidable. Ustedes recuerdan la leyenda del gólem, ese ser precario, con mucha fuerza, hecho de barro, con mucha fuerza pero algo tonto.

Ellos dicen que la ciencia no es la gran panacea de todo. Entonces la tecnología tampoco es una panacea para todo.

Pero tiene un enorme poder. Igual que el gólem, tiene tanta fuerza que podría matarnos. Y de hecho vamos a ver algunos de los usos que la ciencia y la tecnología adoptan en contra de la humanidad.

Entonces, si la pensamos como un gólem, es diferente a pensar la inteligencia artificial como un Terminator amenazante e imprevisible. Hoy no está muy de moda la palabra dialéctica, pero yo diría que sea lo que fuere la realidad, es dialéctica. Es decir, frente a determinados fenómenos que podemos considerar como impacto negativo de la inteligencia artificial, inmediatamente se nos plantean fuerzas rebeldes, resistentes, resilientes, que quizás en algún plano, en algún grado, puedan permitir cambiar la pisada de cómo se distribuyen los poderes.

Entonces yo les pido que retengan esta imagen de la inteligencia artificial como una pareja tóxica. Esta imagen de la inteligencia artificial como un gólem. Es decir, un bobo grandote, pero que tiene mucha fuerza.

Y pasemos entonces a ver estos tres mitos desde un ángulo, yo diría dialéctico. Mostrar pro y contra, mostrar que no es posible que hagamos juicios absolutos. Ustedes ya habrán visto en los medios de comunicación los grandes entusiastas, grandes agentes de marketing de la inteligencia artificial, y por otro lado los grandes tecnófobos estilo Eric Sadin y otros, acerca de las posibilidades y los peligros de la inteligencia artificial.

Software para el bien común

Yo digo que no hagamos, por lo menos temporariamente, no hagamos juicios absolutos. Vamos a ver, por ejemplo, a una autora como Cathy O'Neill, matemática, ingeniera de profesión. Tiene un libro maravilloso que se llama Armas de Destrucción Matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia (2017).

Básicamente estoy recordando de memoria. Y es extraordinario ese libro, porque todo lo que hemos escuchado acerca de los sesgos en materia de inteligencia artificial y Big Data –que son cosas diferentes pero están solapadas en parte–, tienen que ver con lo que se describe en ese libro. Es decir, cuando se utiliza un algoritmo de Big Data para dar un crédito en un banco, hay sesgos.

Se le termina dando crédito a quien quizás no lo necesitaría y se le niega a aquel que estaría dispuesto a pagar sus cuotas a pesar de que es muy pobre. Los sesgos de género, ni hablar. O los sesgos de raza. Al mismo tiempo, Cathy O'Neill nos recuerda que más allá de esos impresionantes sesgos –de este gólem que tiende a aumentar la desigualdad, con sus sesgos de género, de raza, de aporofobia (como diría Adela Cortina)– estos corren en paralelo en un diálogo con las fuerzas de la resistencia, con aquellos que se deciden a escribir algoritmos Big Data prosociales por el bien común, o aquellos que deciden utilizar la inteligencia artificial de un modo diferente al que se está utilizando habitualmente.

Vamos a mencionar algunos casos. En el caso de Cathy O'Neill, nos recuerda, por ejemplo, que se hizo un estudio sobre vivienda asequible para familias usuarias de albergues en el ayuntamiento de Nueva York. Y ahí fue cuando descubrieron que había problemas en el diseño del sistema de asistencia a esas familias, y había un error en la interpretación de los datos.

A veces las familias desaparecían, pero desaparecían porque de pronto alguien había conseguido acceso a una casa y desaparecía de los albergues. Entonces no era que el albergue estuviera haciendo las cosas mal. Lo relevante es que a alguien se le ocurrió utilizar algoritmos Big Data para evaluar programas de vivienda de un ayuntamiento.

Pensemos en la esclavitud, en la esclavitud actual. Según Cathy O'Neill se han hecho escaneos de grandes cadenas de suministros para investigar la esclavitud en sociedades actuales. El trabajo estuvo a cargo de Mira Bernstein, doctora en matemáticas por Harvard. La organización sin ánimo de lucro beneficiaria de ese software es Made in a Free World. O sea, hay esclavitud, como bien sabemos, en el mundo actual, más allá de algunas visiones idílicas que tenemos acerca del capitalismo o del neocapitalismo (ver ONeill, 2017, pág. 267).

En cuanto al maltrato infantil, Eckerd , una organización sin ánimo de lucro, desarrolló un software de seguimiento de alarmas tempranas de maltrato infantil (O’Neill, 2017, pág. 268).

Y una cosa interesantísima: ya hay varias universidades en el mundo, Carnegie Mellon es una de ellas y el MIT es otra, que se han puesto a hacer lo que hace rato que muchos teníamos ganas de que se hiciera: abrir la caja negra de los algoritmos que están detrás de los Big Data o detrás en general de la inteligencia artificial generativa.

Esto ya ocurre. Cuando Google se negó a esto, las investigaciones continuaron y se han simulado una cantidad de preguntas a las plataformas donde Google está detrás para hacer un poco de ingeniería inversa. ¿Qué es lo que hay detrás cuando me responden esto, si digo aquello?  (O’Neill, 2017, págs. 260-262).

Del impacto ambiental a los drones asesinos

Vamos al caso de otra especialista. Estamos en este caso hablando del mito de la neutralidad. En realidad, las inteligencias artificiales y los Big Data no son neutrales. Como alguien lo podía preguntar, miré el diccionario de Real Academia Española. Para definir neutralidad menciona siete acepciones:

“Neutralidad: Cualidad o actitud de neutral. Sinónimos: imparcialidad, independencia, objetividad, equidad, ecuanimidad, indiferencia, abstención” (DRAE, 2025).

Yo debería adoptar aquí algo más sencillo. Hablemos del mito de la neutralidad de la inteligencia artificial, en el sentido de neutralidad como una mitigación o un uso razonable del sesgo. La mitigación razonada o razonable de los sesgos. Es imposible que un algoritmo deje de tener sesgos. De lo que se trata es de que tenga menos sesgos, o no sean tan ostensibles como los que se han documentado en muchas investigaciones recientes (O’Neil, 2017).

Una investigadora como Sasha Luchioni (2023), señala tres grandes problemas de la inteligencia artificial: la emisión de carbono y la necesidad de refrigerar sus grandes centros de datos; la violación de los derechos de autor, porque las inteligencias artificiales son “loros estadísticos” que se nutren de todo lo que está publicado en la red; y, también, la construcción de fake news. Ahí tenemos las malas noticias: impacto ambiental, violación de los derechos de autor y construcción de fake news cada vez más sofisticadas. 

Sin embargo, cada una de esas problemáticas tiene su contrapartida de resiliencia y de resistencia. Por ejemplo, en el caso de la emisión de carbono, la propia Sasha Luchioni desarrolló un software, CodeCarbon, que detecta el impacto en la huella de carbono de la mayoría de las inteligencias artificiales al uso. En realidad, ella diseñó ese programa con el propósito de evaluar Bloom, que es una suerte de ChatGPT, pero con propósitos de bien común, transparencia y objetivos prosociales.

Entonces, miren lo que nos dice Sasha Luchioni de los resultados obtenidos con ese software CodeCarbon:

“El año pasado [2022] formé parte de la iniciativa Big Science, que reunió a 1.000 investigadores. Eso fue con el propósito de crear Bloom, el software del que les hablaba. El primer modelo de lenguaje amplio y abierto, como el ChatGPT, pero con énfasis en la ética y la transparencia del consentimiento” (Luchioni, 2023).

Atención ahora, continúa Sasha Luchioni:

“El estudio que dirigí para analizar los impactos ambientales de Bloom descubrió que sólo entrenarlo consumía tanta energía como 30 hogares en un año entero y emitía 25 toneladas de dióxido de carbono, lo que es como conducir un automóvil 5 veces alrededor del planeta para que alguien pueda usar este modelo para contar un chiste” (Luchioni, 2023) [Ver también por dónde optan las inversiones de Google: Euro News, 18/10/2024].

Acá vienen las buenas noticias:

“Puede que no parezca mucho,  pero otros modelos similares de lenguaje extenso, 

como el GPT-3,  emiten 20 veces más carbono.  La  cuestión es que las empresas de tecnología no están midiendo estas cosas.  No lo están revelando. Esto es probablemente solo la punta del iceberg,  aunque se esté derritiendo”, agrega Sasha Luchioni, no sin ironía (2023).

Entonces, nosotros tenemos que, para controlar el impacto ambiental ya está diseñado CodeCarbon, lo que permitiría que el consumidor, el usuario decidiera entre las distintas huellas que los distintos software presentan de emisiones de carbono, por ejemplo.

Y respecto de la violación de derechos de autor, hay un trabajo de un compañero, un colega de esta casa, Santiago López Delacruz, sobre los efectos muy serios que tiene la inteligencia artificial generativa de imágenes: a la IAG de imágenes se le nota que es kitsch y que hace un refrito de cosas que ha visto por ahí. Pero no es capaz de crear un nuevo estilo pictórico (López Delacruz, 2025).

Pese a todo, nos señala Sasha Luchioni, tenemos Spanning AI una organización creada por artistas con una serie de herramientas que permiten rastrear a partir de imágenes y textos dónde una inteligencia artificial ha utilizado la creación de seres humanos que intentan vivir como artistas, de sus humanas creaciones (Luchioni, 2023).

Por último, hay un programa respecto de las fake news y los sesgos de los cuales hablábamos, que se llama Estable Bias Explorer (Explorador de Sesgos Estables), un software que permite evaluar el grado y el tipo de sesgos que presentan los distintos programas (Luchioni, 2023).

Esto de la no neutralidad en realidad, tiene un aspecto terrible que es el uso bélico de la inteligencia artificial. Hoy en día se utiliza inteligencia artificial para el uso de drones. Menciono por lo menos dos casos de software:  Habsora, también llamado The Gospel, un programa de inteligencia artificial que sugiere blancos, objetivos, basado en análisis masivo de datos, teléfonos, movimientos, redes sociales. Hay un informe de The Guardian sobre esto (The Guardian, 2023). [Ver también Médicos sin Fronteras, 20/04/2024]

El otro es el Lavender, un algoritmo usado en 2021 hasta el 2024, que marcaba a decenas de miles de palestinos como sospechosos, incluyendo civiles en zonas residenciales  (+972 Magazine, 3/4/2024). Menciono algunos drones de vigilancia y ataque, como Hermes-450, Heron TP y Harop, un dron kamikaze.

Del test de Turing a la sala china

La hora impone hablar del otro mito, la conciencia, en sentido de fenómeno psicológico. Como los minutos que quedan son escasos, yo no me voy a referir a esto tan interesante que ha planteado el grupo de científicos y comunicadores públicos de la ciencia, como los argentinos del Gato y la Caja. Está de libre disposición el libro entero, El nudo de la conciencia de Enzo Tagliazucchi, en una publicación del grupo El Gato y la Caja, sobre los problemas que plantea la conciencia para los neurocientíficos hoy en día (Tagliazucchi, 2021).

Simplemente, en el caso de la conciencia, recordaría que el test de Alan Turing se respondía con el experimento imaginario de la zona china de John Searle, que me parece sumamente interesante. ***

También diría algo junto al experto español Ramón López de Mántaras, que cuando le hablan de la conciencia de las máquinas o de la inteligencia artificial, responde “¡es software, es software!”. Así que los que somos muy escépticos acerca de la posible conciencia de modelos actuales o futuros de inteligencia artificial, recordamos algo muy elemental. Cuando se fabrican palas mecánicas, que son mucho más eficientes que los seres humanos para cavar pozos, no se necesitan músculos. La inteligencia artificial hace lo mismo de otras maneras. No necesitamos ni conciencia ni pensamiento, en cualquier sentido que se le atribuya.

Respecto de la conciencia, les recomiendo el artículo IA-Forismos, o sea, aforismos de Inteligencia Artificial, en una revista miscelánea que se llama Mediomundo (Courtoisie, 19/08/2023). Y también una revista académica, los Cuadernos del Gescyt, que es el Grupo de Estudios Sociales de la Ciencia y de la Tecnología, que integro (Gescyt, 2025). Tengo un compañero, Jorge Rasner, aquí entre el público. En el número 2 de Los Cuadernos del GCIT, que está totalmente disponible en gescyt.wordpress.com, en el número 2, marzo de este año, se publicó el artículo Máquinas éticas, donde se desarrollan todos estos temas que los pocos minutos que me quedan no me van a permitir (Courtoisie, 31/03/2025).

Respecto de la inocuidad ambiental, lo que leíamos de Sasha Luchioni ya nos da una idea, pero, por otro lado, hay estudios del Foro Económico Mundial, que no es santo de mi devoción, pero, sin embargo, es un player del mundo, de la opinión pública mundial. Ha hecho interesantes análisis, sobre todo lo positivo que puede hacer la inteligencia artificial para mitigar el cambio climático y tomar decisiones muy aterrizadas según las economías, según las regiones, en temas de ambiente (World Economic Forum, 2024).

También debo decir que el autor de un libro inevitable de Luciano Floridi, Ética de la Inteligencia Artificial, una de las cosas que señala es que la inteligencia artificial puede ser utilizada de modo sumamente positivo en los temas ambientales (Floridi, 2024).

Entonces, bueno, yo prefiero a Luciano Floridi que al Foro Económico Mundial, pero ustedes elegirán a cuál prefieren. Entonces, yo diría que la “neutralidad”  se convierte en “neutralidad” negativa, por ejemplo, al utilizar la inteligencia artificial con drones asesinos. Pero esa argucia del lenguaje [“neutralidad”] podría ser combatida también con una serie de herramientas de inteligencia artificial.

Los temas de la conciencia me conduce al minuto que me queda para terminar esta charla con ustedes.

Me sume en la perplejidad cuando, por ejemplo, miro fotos de los viejos dibujos de Santiago Ramón y Cajal. Cada neurona no tiene conciencia, sin embargo, el conjunto de las neuronas o el sistema nervioso tiene como emergente una conciencia humana, pongámoslo por caso. Y algo similar podríamos pensar cuando despanzurramos una computadora. Todo eso no tiene conciencia, tomado aisladamente…

Así que abramos la perspectiva de que quizás en un futuro haya fenómenos emergentes interesantes. A quienes les interesen las diapo, las pongo a disposición y voy a terminar como suelen terminar las inteligencias artificiales: espero haberte ayudado y estoy aquí para lo que necesites. Muchas gracias. ¡Gracias!

REFERENCIAS

+972 Magazine. ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties. https://www.972mag.com/lavender-ai-israeli-army-gaza/

Courtoisie, Agustin (19/08/2023). IA-forismos. En Mediomundo.uy

https://mediomundo.uy/contenido/6069/ia-forismos 

Courtoisie, Agustin (31/03/2025). Máquinas éticas. En Cuadernos del Gescyt, Nº 2, marzo de 2025, págs. 7-23. https://gescyt.wordpress.com/2025/03/31/cuadernos-del-gescyt-no-2/

Cuadernos del Gescyt (2025). https://gescyt.wordpress.com/

El País (Madrid) (14/08/2018). https://elpais.com/internacional/2018/08/13/actualidad/1534193171_020667.html

Euro News (18/10/2024) https://es.euronews.com/business/2024/10/18/google-alimentara-sus-centros-de-datos-de-inteligencia-artificial-con-minirreactores-nucle

Floridi, Luciano (2024). Ética de la inteligencia artificial. Barcelona: Herder. [Publicación original 2023]

López Delacruz, Santiago (2025). Imágenes generadas por inteligencia artificial: pasado interminable, futuro cancelado. En Cuadernos del Gescyt, Año 1, Nº 2, marzo 2025, págs. 51-57.

Luccioni, Sasha  (2023).  La IA es peligrosa, pero no por las razones que piensas. En TED Women, octubre 2023. https://www.ted.com/talks/sasha_luccioni_ai_is_dangerous_but_not_for_the_reasons_you_think/transcript?subtitle=es&language=es

Médicos sin Fronteras (20/04/2024).  https://www.msf.es/noticia/seis-meses-guerra-gaza-radiografia-destruccion-deliberada-sistema-sanitario-guerra-sin-reglas

New York Times (7/02/2021). https://www.nytimes.com/es/2017/02/21/espanol/cultura/santiago-ramon-y-cajal-el-hombre-que-dibujo-los-secretos-del-cerebro.html

O’Neil, Cathy  (2017). Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing.

Tagliazucchi, Enzo (2021). El nudo de la conciencia. Buenos Aires: El Gato y la Caja. Descarga libre completo: https://elgatoylacaja.com/elnudo/indice

The Guardian (2023). ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets

World Economic Forum (2024). https://es.weforum.org/agenda/2024/02/9-formas-en-que-la-ia-ayuda-a-combatir-el-cambio-climatico/

Xataka (21/11/2023). https://www.xataka.com/componentes/futuro-hardware-para-ia-reinara-nvidia-hay-empresa-preparada-para-darle-buen-susto

NOTAS

* Del 27 al 30 de mayo de 2025 se realizaron en la Facultad de Información y Comunicación (FIC) dos actividades académicas sobre inteligencia artificial (IA). Por un lado, tuvo lugar el  II Simposio Uruguayo de Ética de la Información y la Comunicación titulado “Las IA en disputa: retos éticos para la información y la comunicación”. Por otro, el II Seminario de IA en Información y Comunicación: “Formar y ejercer en tiempos de IA generativa: tensiones y desafíos en información y comunicación”. Fue en ese marco que el autor expuso usando el título: “Tres mitos sobre la IA: neutralidad, conciencia e inocuidad ambiental”. La información institucional y los programas completos pueden encontrarse en: https://www.fic.edu.uy/node/5321

** El audio de la exposición fue convertido a texto por TurboScribe.ai y supervisado por el autor. La sesión completa de la mañana del 28 de mayo fue subida a YouTube con el link https://www.youtube.com/watch?v=9n9Wz_BswLY. La ponencia de Agustín Courtoisie puede encontrarse a partir de HH:MM:SS = 2:34:33. El enlace general con videos de todas las mesas está en: https://www.youtube.com/@getincofic

*** En un artículo anterior resumí de este modo el argumento de Searle: “Dentro de la ‘sala china’ permanece una persona que ignora por completo el idioma chino. Un chino auténtico le pasa una tarjeta a través de cierta ranura en la puerta, con frases escritas mediante bellos e incomprensibles ideogramas. El sujeto dentro de la sala la toma y consulta un catálogo de reglas que muestra los garabatos que debe incluir su respuesta teniendo en cuenta los garabatines enviados en la tarjeta del chino. Cada vez que el hombre dentro de la sala recibe una tarjeta, se fija en el catálogo y envía otra por la ranura de salida. El proceso se repite varias veces. El chino, que no sabe lo que pasa dentro, puede suponer que el responsable de las respuestas conoce su idioma y comprende el significado de los caracteres, pero se equivoca. Eso es parecido a suponer que el loro entiende las palabras que reproduce, o la pared, el eco. La analogía de la sala china es clara: el catálogo es un programa, sus autores son los programadores, la persona dentro del cuarto es la computadora y el chino un usuario que cree que la máquina necesita pensar” (Courtoisie, 19/8/2023).

FOTOGRAFÍA DE PORTADA

+972 Magazine 3/04/2024

https://www.972mag.com/lavender-ai-israeli-army-gaza/

Lo más visto
Figura 2 (1)

Zona por zona

José Ramos
Columnas21/04/2025

En diciembre del año pasado, más precisamente, el día 10, recibimos un mensaje de un compañero de Paysandú. Refiriéndose al artículo “Balotaje 2024” entre otros conceptos decía:” ...ahora dentro del Uruguay más profundo también hay una clara diferencia entre el Litoral, la frontera terrestre y los del centro del país…”, palabras más palabras menos. (1)

Vida de perro

¿La basura o la vivienda?

Agustín Courtoisie
Mediateca05/05/2025

Los candidatos a las elecciones departamentales y municipales han dejado claras sus prioridades. Pero pocos se atreven a pensar en grande. Quizás la basura esparcida por los hurgadores, sea consecuencia en parte de una escandalosa desigualdad, naturalizada como inevitable. Lo mismo ocurre con las dificultades para acceder a una vivienda digna. Por eso vale la pena volver a Carlos Vaz Ferreira y su propuesta del "derecho a un lugar" para todos.

Sin-título-1

Departamentales 2025

José Ramos
28/05/2025

Si a usted le interesa analizar los resultados de las elecciones departamentales según cómo les fue a las listas, a los sectores, a los sublemas, a las “colectoras”, deje de leer porque va a perder el tiempo. De eso no vamos a hablar. Como nos enseñaban, vamos a ir de lo general a lo particular, de lo grande a lo chico.

kant-filosofia

Los aportes de Kant a la educación

Jorge Barrera
29/05/2025

Emmanuel Kant nació en Königsberg, el 22 de abril de 1724, actualmente, esta ciudad forma parte de Rusia y se llama Kaliningrado; en tiempos de Kant, era una ciudad prusiana con una fuerte tradición académica y filosófica. Falleció el 12 de febrero de 1804 en la misma ciudad. Pese a no haber salido prácticamente de su pueblo, se convirtió en el filósofo más importante de la ilustración.

vaz-ferreira

El origen del debate

Jorge Barrera
07/06/2025

La controversia se inició con la creación del Consejo de Educación Secundaria en 1935 y la fundación del Instituto de Profesores Artigas (IPA) en 1949. Vaz Ferreira, rector de la Universidad de la República en ese momento, se opuso a la separación de la enseñanza secundaria de la órbita universitaria, argumentando que esto afectaría la formación de los docentes.

introduccion

El trabajo enajenado y su importancia en la crítica marxista

Federico Barrera Peña
12/06/2025

El concepto de trabajo enajenado es central en la crítica marxista. En los Manuscritos económico-filosóficos de 1844, Karl Marx analiza cómo el capitalismo despoja al trabajador del control sobre su producción, convirtiéndola en una fuerza ajena que lo domina. La alienación se manifiesta en cuatro dimensiones: separación del producto, imposición del trabajo, pérdida de la esencia humana y distorsión de las relaciones sociales. Marx sostiene que esta enajenación no es accidental, sino un mecanismo estructural que perpetúa la explotación. Su abolición requiere transformar las condiciones de producción y eliminar la propiedad privada sobre los medios de producción. Esta crítica sigue siendo clave para entender la desigualdad actual.

Tapa libro Monstruos - Mediateca final

Palabras que navegan tormentas

Lucía Erlich
Mediateca20/06/2025

La presentación de Monstruo se realizó el 13 de junio en el Espacio Alzáibar de Montevideo. Era un día frío y húmedo. Sin embargo, recibió un público que colmó las instalaciones y prestó mucha atención a una mesa de agudos comentaristas. También se escuchó música en vivo y poemas leídos por el autor, familiares y amigos. Todo culminó con un brindis. No en vano Monstruo (2025) es el segundo libro de Mauricio Yacusa (Durazno, 1970), artista plástico, fotógrafo y escritor, que arriesga nuevos caminos después de Insomnio (2022). Por su parte, Lucía Erlich, autora del prólogo que aquí reproducimos, es montevideana, docente de literatura y vive en la actualidad en Tolhuin, Tierra del Fuego. Argentina.

Foto-víctimas-civiles---972-Magazine-(1)

Inteligencia Artificial, guerras y medio ambiente

Agustín Courtoisie
21/06/2025

En el marco de un simposio académico sobre IA, ética y comunicación, el autor analizó ciertos conceptos desatendidos o mal difundidos, discutiendo en particular tres mitos: neutralidad, conciencia e inocuidad ambiental.* Eso no le impidió señalar ciertos emprendimientos de universidades y organizaciones sin fines de lucro que procuran equilibrar la balanza con IA y big data en busca del bien común. Lo que sigue es una desgrabación fiel del audio mediante TurboScribe.ai con mínimos ajustes. **

Suscríbete al Boletín SEMANAL