Inteligencia artificial: otro desafío para la filosofía de la técnica

Columnas 23 de diciembre de 2023 Por Agustín Courtoisie
Entre el optimismo ingenuo y los temores exagerados, la IA requiere ser pensada en términos más cercanos a la experiencia práctica. Este artículo resume una ponencia presentada en diciembre de 2023 en el VII Seminario Bertrand Russell (FIC Udelar y SADAF, Buenos Aires). El autor quitó algunas redundancias propias de la oralidad y sustituyó sus citas de memoria por las versiones textuales de cada original.
Subrutina Cobol en ChatGPT

La ponencia, o resumen de ponencia que me propongo compartir con ustedes, es “Inteligencia artificial: otro desafío para la filosofía de la técnica”.* En una de las charlas de ayer, Jorge Rasner mencionó a Michael Polanyi y el conocimiento tácito. Creo que el conocimiento tácito es uno de los estados de la actitud cognitiva que tenemos que tener para interactuar en el nivel que sea con la inteligencia artificial. Sea el usuario interesado pero no experto, sea el usuario de nivel experto. En cualquier caso creo que la actitud correcta es tomar en cuenta que no todo es codificable, no todo es protocolizable.

En esa misma actitud yo diría –y ya que traje esta camiseta con The Beatles–, que una  de las grandes cosas que tiene esa miniserie Get Back (2021) de Peter Jackson es que registra  muchísimas cosas de modo poco complaciente con el legendario grupo. Y nos permite ingresar en la creación desde los modos más rudimentarios. La propia canción “Get Back” comienza con un rasgueo de Paul en el bajo que parece que cualquier chico podría hacer en un asado. Hasta que tenemos el concierto en la azotea y ahí sentimos toda la presencia de Billy Preston, o los arreglos de George Martin.

Eso de registrar los elementos creativos en forma de espora, yo diría de las “pre canciones”, además de las canciones, creo que también es una actitud que por lo menos  en lo personal –y en amigos que he visto trabajar con IA– me ha dado mucho resultado. Es decir, apreciar el valor de los resultados iniciales o intermedios de un proceso.

Entonces, con este espíritu de Peter Jackson, sin ser beatle ni tener a George Martin entre nosotros, y con eso que mencionaba Jorge (Rasner) de estar pendientes de los elementos del conocimiento tácito, creo que podemos encontrar  la actitud que nos va a orientar bien en temas de IA.

Primera maniobra

Yo voy a informar de dos maniobras. No en el sentido de “maniobras financieras” sino en el sentido en que la palabra “maniobra” se utiliza a veces en medicina. Dos maniobras de IA en el nivel de usuario involucrado pero no experto: cualquiera de los que están presentes aquí pueden repetir lo que yo hice.

La primera maniobra, es el análisis con software de detección de plagio de 100 prompts de ChatGPT (OpenAI, 2023). Esos prompts corresponden a 30 sesiones realizadas entre febrero y diciembre de 2023. Al principio las sesiones trataban de distintos temas. Más adelante me di cuenta que era mejor trabajar sobre un mismo tema en cada sesión. En ese lapso interrogué a ChatGPT sobre asuntos tan dispares como disección aórtica, filosofía de la mente, plantas de celulosa en el mundo, consecuencias de la cirugía de tiroides, elementos de los análisis de orina, etcétera.

También pregunté a ChatGPT  si podía armar pruebas de opción múltiple sobre autores que creo conocer bien, como el caso de Bruno Latour. Y, por ejemplo, le pedí una prueba hecha en base a algunos libros de ese autor y los resultados fueron muy buenos, sin cometer los descuidos de diseño en que solemos incurrir los docentes. También le pedí el correspondiente código en Moodle y ChatGPT respondió en forma adecuada.

Repito: entre febrero y diciembre de 2023, seleccioné 30 sesiones de diálogo con ChatGPT, con unos de 100 prompts. Luego separé el material en archivos  y lo sometí a la revisión del software Compilatio Magister (2023), utilizado por la Universidad de la República. La configuración utilizada fue la misma que habitualmente usamos durante los chequeos de trabajos finales de seminarios, es decir, ya estaba validada por experiencias previas junto a otros colegas docentes.

En los 100 prompts evaluados durante este tiempo, solamente en un caso Compilatio detectó un posible plagio y se trató de un falso positivo. Porque identificó un fragmento de Wikipedia que yo había copiado e insertado en el diálogo con ChatGPT para intentar corregir los errores que dicha IA había cometido en respuesta a mis solicitudes.

Este abordaje tiene muchos costados. Por eso debo mencionar que algunas de mis inquietudes en parte emergieron en mi cercanía con el grupo AI Social Research (AISoRe).** Bajo ese influjo, y el de la presencia de los temas de IA en todas partes, es que se me ocurrieron estas iniciativas, quizás para contradecir o bien confirmar a mis colegas en esas reuniones del grupo AISoRe.

Decíamos que el único falso positivo del chequeo de ChatGPT mediante Compilatio fue el de un texto de Wikipedia insertado en mis diálogos con el software de IA. Esta tarea podrá ser continuada en el futuro con Turnitin (2023) o algún otro programa de detección de plagio, en el marco del trabajo del grupo AISoRe o bien en otros contextos que resulten adecuados.

Una de las variantes en el uso de software de detección de plagio es hacer cambios en la configuración, de modo de aumentar su sensibilidad. También hay que mencionar que Compilatio Magister ofrece opciones especiales para detección de textos generados por IA.

La segunda maniobra

Todo esto induce una serie de reflexiones, en especial educativas y éticas. En el caso en que ajustemos los parámetros de nuestro software de detección de plagio es posible que se identifique  un mayor número de textos sospechosos  junto a sus fuentes probables. La mala noticia es que se encuentran disponibles muchos programas que parafrasean los textos generados por IA (ChatGPT u otros) de modo de camuflar los distintos tipos de plagio. Esto es una carrera similar a aquella del día que se inventa la lanza y al día siguiente se inventa el escudo.

A mí todo esto me deja muy interesado pero no preocupado. Me lo planteo como un desafío. Frente a esta cosa tan kitsch de esperar un mundo apocalíptico, yo diría junto a Floridi: “Terminator is not coming” (Floridi, 2022, p. 208).

Por su parte, en el otro extremo, la perspectiva negativa del futuro la expresa Geoffrey Hinton, desarrollador de productos de IA en grandes multinacionales:

“Se pueden advertir tres peligros a corto plazo: la creación de contenido digital cuya veracidad será imposible de comprobar para el usuario promedio, el reemplazo de trabajadores en una amplia gama de oficios y que los sistemas de IA se conviertan un día en armas autónomas, especies de robots asesinos” (Hinton, 2023: p. 5)

La de Hinton es la otra punta del optimismo de Luciano Floridi y expresa la conciencia de la autonomía de los drones bélicos o de otros dispositivos, y el  impacto de la IA sobre un amplio abanico de oficios, tanto rutinarios como creativos. En cuanto al cambio de la noción de realidad, o de veracidad, parece ser profundo y el ciudadano común en general no dispone de suficientes herramientas para enfrentarlo. Y en realidad, las fake news, las técnicas deep fake, la confirmación de sesgos en redes sociales, son fenómenos que ya llevan mucho tiempo entre nosotros.

La segunda maniobra que había anunciado para compartir con ustedes, consiste en cotejar las respuestas de tres software de IA ante el pedido de comentario y resumen de un mismo artículo científico sobre uso de deep learning en paleontología: “Deep classification of cutmarks on bones from Arroyo del Vizcaíno (Uruguay)” de Domínguez-Rodrigo et alter (2021).

Ustedes saben que en el Arroyo del Vizcaíno (Sauce, Canelones) se encontró un lecho de huesos de megafauna. La datación de esos restos óseos es cercana a los 30 mil años y algunos de los huesos poseen marcas de cortes de posible origen humano.  Sin embargo, según las hipótesis  recentistas del poblamiento de América nadie debería estar haciendo un asado por estos lugares hace 30 mil años.

El grupo de investigadores responsable de ese artículo y de otros anteriores está participando en los debates académicos entre recentistas y remotistas respecto del poblamiento americano.

Dejo para futuras exploraciones los detalles del tipo de deep learning utilizado por Domínguez- Rodrigo et alter (2021). Lo que me interesa compartir hoy son los resultados de tres programas diferentes de IA ante mi pedido de procesar un mismo artículo científico. Se trata de Bard (Google), Claude 2 (Anthropic) y Lightpdf. 

Esos tres programas de IA, ¿cómo resumieron el artículo? ¿cómo lo comentaron?

Bard cometió por lo menos dos grandes tipos de errores ante el artículo de Domínguez- Rodrigo et alter (2021): mencionó cinco elementos de IA pero acertó solamente en dos casos (el uso de Python y de TensorFlow). En cuanto a la bibliografía, Bard consigna algunos títulos de artículos y autores inexistentes.

En cuanto a Claude 2, hizo un resumen adecuado, distinguiendo el uso de la técnica de deep learning del propósito para el cual se acudía a ella (indicar la pertinencia de la hipótesis remotista del poblamiento de América).

Finalmente, LightPdf hizo un excelente resumen, más extenso que el de Claude 2, con la virtud adicional de notas finales que permitían  identificar qué pasajes  del artículo procesado daban fundamento a cada tramo de la síntesis.

Entre los extremos un gólem

Las maniobras referidas me inducen  a confesar mi entusiasmo por las diferentes técnicas de IA, sin el cual no es posible interactuar con ellas durante largos períodos. Eso no conduce a negar las advertencias de Geoffrey Hinton sobre sus posibles impactos negativos, ni tampoco alcanzar los niveles de optimismo de Luciano Floridi.

Es cierto que el ánimo esperanzado de Floridi no obsta para que el mismo autor señale la IA como una cuarta revolución que cuestiona nuestra supuesta “excepcionalidad humana”:

“No estamos en el centro del Universo (Copérnico), de la biosfera (Darwin), del espacio mental (Freud), y ahora de la infosfera (Turing)” (Floridi, 2023, p. 208).

Pero lo esencial de Floridi es su elocuencia para mostrar el lado más luminoso de la IA:

“La IA es una tecnología asombrosa, una nueva forma de agencia que puede ser una fuerza poderosa para el bien de dos maneras principales. Puede ayudarnos a conocer, comprender y prever más y mejor los numerosos desafíos que se están volviendo tan apremiantes, especialmente el cambio climático, la injusticia social y la pobreza global (…) La IA también puede ser una fuerza extraordinaria para el bien, ayudándonos a mejorar el mundo y no solo nuestra interpretación del mismo” (Floridi, 2023, p. 202) .

Aclaro aquí que yo no soy un recién llegado en estos temas. El primer programa que corrí en una vieja computadora de la Facultad de Ingeniería, siendo estudiante de la carrera de Analista Programador, lo ingresé en tarjetas Hollerith (tarjetas perforadas). Pero sé que desapareció hace mucho el oficio de “perfoverificador”.

En 1986, hace 37 años, me presenté a una convocatoria de una empresa multinacional de tecnología y mi artículo “Cuatro falacias de la inteligencia artificial” fue seleccionado para publicar en la revista del Centro Latinoamericano para el Desarrollo de la Inteligencia (Courtoisie, 1986).

Más recientemente, he publicado varios textos que intentan articular un lenguaje de divulgación con nociones técnicas: “La IA supera a la ciencia ficción. Entrevista con Alfonso Alarcón (Universidad de Monterrey, México)” (Courtoisie, 2023 a), “IA-forismos” (Courtoisie, 2023 b), e “Inteligencia artificial, filosofía y mercado”, surgido de mi participación en el debate sobre IA y educación organizado por la ANEP (Courtoisie, 2023 c).

Desde ese lugar de no recién llegado es que le pedí a ChatGPT una subrutina con el fin de convertir un input de varias cifras en el mismo número pero escrito en letras. Yo había programado hacía décadas una subrutina similar probablemente en Cobol, cuando trabajaba en el Banco de Previsión Social. Desde ese lugar también, le pedí a ChatGPT el código en Moodle para facilitarme el diseño de una prueba de múltiple opción.

Pero lo que me parece relevante ahora está en otro nivel de análisis y refiere a qué postura adoptar frente a los dos extremos kitsch de la IA: el polo esperanzado y utópico, y el polo temeroso y distópico.

Creo que para ofrecer una posición equilibrada ante esa gruesa disyuntiva lo mejor es acudir al libro de Trevor Pinch y Harry Collins (1996): El gólem. Lo que todos deberíamos saber acerca de la ciencia. Al atender sus palabras, todo lo que ellos dicen sobre la ciencia, nosotros podríamos decirlo de la inteligencia artificial:

Según los autores:

“Parece que la ciencia es o buena o mala del todo. Para algunos, la ciencia es un caballero cruzado a quien acosan místicos de pocas luces mientras otras figuras, más siniestras, esperan, para fundar un nuevo fascismo tras la victoria de la ignorancia. Para otros, la ciencia es el enemigo; nuestro dulce planeta, nuestro sentimiento de lo justo, lo poético y lo bello están siendo atacados por una burocracia tecnológica —la antítesis de la cultura— controlada por capitalistas a quienes no preocupa otra cosa que el beneficio”.

“Para algunos, la ciencia nos da una agricultura autosuficiente, remedios para los inválidos y una red global de comunicaciones; según otros, armas de guerra, la muerte terrible de una maestra al caer el transbordador espacial, y el veneno de Chernobil, que cala hasta la médula de los huesos callada y ladinamente”.

“Estas dos ideas de la ciencia son erróneas y peligrosas. La personalidad de la ciencia no es ni la de un noble caballero ni la de un ogro despiadado. ¿Qué es, pues, la ciencia? La ciencia es un gólem”.

“Un gólem es una criatura de la mitología judía. Es un humanoide hecho por el hombre de arcilla y agua con ensalmos y conjuros. Es poderoso. Cada día lo es un poco más. Obedecerá órdenes, hará tu trabajo y te protegerá del enemigo, siempre amenazante. Pero es torpe y peligroso. Si no se le controlase, un gólem mataría a sus dueños con su aplastante vigor” (Collins y Pinch, 1996, p. 7).

Con ese mismo enfoque podemos decir que la inteligencia artificial es un gólem. La propia expresión “IA” cubre demasiadas cosas diferentes para reducirla a un conjunto de amenazas o de esperanzas, según los las inclinaciones de cada uno. Depende de lo que hagamos con ella. ¿Nos puede matar? Sí, si no incorporamos la ética en el núcleo de su diseño. Por si fuera poco, además, la IA depende de razones de mercado, de grupos de intereses.

La IA es un gólem: no es ni la panacea universal,  ni tampoco Terminator que viene a destruirnos. Creo que la perspectiva teórica más pertinente acerca de la IA podría surgir de las miradas del análisis sociotécnico, en especial el relacionado con investigadores de la Universidad Nacional de Quilmes (Argentina).

En un artículo de Gabriela Bortz y Hernán Thomas, por ejemplo, inspirándose en Bijker, se afirma algo que comparto:

“Partimos desde una posición que sostiene que las sociedades son tecnológicamente construidas, así como las tecnologías son socialmente configuradas. Y nosotros, seres humanos, y nuestras sociedades, somos y hacemos lo que nuestras tecnologías, creadas por nosotros, nos permiten ser y hacer” (Parente et alter, 2022, p. 41).

Todas mis reflexiones de hoy se ubican en una filosofía de la técnica, insinuada desde el título de esta ponencia para el Coloquio Bertrand Russell 2023. El análisis sociotécnico en particular y el campo de los estudios en Ciencia, Tecnología y Sociedad (CTS) ofrecen herramientas conceptuales muy fuertes para entender la IA. Incluso si esos estudios albergan componentes contradictorios, que van desde los aportes de Bruno Latour hasta las duras críticas de David Bloor (1999) en un artículo titulado “Anti-Latour”.

No importa que dentro del campo CTS existan diferentes interpretaciones de la teoría del actor-red (que debería llamarse “actante-red”) o de la fecunda noción de “agencia de los objetos” y de los peculiares nexos de elementos humanos y no humanos. Sin necesidad de llegar a atribuir voluntades o almas a los objetos, pensar los impactos de origen no humano como una suerte de “agencia” puede ser muy útil para enfrentar las consecuencias no previstas de entidades tan disímiles como normas jurídicas o materiales de construcción.

Ocurre que la mirada sociotécnica ofrece elementos de nivel teórico, incluso especulativo, sin perder jamás su cercanía de las experiencias humanas situadas (en laboratorios, en fábricas, en la construcción de cualquier dispositivo, en las redes sociales, en las instituciones educativas, en las alianzas y las pujas entre grupos sociales relevantes, etcétera). Esa heterogeneidad es la que le da su riqueza a la filosofía de la técnica pensada en clave sociotécnica.

Es también la metáfora del gólem y sus dinámicas alternativas una manera fecunda de considerar la inteligencia artificial. Es algo que en parte depende de nosotros, de qué vamos a hacer nosotros con la inteligencia artificial y qué va a hacer ella luego con nosotros.


NOTAS

* Este texto sintetiza una ponencia realizada en el marco del VII Seminario Bertrand Russell y el IV Coloquio de Filosofía e Historia de la Ciencia del 11 al 15 de diciembre de 2023. El Coloquio tuvo lugar en la Sociedad Argentina de Análisis Filosófico (SADAF) en Argentina y en la Facultad de Información y Comunicación de la Universidad de la República en Uruguay. Después de culminada mi exposición vinieron las preguntas de varios colegas: Ada Czerwonogora, Miguel Fuentes, Leandro Giri, Hernán Miguel y Jorge Rasner. Agradezco sus intervenciones que ameritan un futuro artículo.

** El grupo AI Social Research (AISoRe) fue impulsado inicialmente por Soledad Caballero (FIC Udelar) y Glenn Muschert (Khalifa University, Abu Dabi, Emiratos Árabes Unidos). Además de quien suscribe, AISoRe está integrado por Gaby David, Jimena Brusa, Victoria Martínez y Joaquín Trinidad. Han participado también Ignacio Marrero y Nadia Molea.


REFERENCIAS

Bard (2023). https://bard.google.com/?hl=es

Bloor, David (1999). “Anti-Latour”. En Studies in History and Philosophy of Science, Part A Volume 30, Issue 1, March 1999, pages 81-112. https://doi.org/10.1016/S0039-3681(98)00038-7

Claude 2 (2023). https://www.anthropic.com/index/claude-2

Compilatio (2023). https://www.compilatio.net/  [Versión Compilatio Magister]

Collins, Harry y Pinch, Trevor (1996). El gólem. Lo que todos deberíamos saber acerca de la ciencia. Barcelona: Crítica. Fecha original de publicación: 1993.

Courtoisie, Agustín (1986). “Cuatro falacias de la inteligencia artificial”. En Revista de CELADI, Nº 25, julio-agosto 1986, p. 30 y ss. El artículo fue reproducido luego en Courtoisie, Agustìn (2010), A ciencia cierta. Una historia reciente de lo que se sabe, Montevideo:  Ministerio de RREE, Consejo de Educación Técnico Profesional – UTU, con el auspicio de SUAT, Universidad ORT Uruguay y Casa de Galicia, pp. 222-235.

Courtoisie, Agustín (2023a). “La IA supera a la ciencia ficción. Entrevista con Alfonso Alarcón (UDEM, México)”. En Mediomundo.uy (9/08/2023). https://mediomundo.uy/contenido/6051/la-ia-supera-la-ciencia-ficcion

Courtoisie, Agustín (2023b). “IA-forismos”. En Mediomundo.uy (19/08/2023).
https://mediomundo.uy/contenido/6069/ia-forismos

Courtoisie, Agustín (2023c). “Inteligencia artificial, filosofía y mercado”. En Mediomundo.uy (5/09/2023). https://mediomundo.uy/contenido/6081/inteligenciia-artificial-filosofia-y-mercado

Domínguez-Rodrigo M., Baquedano E., Varela L., Tambusso PS., Melián MJ., Fariña RA. (2021) “Deep classification of cutmarks on bones from Arroyo del Vizcaíno (Uruguay)”. Proc. R. Soc. B 288: 20210711. https://doi.org/10.1098/rspb.2021.0711

Floridi, Luciano (2023). The Ethics of Artificial Intelligence. Principles, Challenges, and Opportunities. United Kingdom: Oxford University Press.

Hinton, Geoffrey (2023). “¿Serán más inteligentes?”. En Relaciones Nro. 469, junio 2023. Montevideo.

LightPDF (2023). https://lightpdf.com/

OpenAI (2023). https://openai.com/  [Versión 3.5]

Parente, Diego; Berti, Agustín; Celis, Claudio (coords). Glosario de Filosofía de la Técnica. Adrogué: Ediciones La Cebra, 2022.

Turnitin (2023). https://latam.turnitin.com/

Te puede interesar