Hero Image

UDD en la Prensa

Convivencia artificial

 Daniel Fernández
Daniel Fernández Profesor Facultad de Ingeniería

Del reciente encuentro GeneXus30 —uno de los foros de plataformas y aplicaciones de inteligencia artificial (IA) más importantes de Latinoamérica— en el que me tocó participar, algunos tips:

1. La denominación “inteligencia artificial” es confusa: estos sistemas no son “inteligentes” en el sentido en que lo somos los humanos, y “artificiales” es una definición muy etérea. Al ser construidos por humanos (seres autopoiéticos) son sistemas heteropoiéticos, y puesto que evolucionan en el tiempo, son dinámicos: son sistemas heteropoiéticos dinámicos (SHD), una definición más precisa.

2. El estado emocional de un equipo define un dominio de posibilidades de acción (Humberto Maturana): emociones positivas amplían el dominio; negativas lo cierran. Los SHD pueden narrar emociones sin sentirlas, pero aun así logran cambiar los dominios emocionales de los humanos en la interacción. Aprender a gestionar el estado emocional de la organización en este contexto permite ganar productividad a gran escala.

3. No “convivimos” con los SHD, “interactuamos” con ellos, en un proceso de aprendizaje “enactivo” (Francisco Varela). El lenguaje y la emoción conforman un dominio de convivencia exclusivo de los humanos.

4. ChatGPT y otros sistemas generativos no emplean lenguaje; intercambian textos que elaboran de un modo probabilístico y determinístico, mediante algoritmos que usan datos del pasado (Eric Sadin). Nuestra dinámica del lenguaje ocurre en tiempo presente y en un constante devenir, es indeterminística y conlleva emocionalidad.

5. Los SHD generativos son básicos: elaboran textos secuencialmente, palabra tras palabra, buscando la que “debe seguir” según su mayor probabilidad de ocurrencia, a partir de una base de datos.

No “piensan” ni “son inteligentes”, ni “crean” ni “lenguajean” como lo hacemos los humanos.

6. El equipo de GeneXus sometió a ChatGPT a una serie de preguntas y contrapreguntas, mostrando cómo este sistema generativo “ficciona” cuando no tiene información suficiente sobre algo. Esto es natural: ha sido alimentado con la literatura histórica de la humanidad, llena de ficciones, que ChatGPT “digirió” y a la que ahora recurre.

7. Más allá aún: demostraron que ChatGPT “miente” —es decir, desecha información válida y recurre a otra— cuando se le somete a estrés al cuestionar, mediante nuevas preguntas, la coherencia de sus respuestas anteriores.

La aproximación cognitiva, emocional y cultural de las organizaciones al aprendizaje de los mitos y realidades sobre los SHD generativos es fundamental para aprovechar equilibradamente su real potencial, en actuar con ellos productivamente en el respeto de la emocionalidad de las personas y mitigar los riesgos de una implementación inadecuada.