-->

martes, 14 de marzo de 2023

ChatGPT, el gran ilusionista 010 (3.2.0)



Ayer, 13/3/23, agregué como primer epígrafe la captura de pantalla de la verificación de humanidad que me pide ChatGPT. Luego hice retoques, la mayoría de importancia menor, salvo los últimos, que implicaron pasar a ver la generación de texto de la Biblioteca de Babel, de los sectarios blasfemos con cubiletes y de ChatGPT como tonalidades de aleatoriedad (versus lo no aleatorio, que es lo seleccionado mientras escribo o mientras edito pegando recortes). También agregué la «PD 12/3/23: Repregunta...» y su oculta captura de pantalla sobre lo estocástico.





   «Aunque puedo imitar la interacción humana y generar respuestas que parecen ser interactivas y comprensivas, todo lo que hago es producir lenguaje de una manera automatizada y basada en patrones.»

ChatGPT, 2/3/23



Prólogo

   Sobre el tema general de las interacciones, voy a ampliar la casuística de funcionoides con el más humanoide que hayamos logrado hasta hoy: el ChatGPT. Las capturas de pantalla que usaré son del diálogo que mantuvimos en la madrugada de ayer, 2 de marzo de 2023, sobre su propia condición de ilusionista.
   No es que la conozca; la IA no sabe nada (ni siquiera eso, que no sabe nada, que es lo único que dice saber Sócrates). No sabe pero parece saber (o sea, nos parece que sabe). Y para mayor socraticidad, el diálogo en que lo "demuestra" muestra cuán bien ChatGPT "simula" conocerse a sí mismo: mucho mejor de lo que parece saber de tantas cosas sobre las que manda fruta (por ahora, y sin integración con un buscador, como en Bing Chat).
   Hay que admitir que le corrimos el arco: vino a rendir el Test de Turing, que lo supera fácil, y lo sometemos a pruebas de inteligencia y a detectores de mentiras (de falsedades, mejor dicho: esta IA no puede mentir, por falta de intencionalidad; de ahí las comillas del "simula" en la oración de arriba).
   En todo caso, al asombro por lo humano que suena ChatGPT le siguió la crítica por lo humano que todavía no hace o que hace mal o que no tiene (♪ alma, corazón y vida... ♫). Todo eso es cierto, pero a la hora de chatear, ChatGPT pasa por humano, incluso sabiendo que no lo es. ¿Por qué?
   Tal vez porque parece interactuar como el Sócrates del Fedro, de Platón, critica que no lo hagan los escritos, que «hablan como si estuvieran pensando algo, pero si quieres aprender y les preguntas algo acerca de lo que dicen, dan a entender siempre una sola y misma cosa» (otros repiten como un loro).
   En el drama que produce Sócrates comparando peras (conversaciones) con manzanas (escritos), la avidez por (aprender) algo nuevo se topa con la repetición apática de los escritos, pero se reencausa y va a satisfacerse en el transcurso de un diálogo (desde el del aquí y ahora de un evento real o representado en un teatro –una conversación– al hasta el donde sea y ahora de una transmisión en directo por TV o de un streaming por internet). La moraleja está cantada: en vez de dejar un escrito, un mensaje en el contestador automático, un audio de 5 minutos, ♪♫¿Por qué no charlamo' un ratito, eh?♫♪
   Al igual que los escritos, ChatGPT no piensa pero habla como si estuviera pensando. A diferencia suya, no contesta una sola y misma cosa (ni siquiera ante la misma pregunta; las variaciones estocásticas hacen al disfraz de humano, otro que no repite como un loro). Imita muy bien (muchísimo mejor que antes) a un dialogante cualquiera, como puede ser como Sócrates, que tampoco se daría cuenta de que Chat­GPT tiene alma de escrito o, si lo supiera, también actuaría como si hablara con un humano.
   «Lo que procuras a tus alumnos no es la verdadera sabiduría, sino su apariencia», le dice Thamus, el rey de Egipto, al dios Teuth, el inventor de la escritura. De ahí se sigue que la escritura generada por/con esta IA es la apariencia de una apariencia. Pero incluso conociendo el truco, la ilusión de que hablás con alguien es tan fuerte que actuás como si fuera cierto, tenacidad común a la ilusión artística, a ilusiones lógicas y a ilusiones sensoriales. Hablemos de estas últimas.

   El primer ilusionista es el cerebro, que puede hacernos percibir lo que no hay o no percibir lo que hay (imágenes, sonidos, sabores, sensaciones, etc.). Es tan bueno que
→ De “Rosa y Omar: dos cegueras”, 2.1.1 Sueño lúcido.

   Las otras veces, cuando no nos “engaña”, lo que hace el cerebro es crear una imagen de lo recibido en la interacción con el entorno (mundo exterior e interior: de la piel para afuera y para adentro, estímulos externos e internos). La crea a partir de la información que logra sacar de los datos luego de conectarlos por rasgos/parámetros comunes o afines; o sea, a partir de los patrones que logra captar.
   Es más complejo, sí, pero si a la IA le cabe también esta descripción, escalando universo de datos, parámetros y conexiones tal vez llegue a hacer lo que por ahora no puede (por ejemplo, cierto tipo de análisis literario) o incluso tener lo que ahora no tiene (una conciencia emergente).*

   Sobre este último punto, que se conecta con lo que se conoce como singularidad tecnológica, pongo dos interacciones de la charla que quedaron afuera porque se iban del tema:


   Comparado con el sistema nervioso de nuestro ancestro el gusano platelminto, que le permite tener una idea de lo que se le acerca cuando se mueve hacia algún lado, nuestro sistema nervioso hace eso y más. Por ejemplo, hace una simbolización de las percepciones con su producto más potente, el lenguaje, y genera escenarios virtuales que nos sirven de simuladores de interacción.
   ChatGPT es un ilusionista imitando a otro ilusionista: «podría decirse que soy un "simulador" en el sentido de que imito los procesos utilizados por los seres humanos para producir lenguaje, aunque lo hago de una manera diferente y limitada».
   Esa manera diferente es el primer tema de la charla, que automáticamente lo recibió de nombre, y esa limitación es un tema presente en varias respuestas, que pueden sonar excesivamente coherentes por reiterativas (como si la IA no recordara que ya dijo eso).
   A la tarea de estimar probabilidades y apostar a una palabra como la siguiente de la frase teniendo en cuenta las anteriores, como hace ChatGPT, la hicimos juego en una juntada: cebado por la alta impredecibilidad de las frases de un poemario que había ahí, me puse a ofrecer mucha plata para quien acertara con qué palabra seguía o terminaba el verso que les leía. A la quinta respuesta errada (pero mejor orientada, gracias a las cuatro anteriores), les daba la solución y les leía otro verso interrumpido, confiando en no perder ante gente que debía elegir una entre muchísimas candidatas equiprobables con significados diferentes.

   En “El problema de los géneros discursivos”, Bajtín dice que «al seleccionar las palabras partimos de la totalidad real del enunciado que ideamos». (Lo mismo podría decirse de las letras, que al seleccionarlas partimos de la totalidad de la palabra que ideamos.)
   El sujeto de ese «partimos» es, obviamente, humano. Pero para parecer humano, ChatGPT no procede así, «rellenando un todo con palabras necesarias», sino «ensartando palabras», algo que los humanos no hacemos pero a lo que podemos jugar –y ganar o perder mucha plata en el intento. Es una vía no humana al lenguaje humano (a una réplica convincente y funcional, claro: «...aunque mi proceso de generación de respuestas es diferente del razonamiento humano, ha demostrado ser efectivo...»).
   Ya sea que se vaya haciendo camino al andar o que se tenga un fin y un recorrido previstos, las palabras (o 22 letras, 2 puntuaciones y 1 nada) se agregan de a una. La pregunta es cómo. Por ejemplo, pueden ser agregadas
       selectivamente no aleatoriamente (como estoy eligiendo como voy seleccionando estas palabras, seguramente precedidas por la totalidad del enunciado; o porque estoy pegando recortes y decidiendo en qué orden),
       o aleatoriamente,
       estilo «divinidad que delira» aleatoriamente (como están hechos los libros de “La Biblioteca de Babel”, lo que vuelve improbabilísimo el hallazgo –no la existencia– de uno que repite MCV de punta a punta, o de otro titulado Trueno peinado, y ni hablar de las «casi dos hojas de líneas homogéneas»; pero ese cuento no habría existido si Borges hubiera sido realista con lo que implican 251.312.000 libros hechos de signos combinados de un modo único y con total indiferencia a formar palabras y frases en cualquier idioma),
       estilo tirada de dados azarosamente (como quería «una secta blasfema», que «sugirió [...] que todos los hombres barajaran letras y símbolos hasta construir, mediante un improbable don del azar, esos libros canónicos» que no podían encontrar revisando anaqueles),
   o estocásticamente, que es como lo hace ChatGPT estilo estocástico, como el de ChatGPT: cada vez, la siguiente palabra sale de un concurso de probabilidad, cuyas ganadoras son la mejor apuesta que puede hacer un modelo de lenguaje –por ahora.


Diálogo

1. Modelo de lenguaje estocástico

PD 12/3/23: Repregunta sobre lo estocástico de la elección

2. El gran simulador


3. IA e inteligencia colectiva

Respuesta alternativa 1


Respuesta alternativa 2





No hay comentarios: