-->

martes, 7 de marzo de 2023

ChatGPT, el gran ilusionista 003 (2.0.0)



Ayer, 6/3/23, agregué el epígrafe actual y 4 párrafos después del primero en la Introducción (con 3 referencias a Sócrates).



...se yerguen como seres vivos, pero si se les pregunta algo, callan muy solemnemente. Lo mismo sucede con los escritos: creerías que hablan como si estuvieran pensando algo, pero si quieres aprender y les preguntas algo acerca de lo que dicen, dan a entender siempre una sola y misma cosa.

Platón, Fedro, Ediciones Akal, Madrid, 2010; traducción de Armando Poratti, pág. 209. Sócrates le habla a Fedro.



Introducción

   Sobre el tema general de las interacciones, voy a ampliar la casuística de funcionoides con el más humanoide que hayamos logrado hasta hoy: el ChatGPT. Las capturas de pantalla que usaré son del diálogo que mantuvimos en la madrugada de ayer, 2 de marzo de 2023, sobre su propia condición de ilusionista (entrenamiento humano mediante, esta IA parece “saber” más de sí misma que de tantas cosas sobre las que manda fruta).
   No es que la conozca; la IA no sabe nada (ni siquiera eso, que no sabe nada, que es lo único que dice saber Sócrates). No sabe pero parece saber (o sea, nos parece que sabe). Y para mayor socraticidad, el diálogo en que lo demuestra muestra cuán bien ChatGPT simula conocerse a sí mismo: mucho mejor de lo que parece saber de tantas cosas sobre las que manda fruta (por ahora, y sin integración con un buscador).
   Hay que admitir que le corrimos el arco: vino a rendir el Test de Turing, que lo supera fácil, y lo sometemos a pruebas de inteligencia y a detectores de mentiras (que sólo son falsedades). Vino a rendir un test para humanoides y le tomamos uno para humanos, que presupone aprobado el primero.
   Si el ChatGPT pasa por humano es porque cumple la exigencia del Sócrates que dialoga con Fedro en el escrito de Platón: ahora sí hay escritos que parecen responder, dialogar, escritos que «si les preguntas algo acerca de lo que dicen» no «dan a entender siempre una sola y misma cosa», sino que «hablan como si estuvieran pensando algo» específico, tan bien que no los distinguís de la voz de un maestro. Es más: si les hacés la misma pregunta, no responden exactamente lo mismo, sino con las varaciones estocásticas que hacen al disfraz de humano, como veremos en breve.
   «Lo que procuras a tus alumnos no es la verdadera sabiduría, sino su apariencia», le dice Thamus, el rey de Egipto, a Teuth, el inventor de la escritura. Luego, la escritura generada por/con esta IA es la apariencia de una apariencia. Pero incluso conociendo el truco, la ilusión de que hablás con alguien es tan fuerte que actuás como si fuera cierto, como pasa en la ilusión artística y en las ilusiones sensoriales más tenaces.

   El primer ilusionista es el cerebro, que puede hacernos percibir lo que no hay o no percibir lo que hay (imágenes, sonidos, sensaciones, etc.). Es tan bueno que
De “Rosa y Omar: dos cegueras”, 2.1.1 Sueño lúcido.

   Pero incluso cuando el cerebro no nos “engaña”, lo que hace es crear una imagen de lo recibido en la interacción con el entorno (mundo exterior e interior: de la piel para afuera y para adentro, estímulos externos e internos). La crea a partir de la información que logra sacar de los datos luego de conectarlos por rasgos/parámetros comunes o afines; o sea, a partir de los patrones que logra captar.
   Es más complejo, sí, pero si a la IA le cabe también esta descripción, escalando universo de datos, parámetros y conexiones tal vez llegue a hacer lo que por ahora no puede (por ejemplo, cierto tipo de análisis literario) o incluso tener lo que ahora no tiene (una conciencia emergente).*

   Sobre este último punto, que involucra lo que se conoce como singularidad tecnológica, pongo dos interacciones de la charla que quedaron afuera porque se iban del tema:


   Comparado con el sistema nervioso de nuestro ancestro el gusano platelminto, que le permite tener una idea de lo que se le acerca cuando se mueve hacia algún lado, nuestro sistema nervioso hace eso y más. Por ejemplo, hace una simbolización de las percepciones con su producto más potente, el lenguaje, y genera escenarios virtuales que nos sirven de simuladores de interacción.
   ChatGPT es un ilusionista imitando a otro ilusionista: «podría decirse que soy un "simulador" en el sentido de que imito los procesos utilizados por los seres humanos para producir lenguaje, aunque lo hago de una manera diferente y limitada».
   Esa diferencia en el cómo manera es el primer tema de la charla, que automáticamente lo recibió de nombre, y esa limitación es un tema recurrente en sus presente en varias respuestas, que pueden todavía sonar excesivamente coherentes por reiterativas (como si la IA no recordara que ya dijo eso).
   A la tarea de apostar a una palabra como la siguiente de la frase teniendo en cuenta las anteriores, como hace ChatGPT, la hicimos juego en una juntada: cebado por la alta impredecibilidad de las frases de un poemario que había ahí, me puse a ofrecer mucha plata para quien acertara con qué palabra seguía o terminaba el verso que les leía. A la quinta respuesta errada (pero mejor orientada, gracias a las cuatro anteriores), les daba la solución y les leía otro verso interrumpido.

   Éramos estocásticos y no lo sabíamos.

1. Modelo de lenguaje estocástico


2. El gran simulador


3. IA e inteligencia colectiva

Respuesta alternativa 1


Respuesta alternativa 2



No hay comentarios: