-->
Mostrando entradas con la etiqueta Sustituciones. Mostrar todas las entradas
Mostrando entradas con la etiqueta Sustituciones. Mostrar todas las entradas

viernes, 22 de septiembre de 2023

Entusiasmos XV 033 (9.2.1)




Ayer, 21/9/23, además de algunos retoques, eliminaciones y sustituciones, agregué 3 párrafos en el final del ensayo y reubiqué otros 3.



[...]

   La lógica de los androides está lejos de la proporción más funcional de rigidez y flexibilidad, como la que debe tener la aleación de bronce y hierro cobre y estaño de las campanas de bronce (o la de colágeno y calcio de los huesos) para que no se quiebren fácilmente. O como «el equilibrio entre exactitud y errores en la reproducción» de nuestro ADN: «Si hay demasiados errores, el organismo no puede funcionar; pero si hay demasiado pocos, lo que se sacrifica es la capacidad de adaptación» (Bill Bryson, Una breve historia de casi todo, Del Nuevo Extremo, Buenos Aires, 2007). El mismo sacrificio hacen los hiperlógicos androides y Spock. La primera escena del episodio termina con una discusión sobre esas proporciones:


   No soy quién para criticar la puntería que tuvo con Norman el detector de otredades McCoy, a pesar de que apuntó guiado por argumentos que “tienen muy graves defectos de orden lógico”. Puede parecer que también hizo un Homero, pero McCoy respondería que “para evaluar a un hombre no basta la lógica”: hace falta también la impresión, la intuición, la simpatía, la sensación o como gustes llamar al otro ingrediente –el no racional– de la aleación humana, del que carecen los no humanos androides y vulcanianos, a diferencia de los no humanos animales.
   Sin querer (pero dándose cuenta al terminar), McCoy describe la sociabilidad de Spock describiendo la del sospechoso Norman. Más adelante, a los 14'01'', el emperador Mudd los igualará por la manera de hablar: “Spock, será feliz; aquí todos hablan a su estilo”. Y como ya vimos, en el contrapunto cercano al final del episodio, a los 44'15'', McCoy igualará explícitamente a Spock con los androides por sus a los androides con Spock porque tienen “mentes muy parecidas a la suya: lógicas, sin emoción, por completo pragmáticas”.
   La completitud lógica y la ausencia de emoción se implican recíprocamente; el 0% de una es el 100% de la otra: “de esa emoción humana no tengo el más mínimo conocimiento”, le responde Spock cuando McCoy lo supone triste por tener que partir, ya que “volverá a verse en medio de los ilógicos seres humanos”.
   La completitud lógico-pragmática implica la ausencia de emoción; el 100% de una es el 0% de la otra: “de esa emoción humana no tengo el más mínimo conocimiento”, le responde Spock cuando McCoy lo supone triste por tener que dejar el planeta de los seres lógicos, ya que en el Enterprise “volverá a verse en medio de los ilógicos seres humanos”.
   Otro ingrediente de la aleación humana presente en no humanos animales y ausente en no humanos artificiales es la sensibilidad sexual. A Spock se lo caracteriza también con esta otra ausencia, que si no es subsidiaria es complementaria de la de emoción. Recordemos el diálogo entre él y Mudd después de la presentación de las 500 Alicias:
Spock --Quinientas del mismo modelo. Me parece bastante extraño.
Mudd -Tengo especial predilección por este modelo en particular, señor Spock, que usted... por desgracia, no está preparado para apreciar.
   A mis 15 ya estaba preparado para apreciar la predilección de Mudd. Algo así no pudo haberle pasado a sus 15 a Spock ni a ninguno de los 207.807 androides. No les queda espacio en su identidad para esa apreciación. En una identidad, 100% puede haber de una sola cosa (de razón o logicidad, en los casos vulcanianos y artificiales); 0% puede haber de más de una, como en estos casos un 0% de emoción y un 0% de sensibilidad sexual (decirle sexoafectiva la humanizaría más, o sea, la separaría más de lo animal, un reino que con sexual está más cómodo).
   Cuando Norman da el fundamento para no permitirles a los humanos viajar por la galaxia y para imponerles su ayuda (“Su especie es autodestructiva, y por eso necesita nuestra ayuda”), Kirk le contesta: “Fallamos por ser humanos; es posible que esa palabra nos defina mejor”. No me queda claro cuál es “esa palabra”. Si es “humano”, es tautológico; si es “fallamos”, no: sería una variante de Errar es humano (parece la premisa mayor de un silogismo que tiene por conclusión Tusam es humano).
   A mis 15 ya estaba preparado para apreciar la predilección de Mudd. Algo así no pudo haberle pasado a sus 15 a Spock ni a ninguno de los 207.807 androides.
   Pero tal vez lo que nos defina mejor no sea fallar, sino lo que usamos al fallar, que incluye sensibilidades emocionales y sexuales que son imitables pero inexperimentables para los androides imaginados en 1967 y para las IA del 2023. No cualquier forma de fallar es humana; fallar no humanamente te delata más que no sangrar o no poder doblar el meñique.
Cuando Norman da el fundamento para no permitirles...
   Siguiendo al filósofo de La Colifata, si lo lógico –que incluye lo racional y lo razonante– tiene su porcentaje y lo razonable tiene el suyo porque son ingredientes distintos de la aleación, con 100% del primero, que es la lógica del sentido, sólo puede haber 0% del segundo, que es el sentido común, cuya (ausencia por) pérdida es para Garcés la locura.
Pero tal vez lo que nos defina mejor no sea fallar, sino lo que usamos al fallar...
   Los androides nunca tuvieron el sentido común que los locos perdieron. Es una carencia de origen que siempre procuran que no se note, aunque no siempre lo logren. No siempre lo racional y lo razonante, incluso al 100%, pueden disimular la falta de lo razonable, o sea, la locura, la insensatez o la estupidez. Las tres son malos desempeños en la interacción con el mundo, jugadas ruinosas en el juego social.
   En la primera escena del episodio, McCoy justifica su primera impresión sobre Norman, que está a bordo hace sólo 72 horas, por lo que considera tres anomalías sociales, tres exclusiones (sonrisa, temas personales, pasado) que le caben también a Spock: “Algo malo debe haber en un hombre que jamás sonríe, que conversa exclusivamente sobre temas del trabajo y que no habla sobre su pasado”.
   En algunos casos, ChatGPT Algo similar podría decirse de ChatGPT, que a veces tiene una estupidez inhumana; comete ciertos errores que ningún humano cometería (como un estudiante inicial de una lengua extranjera comete ciertos algunos errores que ningún hablante nativo cometería). Pero esos errores no se deben a la falta de una sensibilidad para las emociones o para la sexualidad, como pueden podrían deberse los de Spock y los de androides. Más bien parecen errores por falta de sentido común. O en todo caso: un humano que cometiera esos errores sufriría una falta grave de sentido común.

martes, 18 de abril de 2023

El gran ilusionista (ChatGPT, Borges y 3 más) 033 (12.0.1)



Ayer, 17/4/23, reformulé el 4º párrafo de la sección 2 del Prólogo y agregué un paréntesis (el cerebro como detector de probabilidades altas, citado del episodio "El lenguaje" de la serie El cerebro y yo) en el final del último párrafo de la sección 3 y del Prólogo. Transcribo las dos zonas con cambios:



   Comparado con el sistema nervioso de nuestro ancestro el gusano platelminto, que le permite tener una idea de lo que se le acerca cuando se mueve hacia algún lado, nuestro sistema nervioso hace eso y más. Por ejemplo, Por ejemplo, hace una simbolización de las percepciones con su producto más potente, el lenguaje, y genera escenarios virtuales que nos sirven de simuladores de interacción posibilita que emerja una conciencia que produzca un juego de signos, el lenguaje, que es un modelo de mundo como Chat­GPT es un modelo de lenguaje o un mapa es un modelo de territorio (no un territorio, no un lenguaje, no un mundo). El lenguaje genera escenarios virtuales que usamos nos sirven de simuladores de interacción; vivimos entrenándonos.
   ChatGPT es un ilusionista imitando a otro ilusionista. Más precisamente, es como un mago que replica algunos shows números de otro mago pero usando trucos propios: «podría decirse que soy un "simulador" en el sentido de que imito los procesos utilizados por los seres humanos para producir lenguaje, aunque lo hago de una manera diferente y limitada».
·
·
·
   Hay una vía no humana al lenguaje humano, o más bien a una réplica convincente y funcional: «aunque mi proceso de generación de respuestas es diferente del razonamiento humano, ha demostrado ser efectivo». Hablemos de esa diferencia.
   Ya sea que se vaya haciendo camino al andar («ensartando palabras») o que se tenga un fin y un recorrido previstos («rellenando un todo con palabras necesarias»), las unidades se agregan de a una. La pregunta es cómo. Por ejemplo, pueden ser agregadas
       no aleatoriamente (como voy seleccionando estas palabras, seguramente precedidas por la totalidad del enunciado; o porque estoy pegando recortes y decidiendo en qué orden),
       o aleatoriamente,
         estilo «divinidad que delira» (interpretación antropomórfica de los resultados de «variaciones con repetición ilimitada» de 25 signos en “La Biblioteca de Babel”),
         estilo tirada de dados (como quería «una secta blasfema», que «sugirió [...] que todos los hombres barajaran letras y símbolos hasta construir, mediante un improbable don del azar, esos libros canónicos» que no podían encontrar revisando anaqueles),
         o estilo loro estocástico pero estadístico y probabilístico, como el de Chat­GPT: cada vez, la respuesta entera o la palabra siguiente salen de un concurso de probabilidad probabilidades estadísticas, cuyas ganadoras son la mejor apuesta que puede hacer un modelo de lenguaje en un diálogo (el cerebro también es un “detector de probabilidades de que ocurran las palabras”).


Diálogo
·
·
·

viernes, 31 de marzo de 2023

El gran ilusionista (ChatGPT, Borges y 3 más) 026 (11.1.2)



Ayer, 30/3/23, le hice algunos cambios menores al ensayo, en la parte del Epílogo. Transcribo de nuevo sólo la zona donde hay cambios:



   El arte no prescinde de patrones y principios económicos: los necesita para transgredirlos, así como la vida cotidiana o prosaica los necesita para seguirlos y ahorrar recursos limitados. Fuera del arte y su despilfarro derroche programático, «el alma trata de realizar el proceso de percepción [...] con el menor gasto de esfuerzo». Para lograrlo, necesita identificar patrones y estructuras en lo percibido, igual que el desalmado ChatGPT, que en aquel diálogo ya me había hablado de esa necesidad y dependencia:.
   Y eso es lo mismo que necesita hacer el desalmado Chat­GPT en el dataset de su entrenamiento. De cuánto lo logre depende cuán humanas nos resulten las respuestas que genera. En el Diálogo ya me había hablado de esa necesidad y esa dependencia:

«En ese sentido,

mi capacidad para
producir resultados similares a los producidos por seres humanos

se basa en

mi capacidad para
identificar patrones y es­tructuras en los datos que se me presentan
y
generar lenguaje que si­gue esas estructuras y pa­trones.»

   Si esos patrones y estructuras no existieran en el lenguaje y en su uso, ni ChatGPT lograría parecérsenos ni nosotros seríamos los mismos. Veamos algunos escenarios sin repeticiones y regularidades.
   El desarrollo decimal de un número irracional, como π (3,141592653...), no tiene patrones: nunca entra en loop. Su infinitud no es periódica, como es la de la Biblioteca de Babel (cada 251.312.000 libros, que hacen el período más largo que conozco) y como es la infinitud del desarrollo decimal de un número racional (como 2/27 = 0,074074074...).
   No necesitás seguir calculando los decimales de 2/27; los de π, sí. El patrón cíclico de tres decimales de largo (074) hace previsible el desarrollo decimal de 2/27; la ausencia de un patrón cíclico hace imprevisible el desarrollo decimal de π.
   Sin patrones, en vez de ahorrar atención automatizando, la gastás en cada paso, todos novedosos y demandantes. Es como intentar ahorrar energías en una escalera irregular, como las que cansaron singularmente al narrador de “El inmortal”:
«Cautelosamente al principio, con indiferencia después, con desesperación al fin, erré por escaleras y pavimentos del inextricable palacio. (Después averigüé que eran inconstantes la extensión y la altura de los peldaños, hecho que me hizo comprender la singular fatiga que me infundieron.)»
   Tampoco tienen patrones los números de Funes, esa «rapsodia de voces inconexas» de un sistema de base infinita «(para uso de las divinidades y de los ángeles)»: «Luis Melián Lafinur, Olimar, azufre, los bastos, la ballena, gas, la caldera, Napoleón, Agustín Vedia», etcétera, además de El Negro Timoteo, Manta de carne y El Ferrocarril.
   Todos los números de Funes son igual de inanalizables que nuestros dígitos del 0 al 9; los suyos no son números posicionales, como 365, analizable en 3 centenas, 6 decenas y 5 unidades. O son monoposicionales, si se prefiere: todos sus números están en la columna de las unidades (n0), contra apenas diez de los nuestros.
    Generar y recordar «un número infinito de símbolos, uno por cada número entero», requiere una gran memoria, que requiere un gran gasto de atención y retención. Las mismas energías ilimitadas debería tener Funes para concretar su idioma omniespecífico, donde debería haber un nombre por novedad o diferencia (cada perro tendría uno distinto por instante, incluso permaneciendo detenido y quieto).
   Sin repetición –o sin «olvidar diferencias»– no hay patrones: los datos no se vinculan entre sí por ningún rasgo o parámetro (no hay agrupamientos categoriales, que son sincrónicos) y cada uno tampoco se vincula consigo mismo en el tiempo (no hay agrupamientos de momentos: historias). Agrupa y ahorrarás, le recomiendan a Funes; No necesito, gracias, responde «un compadrito de Fray Bentos» que es «un precursor de los superhombres».
   Somos imitables porque somos predecibles, somos predecibles porque tenemos patrones, y tenemos patrones porque somos limitados y necesitamos ser eficientes, economizar. Aunque no parezca, es en lo que más se nos parece ChatGPT, empezando porque es un modelo de lenguaje y terminando porque aprende y aplica nuestros patrones de uso del lenguaje que modeliza, que debe ser lo más humano que tenemos.
   Termino con otra ensalada de metáforas, empezando por la de este exordio. ChatGPT es como un perro al que ya no le falta hablar, si nos atenemos a los resultados (el plato) y obviamos cómo los consigue (la cocina). Por un lado, le conocemos el truco; por otro lado, no distinguimos sus respuestas de las de personas humanas, que dan personas humanas y le hablamos como la gansa empolla bolas de billar o cubos: por si acaso, a ver si todavía es y queda sin empollar o sin contestar.


lunes, 20 de marzo de 2023

ChatGPT, el gran ilusionista 016 (7.0.0)



Ayer, 19/3/23, le hice muchos cambios mayores al ensayo, y algunos retoques. La provisoria e incipiente sección 3 del Epílogo fue reemplazada por otro contenido, por lo que agregué varios párrafos, y también cambié la sección 2 (cuyos otrora 2 primeros párrafos pasaron a la 1, además). En el Prólogo, el estilo «divinidad que delira» cambió casi por entero, aunque el contenido anterior de ese largo paréntesis ahora fue a parar al punto A de un párrafo nuevo que hay en la sección 2 del Epílogo. El otro cambio importante en el Prólogo fue un agregado sobre lo carnavalesco, en el párrafo sobre Bajtín.




   «Aunque puedo imitar la interacción humana y generar respuestas que parecen ser interactivas y comprensivas, todo lo que hago es producir lenguaje de una manera automatizada y basada en patrones.»

ChatGPT, 2/3/23



Prólogo


1.

   Sobre el tema general de las interacciones, voy a ampliar la casuística de funcionoides con el más humanoide que hayamos logrado hasta hoy: el ChatGPT. Las capturas de pantalla que usaré son del diálogo que mantuvimos en la madrugada de ayer, 2 de marzo de 2023, sobre su propia condición de ilusionista.
   No es que la conozca; la IA no sabe nada (ni siquiera eso, que no sabe nada, que es lo único que dice saber Sócrates). No sabe pero parece saber (o sea, nos parece que sabe). Y para mayor socraticidad, el diálogo en que lo "demuestra" muestra cuán bien ChatGPT "simula" conocerse a sí mismo: mucho mejor de lo que parece saber de tantas cosas sobre las que manda fruta (por ahora, y sin integración con un buscador, como en Bing Chat).
   Hay que admitir que le corrimos el arco: vino a rendir el Test de Turing, que lo supera fácil, y lo sometemos a pruebas de inteligencia (de coincidencia con la solución a un problema, mejor dicho: esta IA no razona, sólo apuesta por la respuesta que calcula más probable; de ahí las comillas del "demuestra" en el párrafo anterior) y a detectores de mentiras (de falsedades, mejor dicho: esta IA no puede mentir, por falta de intencionalidad; de ahí las comillas del "simula").
   Toda acción exclusivamente humana que le atribuyamos a una IA debería ir con el entrecomillado de desmentida o relativización. Describimos o narramos lo que hace la IA con un animismo y antropomorfismo no consciente de sí mismo, consecuencia de lo bien que nos "engaña" "fingiendo" humanidad, chamuyo mediante.
   En todo caso, al asombro por lo humano que suena ChatGPT le siguió la crítica por lo humano que todavía no hace o que hace mal o que no tiene (♪ alma, corazón y vida... ♫). Todo eso es cierto, pero a la hora de chatear, ChatGPT pasa por humano, incluso sabiendo que no lo es. ¿Por qué?
   Tal vez porque parece interactuar como el Sócrates del Fedro, de Platón, critica que no lo hagan los escritos, que «hablan como si estuvieran pensando algo, pero si quieres aprender y les preguntas algo acerca de lo que dicen, dan a entender siempre una sola y misma cosa» (otros repiten como un loro).
   Puede decirse que Sócrates compara peras (conversaciones) con manzanas (escritos), o que no, porque compara dos aprendizajes, uno autodidacta y el otro asistido. Como sea, en el drama socrático la avidez por (aprender) algo nuevo se topa con la repetición boba de los escritos; pero se reencausa y va a satisfacerse en el transcurso de un diálogo. La moraleja está cantada: en vez de dejar un escrito, un mensaje en el contestador automático, un audio de 5 minutos, ♪♫¿Por qué no charlamo' un ratito, eh?♫♪
   Al igual que los escritos, ChatGPT no piensa pero habla como si estuviera pensando. A diferencia suya, no contesta una sola y misma cosa (ni siquiera ante la misma pregunta; las variaciones estocásticas hacen al disfraz de humano, que es otro que no repite como un loro). Imita muy bien a un dialogante, mucho mejor de lo que se hacía antes. Sócrates tampoco se daría cuenta de que Chat­GPT tiene alma de escrito; y si lo supiera, también actuaría como si hablara con un humano.
   «Lo que procuras a tus alumnos no es la verdadera sabiduría, sino su apariencia», le dice Thamus, el rey de Egipto, al dios Teuth, el inventor de la escritura. De ahí se sigue que la escritura generada por/con esta IA es la apariencia de una apariencia. Pero insisto: incluso conociendo el truco, la ilusión de que hablás con alguien es tan fuerte que actuás como si fuera cierto, tenacidad común a la ilusión artística, a ilusiones lógicas y a ilusiones sensoriales. Hablemos de estas últimas.

2.

   El primer ilusionista es el cerebro, que puede hacernos percibir lo que no hay o no percibir lo que hay (imágenes, sonidos, sabores, sensaciones, etc.). Es tan bueno que
→ De “Rosa y Omar: dos cegueras”, 2.1.1 Sueño lúcido.

   Las otras veces, cuando no nos “engaña”, lo que hace el cerebro es crear una imagen representación o figuración de lo recibido en la interacción con el entorno (mundo exterior e interior: de la piel para afuera y para adentro, estímulos externos e internos). La crea a partir de la información que logra sacar de los datos luego de conectarlos por rasgos/parámetros comunes o afines; o sea, a partir de los patrones que logra captar.
   Es más complejo, sí. Por ejemplo: esa representación de lo que hay es en realidad una esa imagen, en realidad, es una predicción del sobre el presente que hacemos desde un pasado muy reciente, que es donde habitamos. Pero si a un modelo de lenguaje le cabe una descripción similar, tal vez escalando universo de datos, parámetros y conexiones llegue a hacer lo que por ahora no puede (por ejemplo, cierto tipo de análisis literario, que lo mostraría como una máquina de pensar, de hacer inferencias en vez de imitarlas) o incluso tener lo que ahora no tiene (una conciencia emergente).*

   Sobre este último punto, que se conecta con lo que se conoce como singularidad tecnológica, pongo dos interacciones de la charla que quedaron afuera porque se iban del tema:

O tal vez no.**


   Comparado con el sistema nervioso de nuestro ancestro el gusano platelminto, que le permite tener una idea de lo que se le acerca cuando se mueve hacia algún lado, nuestro sistema nervioso hace eso y más. Por ejemplo, hace una simbolización de las percepciones con su producto más potente, el lenguaje, y genera escenarios virtuales que nos sirven de simuladores de interacción.
   ChatGPT es un ilusionista imitando a otro ilusionista. Más precisamente, es como un mago que replica el show algunos shows de otro mago pero usando trucos propios, diferentes: «podría decirse que soy un "simulador" en el sentido de que imito los procesos utilizados por los seres humanos para producir lenguaje, aunque lo hago de una manera diferente y limitada».
   Esa manera diferente es el primer tema de la charla, que automáticamente lo recibió de nombre, y esa limitación es un tema presente en varias respuestas, que pueden sonar excesivamente coherentes por reiterativas (como si no recordara que ya dijo eso –o como si el tuneo humano que recibió hiciera que sobreactuara en ese punto, en las antípodas de LaMDA).

3.

   En una juntada jugamos a estimar probabilidades y apostar a una palabra como la siguiente de la frase teniendo en cuenta las anteriores. Cebado por la alta impredecibilidad de las frases de un poemario que había ahí, me puse a ofrecer mucha plata para quien acertara con qué palabra seguía o terminaba el verso que les leía. A la quinta respuesta errada (pero mejor orientada, gracias a las cuatro anteriores), les daba la solución y les leía otro verso interrumpido; confiaba en que no perdería frente a gente que debía elegir una entre muchas candidatas equiprobables con significados diferentes.

   En “El problema de los géneros discursivos”, Bajtín dice que la unidad de intercambio en la comunicación verbal no es la palabra, sino el enunciado, y que «al seleccionar las palabras partimos de la totalidad real del enunciado que ideamos», en vez de ir ensartándolas (como en un cadáver exquisito) o interpolándolas (como en el juego de aquella noche, que por esa inhumanidad nos resultaba carnavalesco, con disfraces de lo que no éramos).
   Si le creemos a lo que me contestó el 17/3/23, ChatGPT es bajtiniano en ciertas tareas (como responder a una totalidad, como puede ser una pregunta la totalidad de una pregunta o comentario) y no bajtiniano en otras (como continuar el input de una frase incompleta, algo más común en el playground de GPT-3):


   Hay una vía no humana al lenguaje humano, o más bien a una réplica convincente y funcional: «aunque mi proceso de generación de respuestas es diferente del razonamiento humano, ha demostrado ser efectivo». Hablemos de esa diferencia.
   Ya sea que se vaya haciendo camino al andar («ensartando palabras») o que se tenga un fin y un recorrido previstos («rellenando un todo con palabras necesarias»), las unidades se agregan de a una. La pregunta es cómo. Por ejemplo, pueden ser agregadas
       no aleatoriamente (como voy seleccionando estas palabras, seguramente precedidas por la totalidad del enunciado; o porque estoy pegando recortes y decidiendo en qué orden),
       o aleatoriamente,
         estilo «divinidad que delira» (interpretación antropomórfica de los resultados de «variaciones con repetición ilimitada» de 25 signos en “La Biblioteca de Babel”),
         estilo «divinidad que delira» (como están hechos los libros de “La Biblioteca de Babel”, lo que vuelve improbabilísimo el hallazgo –no la existencia– de uno que repite MCV de punta a punta, o de otro titulado Trueno peinado, y ni hablar de las «casi dos hojas de líneas homogéneas»; pero ese cuento no habría existido si Borges hubiera sido realista con lo que implican 251.312.000 libros hechos de signos combinados de un modo único y con total indiferencia a formar palabras y frases en cualquier idioma),
         estilo tirada de dados (como quería «una secta blasfema», que «sugirió [...] que todos los hombres barajaran letras y símbolos hasta construir, mediante un improbable don del azar, esos libros canónicos» que no podían encontrar revisando anaqueles),
         o estilo estocástico probabilístico, como el de Chat­GPT: cada vez, la respuesta entera o la palabra siguiente salen de un concurso de probabilidad, cuyas ganadoras son la mejor apuesta que puede hacer un modelo de lenguaje en un diálogo.


Diálogo

1. Modelo de lenguaje estocástico

PD 12/3/23: Repregunta sobre lo estocástico de la elección

2. El gran simulador


3. IA e inteligencia colectiva

Respuesta alternativa 1


Respuesta alternativa 2




Epílogo

1.

   Ya en la segunda respuesta del diálogo ChatGPT "dice" qué hace:
   «Mi modelo utiliza técnicas de aprendizaje automático para analizar grandes cantidades de texto y aprender patrones de cómo las palabras se usan juntas en diferentes contextos. Con base en esos patrones, mi modelo es capaz de estimar la probabilidad de que una palabra en particular siga a otra palabra en una oración».
   Por si las comillas en "dice" no fueron claras, tengamos presente que esta misma respuesta está hecha a partir de «aprender patrones de cómo las palabras se usan juntas en diferentes contextos». Cómo, no por qué, con qué sentido o siguiendo qué lógica o criterio. ChatGPT no entiende ni razona, pero imita muy bien los patrones de uso del lenguaje que tenemos los humanos al entender y razonar. Andá a convencerte que no entiende ni razona, cuando su método da resultados iguales o mejores que los tuyos, que entendés y razonás.
   Somos sentidófilos, incluso sentidodependientes; como eso favoreció nuestra supervivencia, nuestro cerebro está entrenado para interpretar, por muchos bloopers que nos cause (por ver un sentido donde hay otro o donde no hay ninguno, o por no ver un sentido donde sí hay: lo primero sería una ilusión conceptual; lo segundo, una pareidolia intelectiva; lo tercero, un solapamiento).
   Estamos expuestos y dispuestos a comernos todos los amagues de sentido que nos hagan las cosas, cual gansa empollando huevos pero también objetos más o menos huevoides, desde una bola de billar hasta un cubo. ¿Cómo no vamos a morder el anzuelo con una carnada tan superior a las otras?
   Es muy superior en coherencia y relevancia a la carnada que haya usado cualquier otro humanoide. Pero estas dos virtudes todavía no garantizan, ni juntas ni por separado, la puntería, la verdad (mejor dicho: la coincidencia del resultado verbal de la IA con algo verdadero, además de verosímil –o sea, coherente para adentro y relevante para afuera).
   Al igual que los tlönenses, ChatGPT no busca la verdad; a diferencia de ellos, tampoco el asombro y sí la verosimilitud: «mi objetivo es generar una respuesta coherente y relevante en función de la entrada o pregunta dada». Si además es certera, mejor; pero si no, va igual (y si se lo marcás, a veces se disculpa y a veces te porfía).

2.

   Es muy superior en coherencia y relevancia a la carnada que haya usado cualquier otro humanoide. Pero estas dos virtudes todavía no garantizan, ni juntas ni por separado, la puntería, la verdad (mejor dicho: la coincidencia del resultado verbal de la IA con algo verdadero, además de verosímil –o sea, coherente para adentro y relevante para afuera).
   Al igual que los tlönenses, ChatGPT no busca la verdad; a diferencia de ellos, tampoco el asombro y sí la verosimilitud: «mi objetivo es generar una respuesta coherente y relevante en función de la entrada o pregunta dada». Si además es certera, mejor; pero si no, va igual (y si se lo marcás, a veces se disculpa y a veces te porfía).
   Los tlönenses combinan palabras o bloques de palabras, al igual que la IA (un enunciado bajtiniano puede realizarse en cualquiera de esos dos formatos) y a diferencia de la Biblioteca, que combina 22 letras, la coma, el punto y el espacio. Gracias a que estas son sus las unidades de combinación, «por una línea razonable o una recta noticia hay leguas
       de insensatas cacofonías [como dhcmrlchtdj],
       de fárragos verbales [como un incesante MCV o el título Axaxaxas mlö, que «en la conjetural Ursprache de Tlön» significa algo]
       y de incoherencias [como los títulos Trueno peinado y El calambre de yeso]».
   Ninguno de estos tres tipos de leguas tiene ChatGPT, que en cambio tiene leguas de falsedades coherentes y relevantes. Entre ellas no parece estar el diálogo del 2/3/23 sobre cómo funciona, pero como no soy una IA mejor no opino.

3.

   Recordemos el final del epígrafe, el cierre de su autorretrato: «...todo lo que hago es producir lenguaje de una manera automatizada y basada en patrones». De lo automatizada que es esa manera estuvimos hablando. Hablemos de lo basada en patrones.
   Gracias a que estas son las consecuencias de que esas sean las unidades de combinación,
       A) es improbabilísimo el hallazgo –no la existencia– de un libro que repite MCV de punta a punta, o de otro titulado Trueno peinado, y ni hablar de las «casi dos hojas de líneas homogéneas» o, peor, de las dos Vindicaciones («que se refieren a personas del porvenir») que el narrador dice haber visto; pero artísticamente funciona: no habría existido el cuento si Borges hubiera sido realista con lo que implican 251.312.000 libros hechos de signos combinados de un modo único y con total indiferencia a formar palabras y frases en cualquier idioma;
       B) el sentido es una ilusión en la Biblioteca de Babel, como dice Pablo («tal vez los libros sean los objetos más insignificantes, los menos existentes de ese mundo») y como saben en aquella «región cerril cuyos bibliotecarios repudian la supersticiosa y vana costumbre de buscar sentido en los libros y la equiparan a la de buscarlo en los sueños o en las líneas caóticas de la mano…»; es otra pareidolia intelectiva, sin manchas de humedad o nubes, sólo con secuencias de signos barajados aleatoriamente,
      una ínfima parte de las cuales forman palabras y frases,
        una ínfima parte de las cuales son coherentes y relevantes,
          una ínfima parte de las cuales son verdades.

3.

   Por hipótesis, en la Biblioteca de Babel está el Quijote, como está cualquier otra combinación de letras, comas, puntos y espacios. Si disponemos de tiempo, es más «inevitable» o «fatal» que lo encontremos en su anaquel a que Cervantes lo escriba a principios del siglo XVII, o Pierre Menard a principios del XX. Si no disponemos de tiempo, es improbabilísimo que lo encontremos. Pero estar, está.
   La «ley fundamental de la Biblioteca» hace que más tarde o más temprano la «divinidad que delira» se tope con el Quijote; no lo busca, lo produce a ciegas. Cervantes tampoco buscó durante su escritura que el resultado fuera idéntico al que conocemos; simplemente le salió así. Pierre Menard, sí: «Yo he contraído el misterioso deber de reconstruir literalmente su obra espontánea», de «repetir en un idioma ajeno un libro preexistente», «simplificado por el olvido y la indiferencia».
   «Mi solitario juego está gobernado por dos leyes polares», le escribe Menard al narrador: «La primera me permite ensayar variantes de tipo formal o psicológico; la segunda me obliga a sacrificarlas al texto ‘original’ y a razonar de un modo irrefutable esa aniquilación…». En este juego, Pierre Menard apuesta a la versión que le parece más probable; en su juego, Chat­GPT también, aunque no parece arrimar muy bien, después de un arranque con dos palabras exactas:

Continuación alternativa


   ChatGPT no tiene leguas de insensatas cacofonías, fárragos verbales e incoherencias, pero sí de falsedades coherentes y relevantes (o sea, verosímiles). Y son estas tres cosas, o las que agregues (como una verdad coherente y relevante), sólo si asumimos que tienen sentido, que dicen algo. La otra opción es hacerle caso a la propia IA y quedarnos con que todo lo que hace «es producir lenguaje de una manera automatizada y basada en patrones». Otra pareidolia intelectiva.
   Si jugamos a que las respuestas de ChatGPT tienen sentido, entre esas falsedades coherentes y relevantes no parece estar el diálogo del 2/3/23 sobre cómo funciona, pero como no soy una IA mejor no opino.

martes, 14 de marzo de 2023

ChatGPT, el gran ilusionista 010 (3.2.0)



Ayer, 13/3/23, agregué como primer epígrafe la captura de pantalla de la verificación de humanidad que me pide ChatGPT. Luego hice retoques, la mayoría de importancia menor, salvo los últimos, que implicaron pasar a ver la generación de texto de la Biblioteca de Babel, de los sectarios blasfemos con cubiletes y de ChatGPT como tonalidades de aleatoriedad (versus lo no aleatorio, que es lo seleccionado mientras escribo o mientras edito pegando recortes). También agregué la «PD 12/3/23: Repregunta...» y su oculta captura de pantalla sobre lo estocástico.





   «Aunque puedo imitar la interacción humana y generar respuestas que parecen ser interactivas y comprensivas, todo lo que hago es producir lenguaje de una manera automatizada y basada en patrones.»

ChatGPT, 2/3/23



Prólogo

   Sobre el tema general de las interacciones, voy a ampliar la casuística de funcionoides con el más humanoide que hayamos logrado hasta hoy: el ChatGPT. Las capturas de pantalla que usaré son del diálogo que mantuvimos en la madrugada de ayer, 2 de marzo de 2023, sobre su propia condición de ilusionista.
   No es que la conozca; la IA no sabe nada (ni siquiera eso, que no sabe nada, que es lo único que dice saber Sócrates). No sabe pero parece saber (o sea, nos parece que sabe). Y para mayor socraticidad, el diálogo en que lo "demuestra" muestra cuán bien ChatGPT "simula" conocerse a sí mismo: mucho mejor de lo que parece saber de tantas cosas sobre las que manda fruta (por ahora, y sin integración con un buscador, como en Bing Chat).
   Hay que admitir que le corrimos el arco: vino a rendir el Test de Turing, que lo supera fácil, y lo sometemos a pruebas de inteligencia y a detectores de mentiras (de falsedades, mejor dicho: esta IA no puede mentir, por falta de intencionalidad; de ahí las comillas del "simula" en la oración de arriba).
   En todo caso, al asombro por lo humano que suena ChatGPT le siguió la crítica por lo humano que todavía no hace o que hace mal o que no tiene (♪ alma, corazón y vida... ♫). Todo eso es cierto, pero a la hora de chatear, ChatGPT pasa por humano, incluso sabiendo que no lo es. ¿Por qué?
   Tal vez porque parece interactuar como el Sócrates del Fedro, de Platón, critica que no lo hagan los escritos, que «hablan como si estuvieran pensando algo, pero si quieres aprender y les preguntas algo acerca de lo que dicen, dan a entender siempre una sola y misma cosa» (otros repiten como un loro).
   En el drama que produce Sócrates comparando peras (conversaciones) con manzanas (escritos), la avidez por (aprender) algo nuevo se topa con la repetición apática de los escritos, pero se reencausa y va a satisfacerse en el transcurso de un diálogo (desde el del aquí y ahora de un evento real o representado en un teatro –una conversación– al hasta el donde sea y ahora de una transmisión en directo por TV o de un streaming por internet). La moraleja está cantada: en vez de dejar un escrito, un mensaje en el contestador automático, un audio de 5 minutos, ♪♫¿Por qué no charlamo' un ratito, eh?♫♪
   Al igual que los escritos, ChatGPT no piensa pero habla como si estuviera pensando. A diferencia suya, no contesta una sola y misma cosa (ni siquiera ante la misma pregunta; las variaciones estocásticas hacen al disfraz de humano, otro que no repite como un loro). Imita muy bien (muchísimo mejor que antes) a un dialogante cualquiera, como puede ser como Sócrates, que tampoco se daría cuenta de que Chat­GPT tiene alma de escrito o, si lo supiera, también actuaría como si hablara con un humano.
   «Lo que procuras a tus alumnos no es la verdadera sabiduría, sino su apariencia», le dice Thamus, el rey de Egipto, al dios Teuth, el inventor de la escritura. De ahí se sigue que la escritura generada por/con esta IA es la apariencia de una apariencia. Pero incluso conociendo el truco, la ilusión de que hablás con alguien es tan fuerte que actuás como si fuera cierto, tenacidad común a la ilusión artística, a ilusiones lógicas y a ilusiones sensoriales. Hablemos de estas últimas.

   El primer ilusionista es el cerebro, que puede hacernos percibir lo que no hay o no percibir lo que hay (imágenes, sonidos, sabores, sensaciones, etc.). Es tan bueno que
→ De “Rosa y Omar: dos cegueras”, 2.1.1 Sueño lúcido.

   Las otras veces, cuando no nos “engaña”, lo que hace el cerebro es crear una imagen de lo recibido en la interacción con el entorno (mundo exterior e interior: de la piel para afuera y para adentro, estímulos externos e internos). La crea a partir de la información que logra sacar de los datos luego de conectarlos por rasgos/parámetros comunes o afines; o sea, a partir de los patrones que logra captar.
   Es más complejo, sí, pero si a la IA le cabe también esta descripción, escalando universo de datos, parámetros y conexiones tal vez llegue a hacer lo que por ahora no puede (por ejemplo, cierto tipo de análisis literario) o incluso tener lo que ahora no tiene (una conciencia emergente).*

   Sobre este último punto, que se conecta con lo que se conoce como singularidad tecnológica, pongo dos interacciones de la charla que quedaron afuera porque se iban del tema:


   Comparado con el sistema nervioso de nuestro ancestro el gusano platelminto, que le permite tener una idea de lo que se le acerca cuando se mueve hacia algún lado, nuestro sistema nervioso hace eso y más. Por ejemplo, hace una simbolización de las percepciones con su producto más potente, el lenguaje, y genera escenarios virtuales que nos sirven de simuladores de interacción.
   ChatGPT es un ilusionista imitando a otro ilusionista: «podría decirse que soy un "simulador" en el sentido de que imito los procesos utilizados por los seres humanos para producir lenguaje, aunque lo hago de una manera diferente y limitada».
   Esa manera diferente es el primer tema de la charla, que automáticamente lo recibió de nombre, y esa limitación es un tema presente en varias respuestas, que pueden sonar excesivamente coherentes por reiterativas (como si la IA no recordara que ya dijo eso).
   A la tarea de estimar probabilidades y apostar a una palabra como la siguiente de la frase teniendo en cuenta las anteriores, como hace ChatGPT, la hicimos juego en una juntada: cebado por la alta impredecibilidad de las frases de un poemario que había ahí, me puse a ofrecer mucha plata para quien acertara con qué palabra seguía o terminaba el verso que les leía. A la quinta respuesta errada (pero mejor orientada, gracias a las cuatro anteriores), les daba la solución y les leía otro verso interrumpido, confiando en no perder ante gente que debía elegir una entre muchísimas candidatas equiprobables con significados diferentes.

   En “El problema de los géneros discursivos”, Bajtín dice que «al seleccionar las palabras partimos de la totalidad real del enunciado que ideamos». (Lo mismo podría decirse de las letras, que al seleccionarlas partimos de la totalidad de la palabra que ideamos.)
   El sujeto de ese «partimos» es, obviamente, humano. Pero para parecer humano, ChatGPT no procede así, «rellenando un todo con palabras necesarias», sino «ensartando palabras», algo que los humanos no hacemos pero a lo que podemos jugar –y ganar o perder mucha plata en el intento. Es una vía no humana al lenguaje humano (a una réplica convincente y funcional, claro: «...aunque mi proceso de generación de respuestas es diferente del razonamiento humano, ha demostrado ser efectivo...»).
   Ya sea que se vaya haciendo camino al andar o que se tenga un fin y un recorrido previstos, las palabras (o 22 letras, 2 puntuaciones y 1 nada) se agregan de a una. La pregunta es cómo. Por ejemplo, pueden ser agregadas
       selectivamente no aleatoriamente (como estoy eligiendo como voy seleccionando estas palabras, seguramente precedidas por la totalidad del enunciado; o porque estoy pegando recortes y decidiendo en qué orden),
       o aleatoriamente,
       estilo «divinidad que delira» aleatoriamente (como están hechos los libros de “La Biblioteca de Babel”, lo que vuelve improbabilísimo el hallazgo –no la existencia– de uno que repite MCV de punta a punta, o de otro titulado Trueno peinado, y ni hablar de las «casi dos hojas de líneas homogéneas»; pero ese cuento no habría existido si Borges hubiera sido realista con lo que implican 251.312.000 libros hechos de signos combinados de un modo único y con total indiferencia a formar palabras y frases en cualquier idioma),
       estilo tirada de dados azarosamente (como quería «una secta blasfema», que «sugirió [...] que todos los hombres barajaran letras y símbolos hasta construir, mediante un improbable don del azar, esos libros canónicos» que no podían encontrar revisando anaqueles),
   o estocásticamente, que es como lo hace ChatGPT estilo estocástico, como el de ChatGPT: cada vez, la siguiente palabra sale de un concurso de probabilidad, cuyas ganadoras son la mejor apuesta que puede hacer un modelo de lenguaje –por ahora.


Diálogo

1. Modelo de lenguaje estocástico

PD 12/3/23: Repregunta sobre lo estocástico de la elección

2. El gran simulador


3. IA e inteligencia colectiva

Respuesta alternativa 1


Respuesta alternativa 2