-->

jueves, 30 de marzo de 2023

El gran ilusionista (ChatGPT, Borges y 3 más) 025 (11.1.1)



Ayer, 29/3/23, agregué el actual párrafo final del ensayo, agregué otro párrafo usando oraciones viejas y nuevas sobre la imprevisibilidad de π y la previsibilidad de 2/27, y agregué lo del período más largo que conozco para el que tiene la Biblioteca de Babel en libros. Transcribo solamente la zona de cambios:



   Si esos patrones y estructuras no existieran en el lenguaje y en su uso, ni ChatGPT lograría parecérsenos ni nosotros seríamos los mismos. Veamos algunos escenarios sin repeticiones y regularidades.
   El desarrollo decimal de un número irracional, como π (3,141592653...), no tiene patrones: nunca entra en loop. Su infinitud no es periódica, como son es la de la Biblioteca de Babel (cada 251.312.000 libros, que hacen el período más largo que conozco) y como es la infinitud del desarrollo decimal de un número racional (como 2/27 = 0,074074074...).
   No necesitás seguir calculando los decimales de 2/27; los de π, sí. El patrón cíclico de tres decimales de largo (074) hace previsible el desarrollo decimal de 2/27; la ausencia de un patrón cíclico hace imprevisible el desarrollo decimal de π.
   Sin patrones, en vez de ahorrar atención automatizando, la gastás en cada paso, todos novedosos y demandantes. Es como intentar ahorrar energías en una escalera irregular, como las que cansaron singularmente al narrador de “El inmortal”:
«Cautelosamente al principio, con indiferencia después, con desesperación al fin, erré por escaleras y pavimentos del inextricable palacio. (Después averigüé que eran inconstantes la extensión y la altura de los peldaños, hecho que me hizo comprender la singular fatiga que me infundieron.)»
   Tampoco tienen patrones los números de Funes, esa «rapsodia de voces inconexas» de un sistema de base infinita «(para uso de las divinidades y de los ángeles)»: «Luis Melián Lafinur, Olimar, azufre, los bastos, la ballena, gas, la caldera, Napoleón, Agustín Vedia», etcétera, además de El Negro Timoteo, Manta de carne y El Ferrocarril.
   Todos los números de Funes son igual de inanalizables que nuestros dígitos del 0 al 9; los suyos no son números posicionales, como 365, analizable en 3 centenas, 6 decenas y 5 unidades. O son monoposicionales, si se prefiere: todos sus números están en la columna de las unidades (n0), contra apenas diez de los nuestros.
    Generar y recordar «un número infinito de símbolos, uno por cada número entero», requiere una gran memoria, que requiere un gran gasto de atención y retención. Las mismas energías ilimitadas debería tener Funes para concretar su idioma omniespecífico, donde debería haber un nombre por novedad o diferencia (cada perro tendría uno distinto por instante, incluso permaneciendo en reposo y total quietud detenido y quieto).
   Sin repetición –o sin «olvidar diferencias»– no hay patrones: los datos no se vinculan entre sí por ningún rasgo o parámetro (no hay agrupamientos categoriales, que son sincrónicos) y cada uno tampoco se vincula consigo mismo en el tiempo (no hay agrupamientos de momentos: historias). Agrupa y ahorrarás, le recomiendan a Funes; No necesito, gracias, responde «un compadrito de Fray Bentos» que es «un precursor de los superhombres».
   Somos imitables porque somos predecibles, somos predecibles porque tenemos patrones, y tenemos patrones porque somos limitados y necesitamos ser eficientes, economizar. Aunque no parezca, es en lo que más se nos parece ChatGPT, empezando porque es un modelo de lenguaje y terminando porque aprende y aplica nuestros patrones de uso del lenguaje que modeliza, que debe ser lo más humano que tenemos.
   ChatGPT es como un perro al que ya no le falta hablar, si nos atenemos a los resultados (el plato) y obviamos cómo los consigue (la cocina). Por un lado, le conocemos el truco; por otro lado, no distinguimos sus respuestas de las de personas humanas, y le hablamos como la gansa empolla bolas de billar: por si acaso, a ver si todavía es y queda sin empollar o sin contestar.

No hay comentarios: