Un LLM o Modelo Extenso de lenguaje no sabe mentir
¿Saben mentir o pedir perdón los LLM que están detrás de inteligencias artificiales como Chat-GPT? ¿Sueñan los androides con ovejas eléctricas?
Imagen: Antolin
De la Wikipedia:
Un modelo extenso de lenguaje o LLM (siglas en inglés para Large Language Model), también llamado modelo de lenguaje de gran tamaño, modelo de lenguaje grande, gran modelo de lenguaje, modelo lingüístico grande o modelo de lenguaje a gran escala, es un modelo de lenguaje de aprendizaje profundo, que consta de una red neuronal con muchos parámetros (normalmente miles de millones o más), entrenados en grandes cantidades de texto sin etiquetar mediante aprendizaje autosupervisado o aprendizaje semisupervisado. […]Algunos LLMs notables son la serie de modelos GPT de OpenAI (por ejemplo, GPT-3 y GPT-4 , utilizados en ChatGPT y Microsoft Copilot), PaLM y Gemini de Google.
El siguiente artículo es una traducción/adaptación de un artículo creado por el activista por el software libre Alexandre Oliva y publicado bajo una licenciaCC-by-sa 3.0 y que puedes leer en el original en este enlace:
Y que me ha permitido traducir y publicar en mi blog, muchas gracias por eso. Espero que os resulte tan interesante como me lo pareció a mí.
Los modelos de lenguaje grandes se disculpan a menudo cuando se los reprocha.
A veces incluso dicen ser sinceros.
No están mintiendo.
Pero tampoco están siendo sinceros de verdad.
No pueden.
No pueden sentir arrepentimiento, no pueden sentir pena, no comprenden lo que hicieron mal.
Por eso no pueden ofrecer una disculpa sincera.
No pueden distinguir el bien del mal, no pueden distinguir lo verdadero de lo falso.
La razón por la que no pueden mentir es que se requiere la intención de engañar, y no son capaces de tener ninguna intención en absoluto.
Por tanto ellos tampoco pueden ser sinceros. No pueden sentir nada.
No pueden decir si lo que generan es cierto.
Su entrenamiento y sus algoritmos apuntan a la probabilidad, a la plausibilidad.
La verdad ni siquiera es una consideración.
Y no les importa. No les puede importar. No son capaces de preocuparse.
Son solo Iteradores Autocompletadores
Calculan qué palabra parece probable que aparezca a continuación, una tras otra.
No entienden, no tienen sentido común ni inteligencia.
Si parecen inteligentes es porque están entrenados para imitar.
Cuando se disculpan, no te están engañando.
Sólo fueran entrenados con disculpas.
Quizás algunas de las disculpas utilizadas durante la fase de enseñanza fueron incluso sinceras.
Pero imitar esa disculpa no equivale a ser una disculpa sincera.
Tal vez fueron entrenados con disculpas por expertos manipuladores de sentimientos.
Incluso entonces, no aprendieron a manipular los sentimientos.
Sólo se les enseñó a utilizar ciertas construcciones del lenguaje en tales situaciones.
No te están mintiendo.
No tienen ni idea de lo que están haciendo.
No están tramando una forma de apaciguar tu ira.
Simplemente no pueden hacer eso.
Quizás quienes los controlan quisieron que lo hicieran.
Quizás quienes los controlan los entrenaron para hacerlo.
Y se miran, en su sabiduría 1/infinita.
Recuerde, no hay ningún compromiso con la verdad en sus predictores de palabras.
O con la honestidad. O para evitar tu decepción.
(Por mucho que estén entrenados para complacerte y embriagarte con halagos).
No hay intención de engañar en su pensamiento: no pueden pensar.
No pueden mentir más de lo que pueden decir lo que es verdad: simplemente no pueden saberlo.
No hay inteligencia ni comprensión ahí.
No son inteligencias artificiales.
No son más que generadores de tonterías, y no les importa.
No les importa. Simplemente son Generadores de Tonterias
En cuanto a quienes los controlan y los entrenan… Parece que tampoco les importa.
Y es aquí cuando me viene a la mente un dibujo de David Revoy (también gran defensor y usuario del software libre), que puedes ver en este enlace si tienes interés: