Simplemente di NO (a la IA en todo)
Si un amigo o amiga te ofrece… simplemente di NO a la IA. Se empieza por poco y se termina alabando las bondades de los grandes tecnócratas fascistas
Tu aplicación de mensajería, tu red social, tu programa de ofimática, tu asistente personal, tu televisión, tu aspirador, tu microondas, tu frigorífico… todo lleva IA.
Los medios de información te muestran que es la nueva revolución, todo el mundo se sube a la nueva ola tecnológica sin saber muy bien qué hace, cómo utilizarla o cómo implementarla, pero los CEOs ven bondades en ella, reducción de costes (a corto plazo), mejoras (a corto plazo)…
Ayer mismo me encontré por el fediverso un enlace a una web llamada justsayno to AI:
Una web en la que se recalca y se pone de manifiesto, que este hype que existe en torno a la (mal) llamada Inteligencia Artificial (IA), quizás es algo excesivo que se nos está escapando de las manos.
Lo cierto es que la IA está ocupando muchos aspectos de nuestro día a día. Se ha incrustrado en muchos aspectos haciéndose casi indispensable para quien la utiliza, pero ese uso y abuso tiene unos costes y puede que unas consecuencias que ahora estamos empezando a vislumbrar.
Grandes empresas de tecnología como Microsoft, Meta (que gestiona WhatsApp, Instagram, Facebook), Google, o X aka Twitter ya incluyen la tan cacareada IA y sus asistentes en sus servicios. Si esas empresas dirigidas por personas que posaban muy orgullosas en la investidura de Donald Trump y cuyos actos en el pasado han sido abusivos y sospechosos abrazan tal tecnología entonces algo mal seguro que hay detrás.
Por sus hechos les conoceréis, y ya en el pasado esas empresas tecnológicas han demostrado que los dividendos positivos son su única finalidad pasando por encima del bienestar de las personas o del medio ambiente.
Ocultan sus intenciones dañinas, y venden una nacesidad que se convierte ya en imprescindible o quieren que así sea.
Las IA que nos promocionan y que nos quieren implantar en cada situación del día a día tienen costes medio ambientales de consumo de recursos, y tiene unas repercusiones sociales que podemos discernir. Ya hay personas que confían en estas herramientas desprovistas de corazón los aspectos más íntimos y las decisiones personales frente al consejo o el tratamiento de personas.
Estamos confiando en empresas oscuras con un oscuro historial nuestra esencia. Estamos pidiendo a Darth Vader que nos aconseje qué hacer y le estamos creyendo y siguiendo como nuevos gurús del siglo XXI.
Estas IA no saben nada, no sienten nada, no saben mentir, se equivocan y se disculpan, pero todo es una mentira. Si había personas que creían que vivíamos en Matrix, ahora al dar voz y voto a estas máquinas, están haciendo realidad esa profecía que tenían en su mente.
Derivada de esa página en inglés, he realizado una traducción/adaptación que puedes encontrar en el siguiente enlace:
En la que se explican ciertos motivos para rechazar esa IA omnipresente. Esa gestión de datos está bien para una tarea concreta. Las IA son simplemente programas con miles de millones de datos y utilizarlo para todo es imposible.
Esos Algoritmos Informáticos son buenos encontrando patrones, o recopilando datos de tareas concretas para las que podemos enseñarlas: prevención de cataclismos naturales, prevención de enfermedades, búsqueda de respuestas científicas en base a un montón de datos, etc.
Eso sí, dirigirlas como herramientas para un fin concreto, puede ser buena idea. Intentar que resuelva nuestra vida con lo diversa y diferente que es entre miles de millones de personas es imposible y una locura temeraria que no aporta nada.
Deben ser herramientas, pero deben ser abiertas y éticas. Las empresas como openAI añaden ese «open» a su nombre mientras cierran todo lo demás. Arrasan con datos, con conocimiento que se apropian y blindan sus oscuros algoritmos.
Se debe volver a poner a las personas en el centro de la tecnología. Que esta esté a su servicio como herramienta, no como sustituto de las personas. Rechazo imágenes generadas por estos algoritmos, vídeos, música, etc. No me aportan nada, me rechina su impostada «naturalidad» y su suplantación.
Y además esta caracterísitca hará que no podamos confiar en nada en un futuro al no saber si es algo auténtico o algo sintético salido de oscuros algoritmos creados por oscuras empresas con oscuros intereses.
Echad un vistazo a la web original y mi traducción para ver si os convencen los argumentos expuestos. Y ya sabes, si alguien te ofrece IA…
Ilustración: Antolín
Un LLM o Modelo Extenso de lenguaje no sabe mentir
¿Saben mentir o pedir perdón los LLM que están detrás de inteligencias artificiales como Chat-GPT? ¿Sueñan los androides con ovejas eléctricas?
Imagen: Antolin
De la Wikipedia:
Un modelo extenso de lenguaje o LLM (siglas en inglés para Large Language Model), también llamado modelo de lenguaje de gran tamaño, modelo de lenguaje grande, gran modelo de lenguaje, modelo lingüístico grande o modelo de lenguaje a gran escala, es un modelo de lenguaje de aprendizaje profundo, que consta de una red neuronal con muchos parámetros (normalmente miles de millones o más), entrenados en grandes cantidades de texto sin etiquetar mediante aprendizaje autosupervisado o aprendizaje semisupervisado. […]Algunos LLMs notables son la serie de modelos GPT de OpenAI (por ejemplo, GPT-3 y GPT-4 , utilizados en ChatGPT y Microsoft Copilot), PaLM y Gemini de Google.
El siguiente artículo es una traducción/adaptación de un artículo creado por el activista por el software libre Alexandre Oliva y publicado bajo una licenciaCC-by-sa 3.0 y que puedes leer en el original en este enlace:Y que me ha permitido traducir y publicar en mi blog, muchas gracias por eso. Espero que os resulte tan interesante como me lo pareció a mí.
Los modelos de lenguaje grandes se disculpan a menudo cuando se los reprocha.
A veces incluso dicen ser sinceros.
No están mintiendo.
Pero tampoco están siendo sinceros de verdad.
No pueden.
No pueden sentir arrepentimiento, no pueden sentir pena, no comprenden lo que hicieron mal.
Por eso no pueden ofrecer una disculpa sincera.
No pueden distinguir el bien del mal, no pueden distinguir lo verdadero de lo falso.
La razón por la que no pueden mentir es que se requiere la intención de engañar, y no son capaces de tener ninguna intención en absoluto.
Por tanto ellos tampoco pueden ser sinceros. No pueden sentir nada.
No pueden decir si lo que generan es cierto.
Su entrenamiento y sus algoritmos apuntan a la probabilidad, a la plausibilidad.
La verdad ni siquiera es una consideración.
Y no les importa. No les puede importar. No son capaces de preocuparse.
Son solo Iteradores Autocompletadores
Calculan qué palabra parece probable que aparezca a continuación, una tras otra.
No entienden, no tienen sentido común ni inteligencia.
Si parecen inteligentes es porque están entrenados para imitar.
Cuando se disculpan, no te están engañando.
Sólo fueran entrenados con disculpas.
Quizás algunas de las disculpas utilizadas durante la fase de enseñanza fueron incluso sinceras.
Pero imitar esa disculpa no equivale a ser una disculpa sincera.
Tal vez fueron entrenados con disculpas por expertos manipuladores de sentimientos.
Incluso entonces, no aprendieron a manipular los sentimientos.
Sólo se les enseñó a utilizar ciertas construcciones del lenguaje en tales situaciones.
No te están mintiendo.
No tienen ni idea de lo que están haciendo.
No están tramando una forma de apaciguar tu ira.
Simplemente no pueden hacer eso.
Quizás quienes los controlan quisieron que lo hicieran.
Quizás quienes los controlan los entrenaron para hacerlo.
Y se miran, en su sabiduría 1/infinita.
Recuerde, no hay ningún compromiso con la verdad en sus predictores de palabras.
O con la honestidad. O para evitar tu decepción.
(Por mucho que estén entrenados para complacerte y embriagarte con halagos).
No hay intención de engañar en su pensamiento: no pueden pensar.
No pueden mentir más de lo que pueden decir lo que es verdad: simplemente no pueden saberlo.
No hay inteligencia ni comprensión ahí.
No son inteligencias artificiales.
No son más que generadores de tonterías, y no les importa.
No les importa. Simplemente son Generadores de Tonterias
En cuanto a quienes los controlan y los entrenan… Parece que tampoco les importa.
Y es aquí cuando me viene a la mente un dibujo de David Revoy (también gran defensor y usuario del software libre), que puedes ver en este enlace si tienes interés:
Jacobo Da Riva Muñoz reshared this.