Parece ser que, como es costumbre en los tiempos que corren, una simple cuestión semántica se convierte en una discusión sin otro afán que el conseguir tener razón, sin que importe si esa razón corresponde, o no, a una verdad. Que la IA no es una inteligencia autónoma, y, por tanto, no es una inteligencia, no es una cuestión que pueda tener un gran recorrido, pero los partidarios de considerarla como tal, asignando la categoría de cualidad a lo que es simplemente un adjetivo de tipo comercial, no contempla límites, ni añagazas argumentales que confirmen su convicción.

Tal como hemos ido desarrollando en distintos artículos a lo largo de varios meses, hemos intentando presentar la no inteligencia de la IA, su mentira comercial, desde los distintos ámbitos del pensamiento, semántico, filosófico, técnico… y aunque, para los conversos, ninguno de estos argumentos parece convencerles, ni yo me rindo, ni la inteligencia se ha convertido en este tiempo en otra cosa que lo que ya era al principio, una herramienta de alta eficacia, una creación humana que no tiene ninguna posibilidad de superar a su creador, salvo en su capacidad de acceder a la información, su velocidad para tratarla, y su innegable superioridad en analizar todas las posibilidades sobre una cuestión planteada en un tiempo inalcanzable para la mente humana, pero ni es capaz de saber cuál de las posibles respuestas es la correcta, ni puede discriminar entre ellas.
Comete errores groseros, errores de bulto, y sufre de tics, de manías, de tendencias que reflejan fielmente los tics, las manías, los errores de simplificación que sufren sus creadores. Porque los seres humanos, para simplificar nuestros razonamientos, nuestra necesidad de llegar a respuestas en el menor tiempo posible, pervertimos la lógica utilizando atajos, eso que vulgarmente se llama sentido común, y científicamente sesgo, y que trasladamos a nuestra “inteligencia” fabricada en forma de algoritmos.
Sí, y según demuestran múltiples estudios, los algoritmos programáticos se corresponden con los sesgos del pensamiento humano, casi como conjuntos biunívocos, lo que supone que la IA tiene las mismas tendencias a abreviar erróneamente, los mismos prejuicios, utiliza los mismos sesgos y silogismos que sus programadores, pero con el agravante de que un ser humano tiene capacidad de discriminar, la IA no. Si a eso añadimos que una de las características de los algoritmos es que buscan la complacencia del usuario, la respuesta más cercana, no la más adecuada, al pensamiento de quién la usa, nos encontramos con un auténtico problema de veracidad de la información.
Por si alguno de los lectores no está familiarizado con los sesgos, pongamos el ejemplo de uno bastante inocente, pero muy ilustrativo: si alguien solicita a un grupo de personas que dibujen un reloj, la mayoría de las personas de ese grupo dibujará un reloj redondo, con manecillas y numeración clásica, y, y esto es lo más llamativo, con las agujas apuntando a las dos menos diez. ¿Y por qué esa hora? Pues porque, al parecer, esa hora simula una sonrisa en una imaginaria cara del reloj, lo que la hace simpática, e induce a quienes quieren realizar el dibujo a hacerlo con esa configuración concreta de la imagen. Pero este efecto de la sonrisa no solo funciona con el reloj, funciona con cualquier objeto cuyos elementos puedan disponerse en un efecto sonrisa. Claro que he dicho que es inocente, pero no es cierto, porque los sesgos son utilizados por el marketing para colocar su producto, sea político, comercial, o informativo.
Pero aquí lo que nos ocupa es la IA, y no podremos hablar de ella, de sus resultados, de sus errores, de su falta de inteligencia, sin que pongamos en claro los fallos de programación de base y sus consecuencias, sin que tengamos claros los fallos de pensamiento de sus programadores, que inducen los de su producto. Todos hemos observado, sobre todo en la utilización de buscadores, o redes sociales, que la búsqueda de cualquier tema, sea comercial, lúdica, técnica, o política, supone un aluvión de propuestas sobre ese tema, y otros semejantes, sin que nosotros lo hayamos solicitado.
Si leemos digitalmente un determinado periódico, y solo uno, la mayoría de las noticias que nos lleguen serán del mismo signo político que la publicación consultada. Se llama sesgo de confirmación, e induce al usuario a pensar que su opción es la mayoritaria, casi la única.
Existen cientos de sesgos, cientos de atajos trampa que predeterminan el pensamiento, la información que se recibe, las decisiones que se toman, en la absoluta creencia de que estamos tomando una decisión independiente, de que estamos adoptando una postura crítica, de que estamos seleccionando un producto con nuestro único criterio. Para eso están los sesgos, para eso están los algoritmos.
Pero, seamos aún más precisos. ¿Qué es un sesgo cognitivo? Hay más, pero estos son los que más influyen en el manejo de la mente del ser humano, los que más se utilizan en los algoritmos de la IA. Sesgo cognitivo es el término que designa los errores sistemáticos de percepción, memoria, pensamiento y juicio que las personas cometen de forma habitual, generalmente sin ser conscientes de ello. Estos son algunos de los más evidentes:
- Efecto anclaje. Al tomar decisiones, siempre nos vemos influidos por los datos del entorno. El algoritmo siempre nos presentará las opciones que más se acomoden a nuestras preferencias, dificultando que busquemos otras.
- Efecto arrastre. Es habitual dejarse influir por líderes, famosos, o creadores de opinión a la hora de tomar decisiones. Seguimiento de marcas, criterios políticos, fanatismos religiosos, escuelas de mejora personal… El algoritmo siempre nos presentará las noticias, las compras, las propuestas que estén en línea con lo que nosotros ya hacemos, generando un efecto túnel en nuestras ideas, o acciones
- Sesgo de confirmación. A la gente le gusta sentirse reafirmada, y por tanto tiende a tener en cuenta solo aquella información que la reafirma en lo que ya pensaba. Llevado a algoritmos solo recibimos la información que está de acuerdo con lo que pensamos.
- Efecto señuelo. El efecto señuelo se basa en el hecho de que una inmensa mayoría de las decisiones se toman de manera inconsciente. Si de forma dirigida presentamos un producto, una idea, asimétricamente dominante debido a sus características, nuestra decisión se orienta hacia el producto, o la idea, que realmente se pretende colocar. Un producto poco atractivo, o una mentira evidente, pueden ser un buen ejemplo.
- Efecto dotación. Aumentar la valoración subjetiva de lo que queremos presentar, haciendo pensar que es algo especialmente valioso, independientemente de su valor real.
- Efecto halo. Tendemos a conferir cualidades positivas a las personas u objetos de los que previamente tenemos buen concepto. Si es bueno en algo, es bueno en todo, lo que evita que nos cuestionemos su idoneidad. En las relaciones humanas se conoce como causar “buena impresión”. El algoritmo dará preferencia a los datos generados por personas o entidades a las que ya estemos siguiendo, o con las que hayamos mostrado nuestra conformidad mediante “me gusta”.
- Prejuicio de retrospectiva. Tendemos a pensar que nuestros recuerdos son fieles, cuando la verdad es que la memoria se modifica a nuestro criterio cada vez que recurrimos a ella, de tal manera que tendemos a reconstruir lo sucedido según nuestra propia complacencia. El algoritmo va modificando su memoria para adaptarla a la actualidad de preferencias.
- Efecto IKEA. Se valora especialmente aquello en lo que se cree participar, aunque sea residualmente. Un mueble será más valorado si yo participo en su montaje. Es más “mío”. El efecto IKEA no se limita al mobiliario, sino que también hay ejemplos de este sesgo cognitivo en los sectores de la moda, de la alimentación, y de la política.
- Aversión a la pérdida. Las personas dan más importancia a una pérdida que a una ganancia equivalente. Y por tanto, el algoritmo, siempre presentará resultados que signifiquen continuación, conservación, evitando introducir novedades que puedan causar alternativas.
- Efecto de selección, o sesgo muestral. El sesgo estadístico conocido como efecto de selección provoca un error que suele cometerse al seleccionar muestras para un estudio. En lugar de elegir las opciones de forma imparcial, los seleccionadores toman las opciones más afines, o más favorables a sus criterios.
- Sesgo de supervivencia. El sesgo de supervivencia provoca que las opciones se elaboren teniendo en cuenta las experiencias positivas y excluyendo las negativas, o las problemáticas, lo que impide obtener resultados acordes con la realidad. El algoritmo siempre tenderá a decirnos lo que cree que queremos escuchar
Aunque hemos hablado solo de los sesgos principales, aunque hablemos de la IA generativa, todo en la IA parte de la misma mentalidad de los programadores, que están sujetos a estos sesgos que hemos mencionado, y a cientos más que el pensamiento humano utiliza para llegar más rápidamente a conclusiones, ya que en ello, muchas veces, puede ir la supervivencia del individuo.
Pero para compensar este “defecto de programación” de la mente humana, que además afecta a todas sus obras, el hombre debe de ejercer su capacidad de discriminación, o pensamiento crítico, que le permite cuestionar incluso sus más profundas convicciones. Esa es la forma en la que evoluciona el pensamiento humano, cuestionando lo que ya cree saber. Eso es lo que la IA aún no es capaz de hacer, no discrimina, no cuestiona, no se pregunta. Aprende, pero no evoluciona. Porque para evolucionar, hay que buscar lo que se desconoce, hay que preguntarse más allá del conocimiento, de la realidad. Ni los sesgos ayudan, ni los algoritmos lo permiten, ni la IA puede aún “imaginar” que tal cosa sea posible, no para ella.





Siento no estar muy de acuerdo contigo Rafael. Soy un periodista muy veterano. Sólo una opinión corta: la actual IA generativa ha sobrepasado una línea roja. Por primera vez en la historia humana, hay en este planeta otra inteligencia avanzada. Es pronto para saber donde nos lleva.
Gracias por tu comentario, Miguel, pero volvemos a la cuestión inicial, un desacuerdo semántico. Tú le llamas inteligencia, como tanta gente, a lo que no es una inteligencia. Sí una herramienta de altísima eficacia, sí un salto en la concepción anlítica de un desarrollo, pero no una inteligencia. No depende de logros, no depende de líneas rojas, no es un problema generativo, el problema es que se convierte sustantivo lo que es un adjetivo.