El pasado 29 de diciembre, nuestro querido Director, Feliciano Morales, publicaba en Plaza Abierta un artículo titulado “Inteligencia artificial y consciencia”, sobre el que le expuse, en privado, mi opinión personal.

La cuestión planteada es de suma actualidad y enorme calado. Sin embargo, para alcanzar una visión más completa del problema, creo necesario no perder de vista algunos elementos que, a menudo, quedan diluidos en el entusiasmo tecnológico o en el temor que provoca todo lo nuevo.
Antes de preguntarnos si la inteligencia artificial podrá algún día ser consciente, conviene detenernos en algo previo y más profundo: qué entendemos por consciencia y qué dice esta pregunta sobre nosotros mismos.
Esta inquietud no es nueva. A mediados del siglo XX, autores como Isaac Asimov anticiparon muchos de los dilemas que hoy nos preocupan. En Yo, robot, Asimov no se limita a imaginar máquinas inteligentes, sino que plantea, de manera sorprendentemente lúcida, los problemas morales derivados de su posible autonomía. Sus conocidas Tres Leyes de la Robótica no son simples recursos narrativos, sino un intento temprano de introducir en las máquinas una estructura ética que, en realidad, revela hasta qué punto seguimos necesitando que la responsabilidad última permanezca en manos humanas.
Hoy por hoy, ninguna inteligencia artificial posee consciencia. No existe en las máquinas experiencia subjetiva, interioridad, vivencia de sí, sensación de existir, dolor, gozo, esperanza o miedo. No hay, en sentido estricto, nadie “dentro”.
Los sistemas actuales procesan información, reconocen patrones, producen respuestas coherentes y, en muchos casos, extraordinariamente convincentes. Pero esa apariencia de comprensión no equivale a comprensión real. Del mismo modo que una marioneta puede llorar sobre un escenario sin sentir tristeza, la máquina puede hablar de emociones sin experimentarlas.
La razón por la que la inteligencia artificial parece tan cercana a lo humano no reside en la máquina, sino en nosotros. El cerebro humano está diseñado para atribuir mente allí donde percibe comportamiento intencional. Es un mecanismo evolutivo: reconocer agentes conscientes ha sido vital para la supervivencia. Por eso tendemos a proyectar interioridad incluso en sistemas que no la poseen.
Resulta esencial distinguir entre consciencia y conciencia. La primera es la experiencia de saberse existiendo; la segunda, la capacidad de orientar la propia conducta conforme a valores, responsabilidad y sentido moral.
La inteligencia artificial no posee ninguna de las dos. No se sabe existente y, por tanto, tampoco puede asumir deberes, culpa, responsabilidad ni compromiso ético. Todo lo que hace es consecuencia de procesos matemáticos que optimizan respuestas según datos previos.
Incluso si en un futuro lejano llegáramos a construir sistemas que reprodujeran funcionalmente ciertos aspectos de la mente humana, la aparición de una verdadera consciencia seguiría siendo una incógnita. Ni siquiera comprendemos plenamente cómo surge en nosotros.
Existen teorías que sostienen que la consciencia podría emerger de sistemas suficientemente complejos. Otras defienden que está inseparablemente unida a la vida biológica. Otras, finalmente, consideran que se trata de un fenómeno aún más fundamental, que desborda nuestros modelos actuales.
La respuesta honesta es que no lo sabemos. No hay evidencia de que una máquina sea consciente ni de que lo vaya a ser. Todo lo demás pertenece, por ahora, al terreno de la especulación.
Sin embargo, el mayor peligro de nuestro tiempo no es que las máquinas desarrollen consciencia, sino que los seres humanos renunciemos progresivamente a la nuestra.
Delegar el pensamiento, el juicio, la responsabilidad y la búsqueda de sentido en sistemas automáticos no nos acerca a un futuro mejor; nos acerca a una humanidad cada vez más pasiva, más dependiente y menos libre. La técnica no nos amenaza por su poder, sino por nuestra disposición a abdicar de lo que nos hace propiamente humanos.
La historia nos enseña que cada gran avance técnico despierta temores legítimos. Ocurrió con la imprenta, con la máquina de vapor, con la electricidad o con internet. La inteligencia artificial no es una excepción. No debemos ignorar sus riesgos, pero tampoco convertirla en un fantasma que nos impida pensar con serenidad.
Tal vez la cuestión esencial no consista en preguntarnos si las máquinas llegarán a ser conscientes, sino en interrogarnos sobre nuestra propia consciencia: si sabremos preservarla, cultivarla y ejercerla en un mundo cada vez más automatizado.
Porque el verdadero progreso no se mide solo por el poder de nuestras herramientas, sino por la profundidad de la mirada con la que las utilizamos.





