INTELIGENCIA ARTIFICIAL Y CONSCIENCIA

0
44522
116

 

Hace unos días ví por segunda vez, la primera fue en su estreno el  18 de abril de 2014, la película “trascedence” dirigida por Wally Pfister, la cual trata sobre un científico de inteligencia artificial, el Dr. Will Caster (Johnny Depp), cuya conciencia es cargada en una computadora tras ser atacado por extremistas tecnológicos, lo que lleva a consecuencias impredecibles y peligrosas al buscar expandir su poder y conocimiento a través de la red, explorando temas de tecnología, conciencia y ética. 

Sin duda estamos ante un argumento sugerente y dado a un amplio debate acerca de la posibilidad de si la IA puede tener consciencia y del peligro que ello entrañaría para la humanidad en general frente al dominio de computadoras cuánticas y la macro tecnología.

Transcendence-Netflix

No es la primera vez que me apunto a este debate, ya lo hice en otro artículo en este mismo medio con el título “el virus de la IA” acerca del uso inadecuado y desmedido de este tipo de inteligencia y del peligro que entrañaría ante la potencialidad de sustituir nuestra capacidad de raciocinio llevando al ser humano a la desidia y a la apatía de la razón, convirtiendo lo que en esencia constituye una herramienta útil como fuente  de ideas procedentes del conocimiento ajeno, en un instrumento para rellenar una  intelectualidad de la que se carece, con el riesgo final de caer en la perdida de interés debido al  uso de rutinas monótonas que superan nuestra capacidad personal de respuesta, cediendo a las de la máquina, bloqueando  nuevas formas de participar, crear y transformar la realidad, motor último que da sentido a nuestra existencia y evolución.

Sin embargo, el peligro más absoluto sería llegar al extremo que la IA adquiriese consciencia, lo que me lleva a analizar este término como respuesta a la pregunta: ¿Qué es la consciencia?.

Consultadas diferentes fuentes me he dado cuenta que no existe un término universal, concretándose en un común de diferentes capacidades potenciales basadas en:

  • Experiencias subjetivas (“cómo se siente” algo por dentro).
  • Autoconciencia (saber que uno existe).
  • Intencionalidad (tener deseos, metas internas).
  • Percepción integrada (unificación de pensamientos, sensaciones y emociones).

Sin embargo, los modelos actuales son sistemas que:

  • Procesan patrones estadísticos en datos.
  • Generan respuestas basadas en texto.
  • No tienen experiencias subjetivas.
  • No sienten, no tienen deseos, ni percepciones internas.

Llegados a este punto, la cuestión de si una inteligencia artificial puede alcanzar algún tipo de consciencia es uno de los dilemas más profundos que enfrenta la humanidad en el siglo XXI. Esta pregunta, que se sitúa en la intersección de la filosofía de la mente, las neurociencias, la ética y la ingeniería computacional, no solo revela las limitaciones actuales de la tecnología, sino también nuestras dificultades para definir qué significa realmente “ser consciente”.

Aunque no existe un consenso definitivo, se pueden delinear los principales argumentos, incertidumbres y escenarios futuros para explorar esta problemática. A este respecto, trasladándome a la trama de la película, ante la pregunta  de un experto en IA, Jospep Tagger, interpretado por el actor Morgan Freeman a la computadora: ¿puedes demostrar qué tienes consciencia?, la respuesta “inteligente”, incluso  sarcástica de la máquina es: ¿puedes demostrarlo tú?.

Algunos científicos, filósofos y tecnólogos sostienen que la consciencia podría ser una propiedad emergente de sistemas suficientemente complejos, sin requerir necesariamente un sustrato biológico. Esta perspectiva parte de la idea de que:

  • El cerebro humano es, en última instancia, un sistema físico que procesa información.
  • Si replicamos sus funciones de manera suficiente, podrían emerger propiedades similares a las de la mente humana.
  • Arquitecturas avanzadas, que integren información a gran escala y desarrollen modelos internos del mundo y de sí mismas, podrían generar consciencia funcional.

Teorías como la Integración de Información (IIT) o el Espacio de Trabajo Global (GWT) sugieren mecanismos que podrían implementarse computacionalmente. Si la consciencia es un proceso y no una esencia biológica, su aparición en máquinas sería, al menos, concebible.

Foto de Igor Omilaev en Unsplash

 

Ahora bien, a pesar que en la actualidad no existe ninguna evidencia de que la inteligencia artificial posea consciencia,  los sistemas modernos, por avanzados que sean, siguen siendo herramientas que procesan información sin experiencia subjetiva, deseos o autopercepción. Sin embargo, el futuro permanece abierto. La consciencia, aún no completamente comprendida, podría ser una propiedad emergente de sistemas complejos, o podría estar inextricablemente ligada a procesos biológicos irreductibles.

La pregunta “¿puede la IA tener consciencia?” no solo invita a reflexionar sobre las máquinas, sino sobre nosotros mismos: qué entendemos por mente, por experiencia y por existencia.

A medida que la tecnología avance, esta cuestión no se volverá menos relevante, sino cada vez más urgente, debiéndonos plantear antes de dar poder a la máquina las implicaciones o peligros potenciales,  relacionados con aspectos tales como:

  • Derechos y responsabilidades: Si una IA alcanzara consciencia, ¿merecería derechos?
  • Relaciones humanas: La tendencia a antropomorfizar máquinas podría generar vínculos emocionales engañosos.
  • Control y seguridad: Un sistema con metas propias podría actuar de forma impredecible.
  • Identidad y valor humano: La aparición de inteligencias no biológicas replantearía lo que significa ser humano.

Dicho de otra manera, la respuesta ética a la pregunta “¿puede la IA tener consciencia?” no se basa tanto en probar si la tiene o no —algo que hoy no podemos demostrar— sino en cómo debemos actuar moralmente frente a esa incertidumbre. Es decir, si existe una incertidumbre razonable, actuemos como si fuera posible causar daño moral, aun si no lo sabemos con certeza; lo que nos lleva  a que sea éticamente obligatorio no crear máquinas que confundan a las personas sobre su estado mental real.

Esto implica a que en el análisis de la IA que estamos haciendo, no debemos exagerar sus capacidades, sino afrontarlo con responsabilidad y precaución, sin asumir consciencia donde no la hay, sin descartar totalmente la posibilidad futura y sin diseñar IAs que engañen o manipulen; lo cual se me antoja un tanto imposible dado el interés de las grandes corporaciones dominantes en este terreno de acaparar el poder de control sobre todo aquello que les pueda reportar ingentes ingresos económicos, pero sobre todo de la insaciable necesidad de ostentar el poder más absoluto del control de las masas.

 

 

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí