.

 ......

Por Miguel Angel Sabadell

M.A.Sabadell
es doctor en Física, especializado en Física Teórica. Colabora como divulgador
científico en diversos medios de comunicación.
 
¿Quieres mandarle un e-mail?

IA: ¿Puede pensar una máquina?
(II Parte)
31-1-00
 
La primera pregunta que debemos hacernos acerca de si una máquina es inteligente es cómo podemos saber que lo es. El primero en plantear una posible solución fue el británico Alan Turing. En octubre de 1950 publicaba su famoso artículo Computing Machinery and Intelligence donde apareció lo que desde entonces se conoce como el test de Turing: un perspicaz interrogador se enfrenta a una máquina y a un ser humano sin saber cuál es cuál. Si al final del interrogatorio es incapaz de decidir quién es la máquina y quién es el humano, entonces podemos decir que la máquina piensa.
.........................

Este test, aunque claro, no deja de ser tremendamente parcial: se le pide al ordenador que imite al ser humano pero no a la inversa. "Una máquina no pensará hasta que pueda componer una poesía o un concierto en virtud de sus pensamientos y emociones", decía en 1949 el crítico Geoffrey Jefferson. Sin embargo, si aplicásemos esta prueba a cualquier ser humano tampoco podríamos saber si piensa. ¿Cómo sabemos que lo hace si de lo único que disponemos es de los resultados de lo que sucede en su cerebro, esto es, el poema? "En lugar de discutir continuamente sobre esto, lo normal es suponer cortésmente que todo el mundo piensa", contestaba cínicamente Turing.

Lo más parecido a pasar un test de Turing es lo que realizó un programa de ordenador escrito por K. M. Colby a mediados de los 60. Este programa simulaba a un psicoterapeuta con tanto éxito que algunos pacientes descubrieron que preferían hablar con el ordenador antes que a un psicoterapeuta humano. También se dio el caso inverso en que un ordenador, simulando ser un humano esquizofrénico, consiguió convencer a algunos estudiantes de medicina de que trataban con un ser humano.

Evidentemente, ambos programas eran muy simples y seguían unas reglas básicas. Así, el ordenador esquizofrénico presentaba todos los síntomas y respuestas clásicas de esa enfermedad mental. Con todo, hoy día nos estamos acercando a un momento en que las máquinas se encuentran cerca de lograr pasar el test de Turing, lo que ha provocado que muchos críticos digan que ese test es incompleto y no demuestra nada. Ahora se les exige 'comprensión'. Quizá la mejor manera de entender esta nueva objeción sea la llamada habitación china de Searle.

Comprendiendo el chino

Imaginemos que le encierran en una habitación donde hay fichas con símbolos chinos y un cuaderno con reglas de cómo manipularlas. Entonces personas situadas fuera de la habitación que comprenden el chino le entregan pequeños grupos de símbolos y usted, en respuesta, manipula otros símbolos de acuerdo con las reglas del manual. Una vez que ha terminado, les devuelve el grupo de símbolos que ha generado. "La gente del exterior podría entregarme ciertos símbolos, desconocidos para mí, que significan '¿Cuál es su color favorito ?' y que tras consultar las instrucciones del libro yo devuelvo símbolos, también desconocidos para mí, que significan: 'Mi color favorito es el azul, pero también me gusta mucho el verde'. Estoy superando el test de Turing en lo que a comprender el chino concierne. Y, al mismo tiempo, ignoro totalmente el chino."

Ésta es la línea argumental de Searle. Para este filósofo de la universidad de Berkeley el problema planteado en los últimos decenios en el campo de la IA es si una máquina podrá pensar en virtud de que ejecuta un programa informático, si es el programa, en sí mismo, constitutivo de pensamiento. Para los defensores de esta postura, llamada la IA fuerte, la incógnita se resuelve afirmativamente. Nuestro cerebro trabaja y produce pensamientos siguiendo un algoritmo. Complejo, eso sí, pero es un algoritmo al fin y al cabo. Para Searle la mente no es un programa informático. Según él, los programas se limitan a manipular símbolos pero la mente humana les atribuye significado. Para un ordenador la palabra SILLA es una secuencia de letras : S-I-L-L-A. Para nosotros esa palabra tiene un contenido ; dicho simplemente, podemos imaginárnosla.

Algunos científicos han comparado la postura escéptica de Searle con la del obispo George Berkeley del siglo XVIII : a este irlandés le resultaba totalmente ininteligible que ondas de presión en el aire pudieran, por sí solas, constituir el sonido o ser causa de él. Y así resultó. ¿Por qué no puede ser posible que si algún día diseñamos computadores con el nivel de complejidad del cerebro humano, éstos acaben teniendo mente ? ¿Hay algo que lo impida ? Para el conocido detractor de la IA, Roger Penrose, profesor de matemáticas de la universidad de Oxford, lo que se necesita para comprender el funcionamiento de la mente es una nueva física. Para Penrose, como dice en su libro Shadows of the Mind, "no hay todavía ninguna teoría física, biológica o computacional que se haya acercado lo suficiente a poder explicar la consciencia y, por consiguiente, la inteligencia."

Otros detractores

Otros detractores creen que la IA persigue una quimera. La inteligencia humana es única e irreproducible. El crítico más cáustico y duro de la IA es un filósofo de Berkeley -igual que Searle- llamado Hubert Dreyfus. A mediados de los 60 era asesor de al RAND Corporation, una compañía que estaba involucrada en los avances más importantes de la IA. De su trabajo en RAND salió un informe titulado Alquimia e Inteligencia Artificial donde la comparaba con esa ilusa pseudociencia de la Edad Media. Para Dreyfus el error más grave de la IA es que confunde la regla que uno sigue para hacer algo con la regla que puede utilizarse para describir que alguien está haciendo algo. Yo puedo describir el movimiento de los planetas mediante ecuaciones, pero eso no quiere decir que los planetas resuelvan esas ecuaciones para girar alrededor del Sol, dice Dreyfus.

Muchas de las críticas de este filósofo han quedado obsoletas, pero parte de sus argumentos inciden en el meollo del problema. ¿Realmente la mente humana es única, o estamos defendiendo con uñas y dientes nuestra posición exclusiva en el Cosmos ? Es el llamado 'problema del zombie': aunque sea posible hacer una máquina que se comporte como un ser inteligente, no habrá ninguna forma de saber si lo es. Pero no lo será: será sólo una simulación. Si tuviera cuerpo de humano sería un zombie. Claro está que ¿cómo sabemos que quien dice eso no es también un zombie? Esta postura no es más que una variante de la crítica de Jefferson. La inteligencia al ser humano es lo mismo que el valor al militar : se le supone. A una máquina, no. La inteligencia es un producto del cerebro; el cerebro está compuesto por neuronas, que son cosas materiales. Entonces, ¿Por qué no va a poder ser imitable por otro sistema material?. El problema del zombie se puede plantear desde otro punto de vista. Si mediante un teletransportador de los que aparecen en las películas de ciencia-ficción, cogemos un ser humano y lo transportamos átomo a átomo a otro lado, ¿Ese cuerpo pensaría o no ? Para los detractores más duros de la IA no podría. Para sus defensores, es evidente que sí.

(Continuará...)

. Alan Turing, creador del test de Turing.

 

"Nos estamos

acercando a un

momento en

que las máquinas

se encuentran

cerca de lograr

pasar el

test de Turing"

 

. ENIAC, la primera gran computadora

 

............

 Suscríbete

¡Es gratis!

............