Los numerosos problemas de la inteligencia artificial

Fabrizio Ferri Benedetti
Escritor y psicoterapeuta interesado en la interacción ordenador-ser humano

 

La “Gran Ciencia”

Desde que fuera inventado por John MacCarthy en el famoso congreso de Darthmouth, el término “Inteligencia Artificial” no ha cesado de provocar reacciones dispares y muy intensas, tanto en el mundo científico como en el “profano”. Cuando pronunciamos ambas palabras, evocamos de pronto imágenes pertenecientes al mundo de la ciencia-ficción, recreamos seres metálicos que emulan la conducta humana o llegamos incluso a considerar la hipótesis de que nuestra lavadora “piense”. No hay, posiblemente, un área de conocimiento tan variada en sus propósitos como tan diferente en la seriedad de las personas que en ella pretenden crear “episteme”.

Estamos lamentablemente acostumbrados a que la “gran ciencia” del siglo XX arrope sus argumentos con una espectacularidad inoportuna que, en muchos casos, revela ser una pantalla para el fraude y la charlatanería. Y a pesar de ello, la I.A. sigue despertando entusiasmo en las mejores mentes de los institutos politécnicos mundiales.

Empleamos aquí la palabra “sigue” porque en muchos de sus objetivos la I.A. no está manteniendo sus promesas. En un principio, la I.A. pretende simular la inteligencia humana, descubrir los mecanismos de resolución de problemas que nos permiten tener éxito en situaciones complejas, y un moderado etcétera. Pero como en toda joven disciplina que se precie, la I.A. no se libra de su “cisma”. Por un lado tenemos aquellos especialistas de las ciencias de la información, de las matemáticas, de la psicología y de todas las ciencias cognitivas en general que, con seriedad y esmero, apoyan una visión llamada “I.A. débil”. Por otro lado tenemos una lista más o menos abundante de científicos (algunos de ellos prestigiosos y otros necesitados de fondos), que apoyan por el contrario la así llamada “I.A. fuerte”.

La I.A. débil, como su adjetivo denuncia, no pretende la construcción o la elaboración de una mente artificial. Su propósito, modesto y sin embargo fértil, consiste en simular rasgos del pensamiento humano para poder traducirlos a una forma digital/algorítimica. Con ello se pretende conseguir resolver problemas como la búsqueda de información o el procesamiento de datos de una forma más efectiva. Muchos escalones más arriba tenemos la I.A. “fuerte”, cuyo objetivo, en el papel, se puede describir más o menos de la siguiente manera: “la reproducción total de los mecanismos mentales humanos en un soporte diferente del tradicional” [en este caso el cerebro, llamado de forma poco cariñosa wetware, (cosa húmeda), en contraste con la más conocida palabra hardware, usada para los componentes informáticos tradicionales].

En pocas palabras, la ambición máxima de esta rama de las ciencias cognitivas es “suplantar” la naturaleza para poder crear una mente en soportes tan variados como el silicio, campos electromagnéticos, o cualquier otro ware físico que permita recrear los procesos de una “máquina de Turing”. Alan Newell, uno de los primeros y más conocidos teóricos en I.A., afirma que para la computación, el soporte es irrelevante (1973). Esto supone que un sistema de procesamiento de la información (o, por comodidad, una mente), puede basarse en un soporte cualquiera, como por ejemplo rollos de papel higiénico: esto no es tan descabellado si se piensa que la máquina universal de Turing funcionaba con una ideal “cinta” de papel perforado.

Este punto de vista —la I.A. fuerte—, que ha tenido mucha influencia en el nuevo dualismo psicológico del cognitivismo, ha producido toda una serie de afirmaciones que pocos dudarían en calificarlas de “polémicas”: es el “inflado” típico de la Great Science. Algunas de ellas son verdaderos obsequios a la exageración y al sensacionalismo más genuino: un ejemplo es Marvin Minsky, que afirma que dentro de unas décadas deberíamos “estar contentos si estuviéramos dispuestos a mantenernos en torno a la casa como animalitos domésticos [de los ordenadores]”. O John MacCarthy, cuando declaró que “máquinas tan simples como los termostatos tienen creencias”. Estas frases dan fe de las características esenciales de la “Gran Ciencia” que se desarrolla a través de la I.A. fuerte.

Ante reflexiones de tintes tan pesimistas como las de Edward Fredkin, jefe del laboratorio de I.A. del MIT, que considera “precaria” nuestra posición en un futuro con “máquinas un millón de veces más inteligentes que nosotros”, hay que preguntarse: ¿realmente es factible lo propuesto por la I.A. fuerte o es simplemente una quimera, un “tragaperras” científico para con los fondos públicos?

Intentos fallidos

Naturalmente la realidad parece ser bastante más compleja y “difusa” que la dicotomía entre lo “posible” y lo “no posible”. Quizá las concepciones de “inteligencia” que se manejen no sean con todo ni siquiera parecidas: es como si un grupo de ingenieros informáticos se hubiera apoderado de la palabra inteligencia e, ignorando todas sus posibles acepciones, la hubiera redefinido desde el punto de vista de potencia y capacidad de proceso.

No sería por lo tanto de extrañar que éstos calificaran algo tan estúpido como un ordenador de “inteligente”, porque sería una inteligencia en tanto que velocidad para resolver problemas. Lo cual es muy discutible, por no decir inexacto. La concepción del ser inteligente como el ser “manipulador-de-símbolos” es una idea en la que prima el procesado de la información pero no el significado de ésta, su semántica. Es la crítica que mueve Searle (1985) con su argumento de la “habitación china”: un procesador con instrucciones para recibir símbolos sin significado y devolver otros símbolos para él sin sentido, podría parecer desde fuera un ser inteligente. Sin embargo, lo único que habría hecho sería manipular símbolos de forma mecánica, aunque, eso sí, enormemente compleja. Un computador digital, en este sentido, es un “elaborador”, un “convertidor” de símbolos, un ábaco prodigioso. Y aún aceptando las criticas de Copeland (1993), que subrayan como el “sistema’ ideado por Searle, en conjunto, sí entiende el chino, esta comprensión en realidad no implica nunca el significado: no maneja un sistema de valores asociado a un ambiente, no emite juicios basados en el provecho ni en estimaciones propioceptivas.

¿Porqué este sistema no podría calificarse de “inteligente’? Porque sería un sistema que no podría moverse en un ambiente de forma adaptativa, que no podría procesar de forma útil los datos como lo hace la inteligencia humana o animal: sería un sistema carente de “intencionalidad”. En ello es muy posible, por no decir totalmente seguro, que influye la naturaleza orgánica, el wetware del cual estamos constituidos; Penrose (1991) llega más allá y afirma que la naturaleza no algorítmica de la inteligencia humana depende de características subatómicas. Sin ir tan lejos, algunas pruebas recientes acerca de las interacciones razón/sentimientos (traducibles en interacciones cognición/emoción) se pueden encontrar en la reciente obra de Damasio (1996) y revisten una importancia particular para la presente digresión: en pacientes con lesiones cuya entidad afectaba los centros emocionales o la correcta relación entre centros de las emociones y centros del procesamiento de la información, se daban desequilibrios no adaptativos para la persona. A lo largo del libro aparecen sujetos que podríamos calificar de inteligentes y que, sin embargo, por su incapacidad de relacionarse con el medio en función de su valor subjetivo, no pueden llevar a cabo una vida independiente.

Cuando vemos robots como el M3 japonés, intentando subir una escalera con dificultad, nos damos cuenta de que difícilmente podemos definir la inteligencia sin tener en cuenta el medio, las demandas y la interacción entre ambos componentes (Piaget, 1964). Aunque nos resulte chocante, la afirmación “pensamos con el estómago” no pierde veracidad por su crudeza. La conducta inteligente, en calidad de conducta, puede, por ejemplo, ser considerada “propositiva” (Tolman, 1932). Una conducta propositiva es una conducta con metas, tendente a un objeto, impulsada por motivaciones, intencional: una máquina debería ser programada teniendo en cuenta este aspecto fundamental de la inteligencia como fenómeno orgánico. Es superfluo notar como programar una máquina para tener hambre o sed no sería útil desde el prisma de la economía constructiva; tampoco lo sería entonces programar en ella necesidades estéticas o impulsos de poder. Sin embargo, ¿tendríamos así un ser funcional e inteligente en el sentido humano, con todo lo que ello implica? La respuesta, por ahora, parece negativa.

Con todo, la investigación en I.A. no hace más que aumentar y prueba de ello son los numerosos proyectos presentados cada año. Dejando a un lado mecanismos lúdicos como el perro Aibo de la casa japonesa Sony, y otros seres artificiales de capacidad muy limitada, por ahora los resultados más espectaculares se han producido a través de software tradicional. La mayoría de veces, este software se ha programado en LISP, un lenguaje creado en el MIT y utilizado casi exclusivamente en I.A. Escribir software resulta por ahora mucho más efectivo y económico que crear pseudoorganismos integrados. Dentro del marco de referencia que es LISP y otros lenguajes similares, han surgido con el tiempo varios programas paradigmáticos de la I.A. y de sus problemas. El primero de ellos es “Eliza”.

Creado por Joseph Weizenbaum, Eliza consiste en un amistoso programa de charla. Una persona se sienta en el terminal y empieza la conversación con el programa. Éste posee un vocabulario limitado, cierta “memoria de trabajo” y una gramática básica. Gracias a la “memoria de trabajo”, Eliza saca palabras clave de la conversación y puede volver a reutilizarlas más adelante, dando la impresión que sigue un hilo o una pauta conversacional. A pesar de la validez aparente del diseño de Eliza, es suficiente empeñar la máquina con verbalizaciones más complicadas de lo normal para apreciar que algo falla:

E: ¿CÓMO ESTÁS? POR FAVOR, EXPÓN TU PROBLEMA.

H: Me preguntaba si los ordenadores pueden pensar.

E:¿PORQUÉ MENCIONAS LOS ORDENADORES?

H: Puesto que tú eres uno de ellos, me había planteado preguntarte: “¿Puedes pensar?”

E: PENSABAS QUE ELLOS PODRÍAN NO SER UNO DEL QUE TÚ PENSABAS
PREGUNTARME, PUEDO PENSAR.

H: Hablemos acerca de ti, no de mí: ¿puedes pensar?

E: TE GUSTA PENSAR QUE YO, NO TÚ, NO ES CIERTO.

H: ¿Perdón?

E: ¿QUÉ TE SUGIERE ESO?

Esta conversación pone en aprietos al programa, que demuestra todas sus debilidades. Eliza ignora toda información contextual y evalúa los inputs de forma mecánica. Es una tecnología basada en la comparación de patrones y el resultado dista mucho de parecerse al de una conversación humana. La famosa prueba propuesta por Turing, es decir, el que un evaluador pueda discernir a través de un terminal la presencia de una máquina u otro humano, es una barrera de por sí infranqueable para la I.A. actual, basada en el algoritmo y en la lógica no-difusa. Con todo, Eliza no dista mucho de ser una compleja calculadora que responde a las palabras con otras palabras (recuérdese el traductor chino de Searle).

Sin embargo, la misma prueba de Turing no se libra de problemas. Copeland (1993) ha descrito algunas objeciones a la prueba. La primera de ellas hace referencia al hecho que animales superiores como los delfines o los chimpancés piensan, pero no pueden superar la prueba de Turing (incluso los niños pequeños). Otras tres se refieren a que una máquina podría superar el test de Turing y no ser capaz de pensar. La “objeción de los órganos de los sentidos” es bastante explícita: un ordenador, aunque pueda manejar conceptos, no puede referirlos al mundo que le rodea (a esto hay que añadir que el procesamiento de las percepciones por parte de las máquinas es por ahora algo muy lento e ineficaz). La “objeción de la caja negra” supone que aunque una máquina lograra pasar la prueba de Turing, el examen de sus mecanismos internos pondría al descubierto la incapacidad real de la máquina para pensar. Finalmente, la “objeción de la simulación” afirma que “la simulación de un proceso X, no es el proceso X”, con lo que, por ejemplo, simular el pensamiento no equivaldría a pensar. Todo esto pone en evidencia que incluso una prueba como la de Turing tiene sus debilidades y que para llegar a un mecanismo capaz de pensar, se deben superar muchos más escollos.

Uno de los más importantes consiste en la obtención y manipulación del conocimiento. Por ejemplo, el GPS, o General Problem Solver, de Newell fue un programa que en su época despertó grandes expectativas. Su código fuente le permitía resolver sencillos acertijos y problemas, como el de los tres misioneros y los tres caníbales, o el de las Torres de Hanoi. Sin embargo, el GPS tenía graves limitaciones, más aún: no era en realidad el programa quien “resolvía” el problema, sino los programadores. De hecho, para lograr que el GPS “solucione” un problema, hay que proporcionarle todas las variables implicadas y esto, una vez más, es trabajar con un programa de cálculo. Decir que el GPS es inteligente equivale a afirmar que la inteligencia es básicamente velocidad de procesamiento y resolución de problemas con variables dadas, con todos los falsos corolarios que se derivan de este postulado.

El GPS ha sido comparado con un “autómata que va dando batacazos hasta hallar la solución” y es una imagen bastante certera de los fracasos en I.A.: la inteligencia humana es ante todo “económica”, “ahorra” posibles caminos para llegar de forma más efectiva a una solución. Un programa de ordenador, por otro lado, sigue una “lógica del bucle”, efectiva para pequeños problemas, pero no práctica para problemas de envergadura mayor. Por si no fuera suficiente, ya hemos comentado que el GPS no puede resolver un enigma si no dispone de variables clave. Tampoco puede representar el problema ante sí mismo, mientras el programador lo hace. Y es precisamente esta representación la que permite la resolución verdadera, lo que ahorra intentos y posibilita alternativas atrevidas o no lógicas, saltando incógnitas prohibitivas; desde este punto de vista, el GPS no hace más que despejar incógnitas: es un programa lógico, pero no inteligente.

Así, el adjetivo “general” o “universal” se ha progresivamente eliminado de la I.A. para ser sustituido por la frase “sistema experto”. Los sistemas expertos admiten desde el principio sus propias limitaciones, y aquí reside su fuerza: programas de soporte para el diagnóstico médico, aplicaciones de reconocimiento de voz o correctores ortográficos, son todos ellos sistemas expertos que operan con éxito en “micromundos”. Estos programas altamente especializados recuerdan los idiots-savants de la literatura médica: personas capaces de decir el día de la semana de un año y mes cualquiera, obtener cualquier potencia de un número entero en segundos, reproducir una escena dibujándola con precisión fotográfica o recordar largas listas triviales de nombres. Estos “islotes de capacidad” son comparables con los programas más avanzados en Inteligencia Artificial, y viceversa. Se podría incluso decir que la inteligencia artificial lograda hasta ahora es de tipo “autista” y paranoide: el programa de ordenador atiende sólo algunos datos de su entorno e ignora otros, es capaz de llevar a cabo algunas tareas, pero no otras. La respuesta es infalible y estereotipada, el punto de vista es único.

El problema del programa de ordenador como idiot savant es el problema del sentido común. Varios expertos en I.A. coinciden en que éste ha sido el problema quizá menos investigado (o el menos investigable) de toda su área de conocimiento. Dotar a un programa de “sentido común” supone darle nociones básicas acerca del funcionamiento del mundo, reglas que se puedan aplicar a cualquier microcosmos, sistemas de generalización efectivos.

Uno de los proyectos más ambiciosos en este sentido es el que Doug Lenat está llevando a cabo con su CYC (trigrama derivado de “enciclopedia”): su objetivo es construir una base de conocimientos que contenga una porción significativa de sentido común (o realidad consensuada) de los occidentales del siglo XX. La opinión de Lenat es que la vulnerabilidad de los sistemas expertos se basa en su “ignorancia”. El proyecto CYC pretende “construir” un pseudo-sentido-común a través de millones (unos 100, según Lenat) de enunciados del tipo “el agua corre hacia abajo”, “tener dinero no impide querer más”, “los seres vivos enferman” y un largo etcétera. Este proyecto, sin embargo, ha recibido criticas por la ontología y la lógica que utiliza, demasiado “basta” y limitada (Copeland, 1993). Todo intento por superar la barrera de la complejidad parece abocado al fracaso. Terry Winograd, programador de Shrdlu, un sistema experto que manipula formas en el espacio, admite que no puede ir más allá de su mismo programa. Millones de líneas de código se amontonan sin que se dé “chispa” alguna de inteligencia en el sentido humano.

¿Realmente puede nacer esta “chispa” en un soporte no orgánico?. Hay quienes consideran que el modelo 0-1 del transistor normal no sea el más adecuado y que los modernos procesadores no distan mucho de la enorme calculadora mecánica de Babbage: son los promotores de la teoría de redes neuronales y procesamiento en paralelo. La naturaleza peculiar del wetware neuronal, el tipo de procesamiento y otras diferencias tangibles con respecto a los elementos bi-estado de los ordenadores tradicionales podrían, según algunos, constituir la fundamental diferencia —y obstáculo— entre la I.A. de silicio y la inteligencia orgánica. Mientras un transistor pasa por dos estados (on y off) y éstos son los que valen para la computación, en el cerebro se tienen además en cuenta la organización de las estructuras, la tasa de descarga y la enorme interconexión y actividad de integración de señales que se lleva a cabo. McClelland, máximo representante del grupo PDP, hipotetiza que dadas estas características de procesamiento, lo que al cerebro humano le ocuparía pocos segundos de elaboración (por ejemplo, leer y comprender lo que está escrito aquí) podría durar años para los más rápidos ordenadores actuales. Las diferencias entre el soporte orgánico y el electrónico no terminan aquí. Parece que el cerebro adopte una estrategia de almacenamiento “difuso”, como un holograma. Esta arquitectura repartida también acarrea como consecuencia el que el cerebro humano sea mucho menos vulnerable a los fallos en sus unidades constituyentes que los ordenadores: si en un ordenador falla un semiconductor, un cable o una patilla, la actividad entera puede perderse; en el cerebro, por el contrario, se da una gran redundancia en el procesamiento, y la pérdida de neuronas no parece afectar con la misma gravedad el procesamiento como ocurre con los ordenadores tradicionales.

Un futuro incierto

Existen experiencias que difícilmente podemos traducir a un lenguaje simbólico. Por ejemplo, el perfume de una flor, el sabor de una sopa, la textura de un tejido, etcétera. Los filósofos han llamado estas unidades de experiencia, qualia. Los qualia escapan a cualquier lenguaje y a cualquier descripción, mas son experiencias comunes a todos los seres humanos. Si una máquina quisiera moverse correctamente en su entorno a la manera humana, deberíamos ser capaces de ‘operativizar’ estos qualia, de darle una forma lógico-matemática. La ciencia actual acepta el fisicalismo y el materialismo como principios de nuestro universo; y a pesar de la posibilidad existente de reproducir, pronto o tarde, cualquier proceso físico, nos hallamos ante una muralla de tal complejidad que difícilmente podríamos concebir en su entereza.

Puede que la Inteligencia Artificial esté más allá de nuestras capacidades, o puede que sea simplemente una cuestión de tiempo. Searle ha notado de forma muy oportuna que el cerebro humano ha sido comparado, a lo largo de la historia, con los últimos avances de la tecnología del tiempo: en época de Descartes, el reloj de agua era el modelo más refinado de mecanismo predecible que existiera. Llegó luego la época del telégrafo; la de la radio; de la centralita telefónica; y finalmente la del computador digital. Pretendemos subsumir la inmensa complicación de nuestras conductas y nuestros cerebros bajo el prisma de mecanismos que hemos creado; sin duda, como escribe Copeland, es mejor intentar algo que quedarse parados. Y de hecho algo, aunque poco, se ha logrado. Humbert, un fuerte crítico de la I.A., ilustró en una metáfora que los progresos hechos en el campo equivalen a los de un árbol intentando alcanzar la Luna. Aún así, nadie puede predecir si se resolverán, y cómo, los problemas planteados hasta la fecha; comprender los principios de la naturaleza, tarea propia de la psicología, es una asignatura pendiente. Cierto es que la espectacularidad y el “inflado” típico de la “Gran Ciencia” no ayuda a despejar el camino de lo que parece ser un largo y difícil viaje.

Referencias

Newell, A.: El concepto de mente, Teorema, Valencia, 1980
Piaget, J.: Psicología e sviluppo mentale del bambino, Einaudi, Roma, 1970
Damasio, A.: El error de Descartes, Drakontas, Madrid, 1996
Tolman, E. C.: Purposal behavior in Animals and men, Appleton, New York, 1932
Searle, J., Mentes, cerebros y ciencia, Cátedra, Madrid, 1985
Penrose, R.: La nueva mente del emperador, Mondadori, Barcelona, 1991
González, F.: Inteligencia Artificial, Anaya, Madrid, 1996
Copeland, J.: I.A., una introducción filosófica, Alianza, Madrid, 1996
Adarraga P. y Zaccagnini J. L.: Psicología e I.A., Trotta, Madrid, 1994