jueves, marzo 30, 2006

Inteligencia Artificial: De HAL hasta nuestros días. (Primera Parte)

HAL
En la primera parte de esta serie de tres artículos, se revisará el pasado, presente y futuro de la Inteligencia Artificial (AI). Examinaremos los orígenes de la máquinas inteligentes y de las redes neuronales.

El término Inteligencia Artificial fue acuñado en 1956 por John McCarthy en una conferencia en el Darmouth College de New Hampsire, pero el concepto de Inteligencia Artificial es en realidad tan antiguo como los ordenadores. Después de todo, el ordenador fue inicialmente desarrollado durante la Segunda Guerra Mundial para romper los códigos que eran demasiado complicados para ser resueltos por humanos y requerían ayuda en forma de inteligencia mecánica de alta velocidad.

Alan Turing, uno de los más célebres rompe-códigos de la Segunda Guerra Mundial además de un matemático excepcional, fue el hombre al que muchos atribuirían el honor de ser el inventor del primer ordenador moderno. Él propuso en 1950 lo que se ha denominado el test de Turing. El test de Turing enuncia que se puede considerar una máquina como inteligente si, en una conversación, responde de forma indistinguible a como lo haría un ser humano. Se trata de una propuesta que muchos calificarían no sólo como el test definitivo de inteligencia mecánica sino también como el momento en que nació la búsqueda para desarrollar la Inteligencia Artificial.

Las tres Leyes de la robótica.

En los primeros días de la informática existía un gran optimismo respecto a la posibilidad de construir máquinas que se comportaran de forma inteligente. En 1942 Isaac Asimov expuso sus tres Leyes de la robótica en la novela corta 'Runaround', que fue publicada posteriormente como parte de la colección de historias cortas 'Yo, Robot'. No mucho después de que el libro fuera publicado uno de los padres de la informática, John von Neuman, dijo: "Insisten en que hay cosas que una máquina no puede hacer. Si se me describe con precisión qué es lo que una máquina no puede hacer, entonces siempre podré construir una máquina que podrá hacer justo esa misma cosa".

Este optimismo se mantuvo durante las siguienes décadas, alimentado por el continuo incremento de potencia y velocidad del hardware, y por los éxitos conseguidos al aplicar la informática a un cada vez más amplio conjunto de actividades humanas.

Muchos creyeron que, dado el ritmo al que crecía la potencia de cálculo de las máquinas, pronto serían capaces de igualar la capacidad intelectual de un ser humano.

Han pasado más de cincuenta años desde el nacimiento de la investigación en inteligencia artificial, la potencia de cálculo es mayor y más barata, y todavía hoy las máquinas inteligentes parecen tan lejanas en el futuro como lo estaban hace medio siglo. De acuerdo con los primeros investigadores de este campo, ya deberíamos estar rodeados por máquinas inteligentes, pero ¿es ésto así, o todavía estamos esperandolas?

El largo camino hacia la inteligencia.

El trabajo en el campo de la inteligencia mecánica comenzó con el ajedrez. El Maniac 1, el primer programa de ajedrez que ganó a un jugador humano, fue presentado en 1956 por Stanislaw Ulam en el Laboratorio Nacional de los Álamos, en Estados Unidos.

Maniac 1, constituyó un éxito en la búsqueda de la inteligencia mecánica e impulsó a un gran número de investigadores de todo el mundo a trabajar en el diseño de ordenadores capaces de jugar al ajedrez.

En 1966 Joseph Weizenbaum desarrolló en el MIT el primer programa de ordenador capaz de establecer una conversación con un humano. Dicho programa se llamaba Eliza. Este programa era capaz de mantener una conversación aparentemente inteligente con un humano, y muchos pensaron que con suficiente potencia y un vocabulario más amplio, dichos algoritmos harían posible que una máquina aprobara el test de inteligencia de Turing.

Shakey, el primer robot dotado movilidad, percepción y capacidad para resolver problemas sencillos, fue construido en 1969 en el Instituto de Investigación de Stanford, California. Este importante hito fue seguido en 1979 por el 'Stanford Cart'.

El 'Stanford Cart' era un robot autónomo controlado por ordenador. Fue diseñado por Hans Moravec en la Universidad de Stanford y era capaz de desplazarse a través de una habitación llena de mobiliario sin chocar ningún objeto.

Durante los 60 y 70, el éxito de estos y otros experimentos similares en inteligencia artificial consiguió reforzar entre los investigadores la creencia de que con suficiente potencia informática y fondos de investigación, pronto serían capaces de desarrollar algoritmos inteligentes.

Fue una época en la que había mucha especulación acerca del impacto que tendrían los ordenadores inteligentes en el futuro; ordenadores como HAL en 2001, una Odisea en el Espacio.

El Proyecto Quinta Generación.

En respuesta a este elevado nivel de optimismo, el Ministro Japonés de Información y Comercio decidió dar un importante salto y anunció, en 1982, un proyecto para desarrollar ordenadores paralelos que pensaban que harían posible la inteligencia mecánica. Fue conocido como el Proyecto Quinta Generación.

El gobierno Americano y la industria respondieron rápidamente, creando una Corporación de Microelectrónica (MCC) y Tecnología Informática e inyectando importante sumas de dinero para la investigación en IA dentro del DARPA (Agencia de Investigación de Proyectos Avanzados de Defensa). Esta atmósfera tan competitiva consiguió que a lo largo de la siguiente década se invirtieran, tanto en Estados Unidos como en Japón, grandes cantidades de dinero en investigación en Inteligencia Artificial.

Este ambiente propició la generación de un flujo de nuevas ideas. Así, los sistemas expertos se transformaron rápidamente en sistemas basados en el conocimiento gracias al desarrollo de lógica basada en probabilidades (Bayesiana), que ofrecía nuevas formas para clasificar, almacenar y usar conocimiento humano. Los primeros trabajos en perceptrones se convirtieron en 'redes neuronales' que mantuvieron viva la promesa de modelar virtualmente estructuras neurales biológicas que pudieran no solo funcionar como clasificadores de patrones sino que tuvieran capacidad para aprender.

Las estrategias de búsqueda fueron muy mejoradas. Se desarrolló el concepto de agentes inteligentes, y se idearon nuevas estrategias de aprendizaje como los algoritmos genéticos. De igual forma, también se desarrollaron tremendamente áreas tales como la visión artificial, la comprensión del lenguage natural y el reconocimiento de voz.

El estallido de la burbuja de la IA.

El objetivo último de todas estas investigaciones e inversión, la creación de una máquina inteligente, eludía sin embargo a los investigadores y, desde principio de los 90, empezó a quedar claro que la esperanza de realizar grandes avances en IA , no iba a ocurrir tan pronto como la gente pensaba 10 años atrás. El entusiasmo de los Gobiernos y Empresas desapareció, los fondos para la investigación en este campo comenzaron a disminuir progresivamente, incluso DARPA retiró gran cantidad de su soporte y muchos proyectos de investigación fueron guardados en un cajón. Para la investigación en IA fue el equivalente del estallido que sufrirían las puntocom en los 90, diez años después.

El fracaso de los investigadores para desarrollar sistemas inteligentes de propósito general fue achacado al hecho de que pusieron su fe en el concepto de que la clave para la inteligencia residía en el razonamiento simbólico. Esta aproximación matemática se basa en que que los conceptos e ideas son representados por símbolos tales como palabras o frases que pueden ser procesadas de acuerdo a las reglas de la lógica.

Entre los investigadores de IA persistía la vieja idea de que deberían existir un conjunto de algoritmos fundamentales que, alimentados con suficiente información producirían eventualmente un sistema inteligente. Los científicos creían que, una vez descubiertos, estos algoritmos generales, podrían ser aplicados a todas las áreas de la investigación en Inteligencia Artificial, desde el procesado de lenguaje natural hasta la visión artificial.

Disminución de fondos.

El fracaso en la búsqueda estos algoritmos generales, junto con la disminución de la mayor parte de los fondos para investigación en IA, llevó a la mayoría de los investigadores a concentrarse en áreas de investigación en las que pudieran cosechar éxitos a corto plazo y por tanto fuera más probable el retorno de la inversión realizada.

La investigación pura en Inteligencia Artificial fue desapareciendo para dejar paso a un número de disciplinas que compartían algo en común: la necesidad de conseguir una cierta inteligencia mecánica o capacidad de aprendizaje.

Aún con todo, muchos de los proyectos iniciales continuaron. El desarrollo de programas de juegos alcanzó un punto álgido en 1997 con la victoria del Gran Maestro del Ajedrez Gary Kasparov por un sistema informático de IBM llamado 'Deep Blue'. Eliza fue desarrollado y mejorado, y en 1995 Richard Wallace desarrolló Alice, un programa que se ha convertido en el chatbot (robot de chat) más famoso del mundo.

Efectivamente, estos programas de Inteligencia Artificial habían alcanzado un nivel de sofistificación tal que eran utilizados de forma cotidiana en sitios Web interactivos y en sistemas automáticos de telefonía de muchas compañías, incluyendo Coca Cola y Burger King.

Mientras tanto, los robots móviles descendientes directos de Shakey han explorado con éxito la superficie de Marte.

... (continuará).

NOTA: Este artículo es principalmente una traducción/adaptación del artículo publicado el 27 de marzo de 2006 en ZDNet UK por Nick Hampshire.