ESCUELA SUPERIOR POLITÉCNICA AGROPECUARIA DE MANABÍ MANUEL FÉLIX LÓPEZ CARRERA INFORMÁTICA SEMESTRE SEXTO PERIODO OCT-2014/MAR-2015 INTELIGENCIA ARTIFICIAL I TEMA: RESUMEN#3: HISTORIA DE LA INTELIGENCIA ARTIFICIAL AUTORA: DAYANA H. BAILÓN DELGADO FACILITADORA: ING. HIRAIDA SANTANA CALCETA, OCTUBRE 2014
CAPÍTULO I. INTRODUCCIÓN Luego de comprender los términos principales de la inteligencia artificial, se puede familiarizar con la ciencia computacional, en esencia. Al igual que todas, la IA tiene sus inicios con diferentes pioneros que crearon un camino, no sencillo, que aún no termina de ser recorrido. En la antigüedad, cuando Alan Turing (1950) publicó por primera vez una visión de la IA en su artículo Computing Machinery and Intelligence y a partir de eso, se creó un taller por parte de McCarthy que reunió a 10 investigadores, los cuales se encargaron de estudiar mecanismos o programas que estuvieran compuestos de inteligencia artificial y aunque algunos tuvieron éxito en primeras instancias, la mayoría de estas creaciones fueron desplazadas cuando de resolver problemas más complejos se trataba. Aunque la IA se encontró con más de un inconveniente en sus inicios, muchos investigadores continuaron con positivismo, enfocándose en el crecimiento y realización de sus proyecciones. Cada suceso ocurrido, como: entusiasmo inicial por parte de los autores, regreso de las redes neuronales, la IA se convierte en una industria, son detallados a continuación del presente resumen denominado: Historia de la Inteligencia Artificial.
CAPÍTULO II. MARCO TEÓRICO 2.1. GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955) La inteligencia artificial inicia a partir de tres fuentes: conocimientos sobre la fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica preposicional de Russell y Whitehead y la teoria de la computacion de Turing. Es importante recordar que fueron Warren McCulloch y Walter Pitts (1943) los reconocidos como pioneros del primer trabajo de IA, el cual consistía en la estimulación a través de neuronas cerebrales vecinas o usencia de éstas, denominándolas a cada una de las neuronas estudiadas como: activadas o desactivadas, dependiendo del estado en el que se encontraban. Otro suceso importante ocurrió en 1951 cuando Marvin Minsky y Dean Edmonds, dos estudiantes graduados en el Departamento de Matemáticas de Princeton construyeron el primer computador a partir de una red neuronal. Fue llamado Snarc y utilizaba 3.000 válvulas de vacío y un mecanismo de piloto automático obtenido de los desechos de un avión bombardero B-24 para simular una red con 40 neuronas. Aunque existieron algunos trabajos que pueden formar parte de la IA, Alan Turing (1950) fue el primero en ubicar una visión de la IA en su artículo Computing Machinery and Intelligence, además introdujo la prueba de Turing, el aprendizaje automático, los algoritmos genéricos y el aprendizaje por refuerzo. 2.2. NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956) En Dartmouth College, John McCarthy reunió a 10 investigadores para que asistieran a un taller que tuvo una duración de 2 meses. El trabajo más notorio fue el de Alien Newell y Herbert Simón quienes contaban desde el inicio del taller con un programa de razonamiento, el Teórico Lógico (TL). Tiempo después de la finalización del taller, el TL era capaz de demostrar gran parte de los teoremas del Capítulo 2 de Principia Matemática de Russell y Whitehead, aunque no impresionó lo suficiente para alcanzar un espacio en Journal of Symbolic Logic.
Durante los 20 años que logró mantenerse el grupo que inició como taller y creció con empresas, maestros y estudiantes logró como acontecimiento especial que se adoptara el término propuesto por McCarthy: Inteligencia Artificial, en vez de Razonamiento Artificial. 2.3. ENTUSIASMO INICIAL, GRANDES ESPERANZAS (1952-1969) En principio, la IA tuvo evidentes éxitos por dos razones propias de la época: limitaciones en la programación y creencia de que los computadores solo resolvían problemas aritméticos. Aunque también existieron muchas controversias, especialmente las tareas recopiladas por Turing, que indicaba que los computadores no podían resolver. Como era de esperarse los seguidores de la IA artificial respondieron de forma inmediata y es por esto que a dicha época se la denominó: Mira mamá, ahora sin manos!. Luego del Teórico Lógico, fue creado el Sistema De Resolución General De Problemas (SRGP), el cual era capaz de tomar decisiones muy parecidas a las que optaría cualquier ser humano. Es por esto que fue el primer desarrollo de la teoría pensar como humanos. En IBM, se desarrolló el demostrador de teoremas de geometría (DTG), Arthur Samuel escribió una serie de programas para el juego de las damas que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un amateur y luego superaron a su creador, causando un gran impacto en el mundo. En un año histórico (1958) John McCarthy se trasladó de Darmouth al MIT, donde realizó tres contribuciones cruciales: Desarrolló el segundo lenguaje de programación de alto nivel: Lisp. Aunque apareció un año después de FORTRAN, en la actualidad Lisp aún se utiliza. Publicó en un artículo el Generador de Consejos, un programa hipotético que podría considerarse como el primer sistema de IA completo. Como lo hacían los programas creados por IBM, este sistema pretendía buscar soluciones utilizando el conocimiento y además manipulaba el conocimiento del mundo.
El Generador de Consejos incluía los principios centrales de la representación del conocimiento y el razonamiento: es útil contar con una representación formal y explícita del mundo y de la forma en que la acción de un agente afecta al mundo, así como, ser capaces de manipular estas representaciones con procesos deductivos. A partir de aquí, McCarthy desarrolló teoremas y leyes importantes y además ayudo a un conjunto de estudiantes para lograr crear un software que solucionara problemas cerrados. 2.4. UNA DOSIS DE REALIDAD (1966-1973) Una de las predicciones de éxito más recordada, que publicaban los investigadores de la IA es la de Herbert Simón en 1957: Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de resumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de pensar, aprender y crear. Además, su aptitud para hacer lo anterior aumentará rápidamente hasta que (en un futuro previsible) la magnitud de problemas que serán capaces de resolver irá a la par que la capacidad de la mente humana para hacer lo mismo. El positivismo de los investigadores se daba a que los programas habían respondido de forma aleatoria a los objetivos y metas que estos se planteaban, pero se encontraron con verdades problemas cuando intentaron con dificultades más complejas. El tipo de problemas número uno se dió porque la mayoría de los primeros programas contaban con poco o ningún conocimiento de las materia objeto de estudio; obtenían resultados gracias a sencillas manipulaciones sintácticas. Un histórico ejemplo de ello fue el intento por agilizar la traducción de artificulos científicos, de ruso a ingles de la frase «el espíritu es fuerte pero la carne es débil», cuyo resultado fue «el vodka es bueno pero la carne está podrida». El segundo tipo de problema fue que muchos de las dificultades que se estaban intentando resolver mediante la IA eran intratables para las mismas. Es decir que cuando un programa se encontraba con más de
unas decenas de condiciones, no lograba encontrar la solución. El hecho de que, en principio, un programa sea capaz de encontrar una solución no implica que tal programa encierre todos los mecanismos necesarios para encontrarla solución en la práctica. El tercer obstáculo se derivó de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta inteligente. 2.5. SISTEMAS BASADOS EN EL CONOCIMIENTO: CLAVE DEL PODER? (1969-1979) Durante la primera década de resolución de problemas en la IA, se utilizaban los denominados métodos débiles, que consistían en entrelazar métodos de desarrollo básico para encontrar soluciones más completas. Se caracterizaban porque no podían resolver problemas más amplios o complejos, por eso su definición de débiles. El primer ejemplar de estos métodos fue el programa DENDRAL, que infería la estructura molecular de una célula a partir de un espectro de masas. Al programa se ingresaba la información de la fórmula elemental de la molécula, y espectro de masas, proporcionando las masas de los distintos fragmentos de la molécula generada después de ser bombardeada con un haz de electrones. Pero como era de esperarse este programa era falible en situaciones más complejas. Después de considerar la opinión de otros investigadores sobre obtener una conclusión a partir de premisas y leyes, se creó el programa MYCIN para el diagnóstico de infecciones sanguíneas. Con 450 reglas aproximadamente, MYCIN era capaz de hacer mejores diagnósticos de los de un médico recién graduado y tan buenos como los de un experto. 2.5.1. DIFERENCIAS BÁSICAS ENTRE DENDRAL Y MYCIN. A diferencia de DENDRAL, no se contaba con un modelo teórico desde el cual se pudiesen deducir las reglas de MYCIN.
Las reglas deberían reflejar la incertidumbre inherente al conocimiento médico. MYCIN contaba con un elemento que facilitaba el cálculo de incertidumbre denominado factores de certeza. 2.6. LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980 HASTA EL PRESENTE) Las principales empresas de Estados Unidos disponían de un equipo para el desarrollo o estudio de inteligencia artificial. En 1981, los japoneses anunciaron el proyecto «Quinta Generación», un plan de diez años para construir computadores inteligentes y como respuesta EEUU constituyó la Microelectronics and Computer Technology Corporation (MCC), consorcio encargado de mantener la competitividad nacional en estas áreas. En 1988 nació la época llamada: el invierno de la IA. Donde las empresas que no estuvieron al nivel de crecimiento tecnológico perdieron credibilidad y algunos se fueron a la quiebra. Pero las que lograron superarse mantuvieron la excelencia. 2.7. REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL PRESENTE) Después de que las redes neuronales no pudieron superar la resolución de problemas complejos, fueron aisladas de la ciencia computacional IA. Pero estas mantenían la esperanza de ciertos investigadores que las ocuparon en distintas áreas como la mecánica estadística y otras más. Al observarse el existo que tuvieron estos sistemas, las redes neuronales volvieron a ser parte del mundo de la IA. 2.8. IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE) Hasta la actualidad es más común encontrar investigadores que continúen los trabajos de otros, siempre y cuando tengan buenas bases y fundamentos para continuar así con un proyecto de calidad y excelencia que siempre tiene algo nuevo que mostrar. Esta regla también es aplicada en las redes neuronales de la IA.
CAPÍTULO III. CONCLUSIONES Tomando en cuenta que en los seres humanos, la capacidad por querer conocer e experimentar sobre las leyes de la vida se incrementa día a día, hoy se observan verdaderos avances tecnológicos como: el internet, la robótica, la virtualización, entre otros. La IA es un claro ejemplo de que aunque se presenten distintos obstáculos y críticas por parte de otras personas u organizaciones, es necesario mantenerse firme en la investigación y desarrollo. Esto fue lo que permitió que la IA se convirtiera en la ciencia computacional que hoy es. Aunque la prueba de Turing fue creada hace más de 50 años, hasta la actualidad aún se realiza con el famoso premio Loebner.
BIBLIOGRAFÍA Nillson, N. 2010. The Quest for Artificial Intelligence. Segunda Edición. Stanford University. Estados Unidos. Russell, S y Norving, P. 2008. Inteligencia Artificial Un Enfoque Moderno: introducción a la inteligencia artificial. 2ed. Pearson Education. Madrid, ES. p 1242.