Upload
jimzsamir
View
216
Download
0
Embed Size (px)
DESCRIPTION
inteligencia artificial y robotica. monografia
Citation preview
HISTORIA Y ANTECEDENTES DE LA IA (INTELIGENCIA ARTIFICIAL)
ANTECEDENTES
La prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra
civilización hasta mediados del siglo XX. En este período se producen hechos que podemos
agrupar en dos líneas:
Una de ella directamente relacionada con la construcción de autómatas que simulaba
desde el punto de vista externo el comportamiento humano o animal, y que solían
funcionar en ayuda de su amo.
La otra línea, referente a la información y automatización del razonamiento lógico y
matemático.
CONSTRUCCION DE AUTOMATAS
Es muy cierto que muchas veces la inteligencia se ha asociado a los aparatos mecánicos
complejos, como es el caso de los autómatas. Y evidentemente, mucho antes de que
surgieran la inteligencia artificial como una disciplina autónoma, hubo una gran cantidad de
consideraciones casi filosóficas sobre la posibilidad de reproducir el ser humano mediante
máquinas.
El nacimiento de la inteligencia Artificial, y el concepto de máquinas inteligentes debe ser
buscado en la mitología griega. Los artefactos inteligentes aparecen en la literatura desde
entonces.
La primera mención de los autómatas aparece en la Ilíada escrita en el siglo VIII a.C. (canto
XVIII), donde leemos que Vulcano fabricaba “veinte trípodes que debían permanecer
arrimados a la pared del bien construido palacio y tenían ruedas de oro en los pies para que
de propio impulso pudieran entrar donde los dioses se congregaban y volver a la casa” y
que era ayudado en su cojera por dos estatuas de oro semejantes a vivientes jóvenes, pues
tenían inteligencia, voz y fuerza”.
Por su parte, la tradición judía creó el mito de “golem” (1580), figura humanoide hecha de
arcilla a la que un rabino podía dar vida propia, convirtiéndola en un perfecto criado (que en
leyendas posteriores llega a escapar de su amo). Hay que decir, sin embargo, que se
requería la intervención divina para conseguir estos espectaculares resultados.
Al llegar el racionalista (s. XVIII), las cosas fueron diferentes. Descartes (1569-1650) había
defendido la tesis del “animal-máquina”: los seres vivos, salvo el hombre, son meros
mecanismos. La mettrie, en 1747, va más allá con su escandaloso “L’ homme machine”:
también el hombre y su comportamiento inteligente son explicables en términos
exclusivamente mecánicos.
Ciertamente existían admirables mecanismos, por ejemplo, los de: El Flautista (1737) que
movía realmente los dedos para producir una melodía, o el pato (1738) capaz de nadar, batir
las alas, comer y expulsar excrementos simulados (figura 1, pág. ). No por casualidad
Vaucanson fue, antes de Jacquard, el inventor del telar automático de tarjetas perforadas.
El español torres Quevedo construyó dos versiones de lo que, sin duda, constituye su más
llamativo invento: el jugador ajedrecista. Se trata de un autómata jugador de final de partidas
de ajedrez: juega el rey y torre blancos (máquina) contra rey negro (jugador humano). El
resultado (victoria de las blancas) del juego está determinado algorítmicamente. Para
simplificar el diseño, el autómata lograba siempre el jaque mate, si bien no por el camino
más corto.
El primer jugador fue construido en 1912 y expuesto en París en 1914, ocasionando gran
sensación. Disponía de un brazo mecánico para mover las piezas, y de sensores eléctricos
en el tablero para conocer su ubicación. El segundo jugador (figura 2, pág. ), de 1920, fue
construido por su hijo Gonzalo, en él el movimiento de las piezas se consigue mediante
imanes dispuestos bajo el tablero. Ambos ingenios eran de naturaleza electromecánica, y se
citan como precursores de la Inteligencia Artificial. Ciertamente, constituyeron el primer
intento exitoso de construir un autómata que jugase realmente a un juego humano, lo que se
venía intentando desde el siglo XVIII.
En 1929 se presenta en Francia el “Philidog”, que seguía el rayo luminoso de una linterna y
ladraba si la intensidad luminosa era excesiva.
El escritor karel Kapek difunde en los años 20 una palabra destinada a tener un gran éxito.
“robot”. En su obra “R.U.R.” (Rossum’s Universal Robots) aparece unos seres creados para
realizar las tareas que el hombre no quiere hacer, que acaban siendo más poderosos que el
mismo hombre, llegando a poner en peligro su existencia. Sin embargo, hasta la llegada de
los ordenadores electrónicos no dispusieron los científicos y técnicos de una herramienta
que permitiera la ejecución de tareas más complejas por parte de dispositivos mecánicos,
que hiciera posible, por así decir, la construcción de robots.
AUTOMATIZACION DEL RAZONAMIENTO
La segunda de las líneas, es la automatización del razonamiento y por tanto, la obtención de
una formalización.
Encontramos en primero a Ramón Llull y su “Ars Magna”, donde describe una gramática
universal para cristianos, musulmanes y hebreos, es decir, “un método científico” de
discusión. Esta ciencia universal consiste en que los místicos de las tres religiones del libro
acepten que dios tiene unos atributos, que hay un cierto número de nombres de Dios”, llull
los describió y creó unas tablas que permitían que cada término pudiese combinarse con los
demás, puesto que todos eran equivalentes y creó una gramática universal con una lógica
binaria, combinatoria.
También encontramos a Leibniz que buscó un álgebra universal que permitiera deducir
todas las verdades, y así “si surgieran controversias no habría necesidad de mayor disputa
entre dos filósofos que entre dos contables, pues bastaría que, tomando en sus manos lápiz,
se sentaran frente a sus pizarras y se dijeran (con un amigo como testigo), calculemos”,
como antecesores de los sistemas formales y de la lógica que tan buen papel juegan en la
moderna inteligencia artificial.
Los estudios matemáticos de Rusell y Hilert, permitieron por primera vez reducir el
razonamiento (o un tipo de razonamiento) a la manipulación abstracta de cadenas de
símbolos, ideas de gran fecundidad en los mecanismos de la inferencia simbólica de la
inteligencia artificial y también en los sistemas de representación del conocimiento.
Las teorías de la computabilidad y de los autómatas porporcionan el vinculo entre la
formalización del razonamiento y las máquinas que estaban a punto de surgir tras la
Segunda Guerra mundial. En este ambiente, no es extraña que la aparición de las primeras
máquinas electrónicas de cómputo fuera seguida inmediatamente por los intentos de
aplicarlas a lo que hoy llamamos IA.
CIBERNETICA
En los primeros años de la informática era habitual hablar de “cerebros electrónicos” y, de
hecho, este era uno de los objetos lejanos que resultaban más del gusto de los pioneros
como Von Neumann.
Más solidez ha tenido las ideas que provenían de la cibernética. La nueva visión, fruto de la
inspiración de Norbert Wiener, quedó publicada a partir de 1948 en su famoso libro
“Cibernetics” y, mas adelante, el mismo Wiener analizo las relaciones de la cibernética con
la sociedad.
Cibernética en un término que ya había sido utilizado en el año 1834 por el francés Ampere,
pero fue redefinido por Wiener como “el campo de la teoría del control y la comunicación,
tanto en las máquinas como en los animales”. En paralelo a la construcción de los primeros
ordenadores electrónicos, la cibernética introdujo nuevos conceptos como los de la retro-
alimentación (feedback), el control y los sistemas auto-organizados.
La cibernética influyó en muchos campos debido a su naturaleza fundamental
interdisciplinar, ligando entre sí la fisiología neurona, la teoría de la información de Shannon,
la lógica matemática y la naciente tecnología informática. De esta forma, las ideas de los
creadores de la cibernética llegaron a ser parte del espíritu del tiempo, e influyeron
fuertemente en los primeros investigadores de la IA.
NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL
Ambiciosos y optimistas se mostraban los pioneros de la IA durante los primeros años de la
era informática. Pero el fracaso de la mayoría de sus proyectos mostro que los problemas
que intentaban resolver era demasiado complicado, tanto teórica como tecnológicamente.
En julio de 1945 Vannevar Bush publicó “As we May Think” una visión del futuro en donde
los ordenadores asistían a los humanos en muchas actividades.
En 1950 Alan Turing presentó un articulo sobre el tema de la IA, titulado “Inteligencia y
Funcionamiento de Máquinas”. En este trabajo propone un “Test de Turing” para determinar
el carácter inteligente o no de una máquina. El test parte del juego donde un interrogador
tiene que descubrir el sexo de dos participantes A y B situados en otra habitación, cuando,
aunque los dos dicen ser mujeres, en verdad son un hombre y una mujer. En la propuesta
original de Turing, se trata de sustituir a la mujer por un ordenador, y que el interrogador
descubriera quien era la máquina de los dos participantes, aunque los dos decían ser
personas. Este objetivo había que cumplirlo incluso sabiendo que los participantes no
estaban obligados a decir la verdad y que, por ejemplo, la máquina podía decidir dar un
resultado erróneo en una multiplicación o decir el resultado lo suficientemente más tarde
después de haberlo obtenido, para engañar al interlocutor sobre su propia habilidad
calculista. En la hipótesis optimista del mismo Turing, más o menos alrededor del año 2000
se podría disponer de ordenadores suficientemente potentes para conseguir que un
interrogador normal no tuviera mas del 70% de posibilidades de realizar la identificación
correcta a los cinco minutos del comienzo de las preguntas. Hay que decir que la predicción
de Turing parece, ahora mismo muy optimista.
Posteriormente, en 1955 fue creado un lenguaje de procesamiento (búsqueda heurística) por
Allen Newell, J.C. Shaw y Hebert Simon que fue considerado como el primer lenguaje
especializado de la Inteligencia Artificial, era el IPL-II (Information Proccessing Language-II)
En verano del 1956 tuvo lugar la “Conferencia del Dalmouth” a Hanover (New Hampshire)
sobre IA, organizada por John McCarthy (Stanford), Marvin Minsky (MIT), Allen Newell y J.C.
Shaw y Hebert Simon, con el patrocinio de la fundación Rockefeller, reunió a todos los que
trabajaban en el recién estrenado campo de la IA. A la Dartmouth Conference, Newell y
Simon ya disponían de un programa pro-IA, el “Logic Theorist” que resolvía problemas de
búsqueda heurística, junto con los principios matemáticos de Whitehead y Rusell. Gracias a
esta conferencia se crearon diferentes grupos de estudio de especialidades en diversas
universidades como el instituto Tecnológico de Massachusetts, MIT (Minsky), Stanford
(McCarthy) y Carnegie-Mellon (Newell y Simon).
Destaquemos también que a mediados de los años 50 John McCarthy y posteriormente el
MIT, diseñaron el lenguaje LISP (List Processing).
De todas formas, la Conferencia del Dalmouth acuñaba la expresión “Inteligencia Artificial” y
predecía que al cabo de 25 años los ordenadores harían todo el trabajo de los seres
humanos, y en 1958 Newell y Simon aseguraban que en 1968 un ordenador seria campeón
mundial de ajedrez y habría demostrado algún teorema importante de las matemáticas.
PERIODO 1956-1969
En este periodo la IA es una actividad académica poco conocida fuera de los círculos
especializados. Durante estos años la IA se caracteriza por una ambición exagerada en los
objetivos que se pretenden lograr, agravándose este hecho por las limitaciones reales del
hardware y del software de la época. Esto abocaría en una gran decepción al final de este
periodo, debiendo la dificultad de obtener resultados y a la constatación teórica de la
imposibilidad de obtenerlos en ciertos casos. Aun así en esta época se realizaron con éxito
varios proyectos menos ambiciosos que supusieron un avance en el campo de la IA (LISP,
SAINT, juego de dama, ELIZA, Student, etc.).
Los proyectos más ambiciosos de esta época fueron el intento del General Problem Solver
(GSP), el Perceptrón, la Traducción Automática y la resolución generalizada de problemas
matemáticos.
Logic Theorist.1956. El logic Teorist fue programado por Alan Newell, Hebert Simon y J.C.
Shaw y buscaba las demostraciones de Teoremas Lógicos. Un teorema lógico tiene la
siguiente forma: supuesto que o bien X o bien Y es verdadera, y supuesto que Yes de hecho
falsa, entonces X es verdadera. El Logic Theorist encontró la demostración de 38 de los 52
teoremas presentes en el capitulo II de los “Principia Mathematica” de Bertrand Ruseel y
Alfred North Whitehead. Sirvió como base para el GPS.
General Problem Solver (GPS). El solucionador General de Problemas fue llevado a cabo
por Alan Newell, Hebert Simon y J.C. Shaw. La filosofía del GPS era que las técnicas para
solucionar un problema pueden separarse del conocimiento específico sobre el problema.
Se trata de un programa que solo resuelve problemas en un microcosmos formalizado. El
programa es capaz de resolver problemas como el de las torres de Hanói. Exactamente del
tipo puzzle en los que descrito el objetivo y la posición final, y dado un listado de los medios
disponibles, GPS puede realizar los ensayos necesarios hasta encontrar la manera de usar
los medios para alcanzar el objetivo (análisis medios-fines). También utiliza la teoría de la
retroalimentación de Wiener.
Perceptrón. Proyecto iniciado en el 1958 por Frank Rosenblatt. Su intención era ilustrar
algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en
mayores detalles con respecto a condiciones específicas y desconocidas para organismos
biológicos concretos. Roseblatt creía que la conectividad existente en las redes biológicas
tiene un elevado porcentaje de aleatoriedad y que la herramienta de análisis más apropiada
era la teoría de probabilidades. El Perceptrón que desarrolló Rosenbatt imitaba el
funcionamiento del ojo humano, el fotoperceptrón como se llamó era un dispositivo que
respondía a señales ópticas.
El Perceptrón era inicialmente un dispositivo de aprendizaje, en su configuración inicial no
estaba en capacidad de distinguir patrones de entrada muy complejos, sin embargo
mediante un proceso de aprendizaje era capaz de adquirir esta capacidad.
Mediante esas investigaciones se pudo demostrar que el Perceptrón era capaz de clasificar
patrones correctamente, en los que Rosenblatt denominaba un entorno diferenciador, en el
cual cada clase estaba formada por patrones similares. El Preceptrón también era capaz de
responder de manera congruente frente a patrones aleatorios, pero su precisión iba
disminuyendo a medida que aumentaba el número de patrones que intentaba aprender.
En 1969 Marvin Minsky y Seymour Papert publicaron su libro: “Preceptrons: An introduction
to Computational Geometry”, el cual para muchos significó el final de las redes neuronales.
En él se presentaba un análisis detallado del Perceptrón, en términos de sus capacidades y
limitaciones, en especial en cuanto a las restricciones que existen para los problemas que
una red tipo Perceptrón puede resolver, la mayor desventaja de este tipo de redes es su
incapacidad para solucionar problemas que no sean linealmente separables. A pesar de
esta limitación, el Perceptrón es aún hoy una red de gran importancia, pues con base en su
estructura se han desarrollado otros modelos de red neuronal como la red Adaline y las
redes multicapa.
LISP (List Procesing). En 1958 John McCarthy anunció el desarrollo del lenguaje LISP (List
Procesing), este fue considerado desde aquel momento como lenguaje de programación de
los investigadores de la IA. El LISP es un lenguaje declarativo funcional.
SAINT (Symbolic Autommatic Integrador). Programa desarrollado por J. Slagle en 1961. Con
el que se inicia la automatización de la integración simbólica.
GTP (Geometry Theorem Prover). Demostrador de Teoremas Geométricos. Programa
desarrollado por Hebert Gelernter y auspiciado por IBM para resolver problemas de
geometría elemental. Se inicio en el 1958. Gelernter trabajó durante tres años, escribiendo y
desarrollando las viente mil introducciones que componían el GPS; pero además tuvo que
diseñar un nuevo lenguaje de programación. GPS funcionaba de atrás hacia delante
(backward), primero exponemos el teorema a demostrar y el programa empieza a construir
cadenas de resultados intermedios que conducen al fin, a teoremas conocidos o a axiomas.
Programa para jugar a las damas. Programa creado por Arthur Samuel en 1962 y al igual
que el proyecto GTP fue auspiciado por IBM. El pregrama era capaz de aprender por si solo.
Aprendía de la experiencia teniendo en cuenta sus errores y éxitos pasados para determinar
su juego en partidas posteriores. Alex Bernstein, cinsiguió también un resultado similar para
el ajedrez. Tras hacerse eco la prensa de estos logros, se creo un escándalo entre los
periodistas y accionistas de IBM en general al considerar que se estaba gastando el dinero
de investigacion en unos objetivos tan frívolos. Con lo que IBM no siguió aportando fondos
para investigaciones en el campo de la IA.
Fracaso de la Traducción Automática. La CIA y otros organismos militares, tras ser
conocedores de la utilización, por parte del ejercito británico, de ordenadores en la Segunda
Guerra Mundial para descifrar códigos secretos enemigos; pensaron que la traducción
automática no seria más dificil, así podrían leer casi en el acto cualquier publicación del
mundo, escrita en cualquier idioma. Después de gastar viente años de investigacion y casi
vienticinco millones de dólares en proyectos de este tipo la NRC (Consejo Nacional de
Investigación, de EE.UU.) puso fin a este tipo de investigaciones con inversión pública
respecto a IA., el ALPAC (Automated Language Processing Advisory Committee, Comité de
Seguimiento del Procesamiento Automático del Lenguaje) arrolló a todos los laboratorios en
los que se realizaban proyectos sobre investigación lingüística, afortunadamente, los centros
de investigación más importantes (MIT, Carneige Mellon y Stanford) se salvaron por no tener
entre manos ningun proyecto asociado a la rama de la Traducción Automática.
Se reconocen las dificultades: concepción errónea de los proyectos, mal conocimiento del
lenguaje, técnicas informáticas inadecuadas, etc. Sin embargo, posteriormente comienzan a
vislumbrarse importantes avances tanto en lingüística teórica como en ciencia informática.
Como anécdota señalamos el resultado que se obtuvo al traducir primero del inglés al ruso,
y el resultado se tradujo de nuevo al inglés:
- Original en inglés: El espíritu es fuerte, pero la carne es débil.
- Resultado despues de traducir al ruso y luego al inglés: El vodka es bueno, pero el
filete está podrido.
Micromundos de Bloques. El proyecto de los micromundos fue ideado por Marvin Minsky y
Seymour Paper en 1963. Tras desistir de sus intentos previos en visión artificial ante la
dificultad que suponía realizar un proyecto de tal magnitud, en los que se intentaba conectae
una cámara de televisión a un ordenador y hacer que la cámara describiera lo que veía.
Minsky opto por llevarla a cabo en un plano más reducido, los Micromundos de bloques.
Los Micromundos no eran otra cosa que “representaciones” de laboratorio de la vida real,
con un aditivo muy especial, el sujeto que interaccionaría con la realidad sería un ordenador
con forma de robot o de simple programa. Se crearon programas capaces de tratar con
objetos geométricos (SHRDLU), robots que manejaban cubos (shakey) y diferentes
programas que “entendían” el inglés para sacar de las frases una determinada información
(SIR y Student). Finalmente en 1969 el proyecto de los Micromundos también fracaso, pues
su “sencillez” no tenía visos de ampliarse y cambiar el prefijo “micro” por uno con un
significado más extenso. ARPA (Advanced Research Proyect Agency) dejo de subvencionar
el proyecto tras acabarse los plazos fijados y ver que no se había logrado ni un 25% de lo
prometido.
STUDENT y SIR. 1964. Daniel Bobrow presentó como tesis doctoral a su profesor, Marvin
Minsky, un programa llamado STUDENT, este era capaz de entender enunciados de
problemas algebraicos escritos en inglés y responder a sus preguntas. Los problemas
característicos que podía solucionar STUDENT son similares al siguiente: “El tío de
Guillermo es dos veces más viejo que el padre de Guillermo. Dentro de dos años, el padre
de Guillermo será tres veces más viejo que Guillermo. La suma de sus edades es 92.
Averiguar la edad de Guillermo”.
A su vez, Bertram Raphael diseña SIR (Semntic Information Retrieval) [Recuperación de
Información Semántica], este programa comprendía oraciones sencillas en inglés que
describían situaciones acerca de pertenencias y relaciones parecidas.
Estos dos programas, SIR y STUDENT funcionan mediante la “comparación de patrones”,
es decir, cuando el programa detecta que unas palabras clave están colocadas de una forma
especial, toma la información necesaria de donde el patrón le aconseja.
ELIZA (o Doctor). Hacia 1965, Weizenbaum trabaja en el MIT, intentando que los
ordenadores hablaran en inglés con la gente. Pensó que los programas existentes como
STUDENT se basaban en dominios limitados, y los dominios que describían esos programas
estaban ligados a la propia estructura del programa. Y dado que Weizenbaum se dio cuenta
de que no podría conseguir ese fin en tan poco tiempo, pensó en crear un programa con
unas cuanteas ideas que se le habían ocurrido. Una de esas ideas era que el conocimiento
sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de
tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el
que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en
funcionamiento una terapia que consistia simplemente en animar a los pacioentes a hablar
de sus problemas, repondiendo a sus preguntas con otras preguntas). El programa en
cuestión recibió el nombre de ELIZA (ahora todo mito de la historia de la I.A.). Aunque a
simple vista ELIZA parece estar hablando animadamente con la persona que le cuenta sus
problemas, la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está
hablando con un “ser” que razona. Un truco es insertar frases a este programa como “ya
veo” o “háblame más acerca de esto”. Algo con lo que contaba a su favor ELIZA era que el
planteamiento de las conversaciones seguierian simpre un patron común de los psicoanálisis
rogeliano.
SHAKEY. 1969. Un equipo de investigacion de Stanford tuvo la atrevida idea de poner
ruedas a su robot, enseguida el ejercito (norteamericano) se mostró interesado por el
proyecto, subvencionándolo por medio del ARPA, la idea de este era convertir al robot de
Stanford en un espía mecánico, capaz de infiltrarse en las líneas enemigas para conseguir
información. Pero la apariencia del robot no parecía capaz ni de cruzar la esquina: una caja
cuadrada, con una cámara de televisión (de 1969), un telémetro y una antena de radio
(figura 3, pág. ). De todas formas el proyecto siguió adelante, y el robot fue bautizado como
Shakey (Temblón). El mundo de Shakey era un Micromundo de Bloques de tamaño natural,
compuesto de siete habitaciones conectadas entre sí por ocho puertas, habiendo en las
habitaciones cubos que Shakey podía manipular, apilando y transportándolos de un lado a
otro. Todo ello siguiendo las instrucciones (en inglés) que le transmitían mediante un
teclado. Finalmente el fracaso de los Micromundos afecto a este proyecto ya que ARPA dejo
de subvencionarlo.
DENTRAL: El primer sistema experto. Tambien en 1965 se inicia la investigacion en la
Universidad de Stanford de sistemas expertos en el programa Heuristic Programming
Project.
En 1965 Feigenbaum entra a formar parte del departamento de informatica de Stanford. Allí
conocio a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas
orgánicas completas. Si se quiere estudiar un compuesto quimico, lo primero que tenemos
que hacer es averiguar su formula quimica. El método habitual de análisis consiste en dividir
el problema en partes más pequeñas. El problema de lederberg era que había demasiadas
combinaciones. Cada fragmento podía corresponder a varias subestructuras, pero sólo una
estructura molecular gobal se ajusaba a todas las restricciones del problema. El
descubrimiento de esa estructura global exigía buscar en un árbol de posibilidades. Fue por
esta razón por la que pusieron al programa el nombre DENDRAL, que significa en griego
“árbol”. Antes de DENDRAL los quimicos sólo tenían una forma de resolver el problema, y
esta era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba
comparándolas con los datos. La realización DENDRAL duró más de diez años (desde
1965).
PERIODO 1970 – 1979
Los problemas debidos al exceso de optimismo y ambición sufridos en el periodo anterior,
llevaron a un replanteamiento de los objetivos a perseguir y se pasó a tratar problemas más
concretos. Como hecho más destacado es el nacimiento de los sistemas expertos y la
recuperación que trajó dentro del campo de la Inteligencia Artificial, ya que supuso el regreso
de las inversiones. Los sistemas expertos o sistemas de producción con reglas tratan
problemas restringidos o un entrono limitado. Dos de los sistemas expertos más populares
son el MYCIN y el PROSPECTOR, de los que hablaremos a continuación.
En este periodo, tambien se inicia la institunacionalización de la comunidad científica que
trabaja en el campo de la Inteligencia Artificial. Poco despues, en el año 1970, aparece el
primer número de la revista especializada Artificial Intelligence.
Otra de las diferencias con el periodo anterior es que la I.A. se extiende de los ámbitos
académicos a los centros de investigación y a las universidades, donde las aplicaciones ya
no son tan teóricas y además de tratar problemas matemáticos y demostraciones de
teoremas se realizan aplicaciones mas experimentales, como los sistemas expertos y la
programación lógica. Dentro de la programación lógica se logra uno de los avances más
destacables con la aparición en 1972 del lenguaje PROLOG.
MYCIN. 1976. Desarrollado por Eduard Feigenbaum, Bruce Buchanan en la Universidad de
Stanford y documentado por Edward Shortliffe. MYCIN se trataba de un sistema experto
para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de
sangre, cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo
menos, sugerir el microorganismo que esaba causando la infección. Despúes de llegar a una
conclusión, MYCIN prescibpia una medicacion que se adaptaba perfectamente a las
caracteristicas del sujeto, tales como el peso corporal de este. Despues del reconocido éxito
que tuvo MYCIN entre la comunidad científica de I.A. e investigadores de medicina, los
autores del programa pusieron a disposición de otros investigadores una versión de MYCIN
que contenía el motor “inferencial” de este para que fueran los propios usuarios los que
insertasen al programa información respecto al tema a tratar; se podría decir que esta
versión “adaptada” del original MYCIN, era el primer entorno de desarrollo de sitemas
expertos.
PROSPECTOR. Documentado por P.E. Hart (1978) y R. Dudal (1979). Era un sistema
experto para evaluar los yacimientos de minerales, en particular de cobre y uranio.
PROLOG (Programing Logic). Desarrollado en 1972 por la Universidad de Marseille bajo la
dirección de Alan Colmerauer. Prolog se asa en la definición y después en la resolución de
formulas logicas. Prolog al igual que LISP es un lenguaje declarativo, ya que el programa
consiste en una lista de hechos y reglas en lugar de una serie de comandos.
XCON (Expert Configurer) [Configurador Experto]. 1979. John Mc Dermott. XCON es el
primer sistema experto con aplicaciones en el mundo real fuera de los ámbitos académicos y
de los laboratorios de investigación.
DEC iba a lanzar una nueva serie de ordenadores, los llamados VAX. Dado que todos los
ordenadores tenian configuraciones distintas entre sí, la VA estaba previniendo el enorme
cuello de botella que se iba a formar, cuando los ordenadores tuviesen fallos de
configuración y hubiese ue arreglar este problema uno por uno, por el consiguiente gasto de
tiempo y dinero que eso suponía. Los directivos de la DEC contrataron a John McDertmott.
Con el cometido de realizar un sistema experto que configurase todos los ordenadores que
saliesen de la DEC. El informe de viabilidad de McDermontt expuso resultados
prometedores, y en diciembre de 1978 se empezó a trabajar en el proyecto. En abril de 1979
el equipo de investigación que lo había diseñado (con McDermontt a cargo), pensó que ya
estaba preparado para salir y “conocer el mundo”, fue entonces cuando se hizo una prueba
real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tan
alto, anhelado por McDermontt y compañía, se quedó en un 20% al ser contrastado con la
realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año
(1979) funcionó con resultados positivos en la DEC. En 1980 XCON se instauró totalmente
en DEC. Y en 1984, el XCON había crecido hasta multiplicarse por diez. En 1986 la
compañía habia invertido mas de cincuenta años/hombre en el programa, pero se estaba
recuperando con creces de su inversión al ahorrarse cuarenta millones de dólares al año.
PERIODO: 1980 Y PRINCIPIOS DE LOS 90
Este periodo viene marcado por el éxito de los sistemas expertos y durante los años ochenta
aparecen empresas y poyectos especializados en ofrecer soluciones comercializables
basadas en las técnicas de la I.A. La I.A. se consolidó en cada vez más empresas que
desarrollaron las “máquinas lisp” (ordenadores que ejecutaban programas de LIPS con la
misma rapidez de un ordenador central) y los SHELLS (herramientas de desarrollo de
sistemas expertos). Ejemplos de sistemas expertos que se comercializaron en esta epoca
son el DELTA, de la General Electric Company, que ayudaba a los mecánicos en la
reparacion y en el diagnostico de locomotoras diesel; el Aldo en Disco para la reparacion de
calderas hidroestaticas giratorias usadas para la eliminacion de bacterias y el EURISKO
capaz de perfeccionar su propio cuerpo de leyes heurísticas por induccion.
Cada vez más el mantener la base de datos de reglas de los sistemas expertos actualizada
era mas costoso, El XCON llego a tener 10.000 reglas con lo que Dec tenia que gastar
anualmente 2 millones de dolares en el mantenimiento de la Base de onocimientos.
Actualmente este mantenimiento supone una de las actividades más importantes de la I.A.
El Ministerio de Industria y Comercio Internacional de Japón impulsa desde 1979 un
proyecto (Quinta generacion de ordenadores) conjunto de varias empresas que pretendia
desarrollar una nueva generacion de ordenadores daptados a las necesidades que se
preveían para la decada de los 90 y que basarian su funcionamiento en tecnicas de la I.A.
Finalmente el proyecto finalizo en 1992, pero aunque se obtuvieron ciertos avances en
procesamiento paralelo, procesamiento del lenguaje natural, programacion logica y en el
tratamiento de la informacion, no supuso ninguna revolucion ni ningun gran cambio ni
ventaja tenologica. Seguidamente Japón se lanzo a otro nuevo proyecto Real World
Computing (RWC) Project, cuyasvias de investigacion, son las redes neuronales, los
computadores opticos y la facilidad de uso de los ordenadores.
Por aquel entonces, el proyecto japones sirvió para estimular la inversión en Inteligencia
Artificial de otros paises. Sobre todo a raíz de la publicaion del liro The Fifth Generation de
Feigenbaum y McCorduck en 1983 que advertía del “peligro” de una superioridad del Japón
en el futuro de la informpatica a traves del dominio de las técnicas de la I.A.
En 1980 se crea el sistema experto matematico MAPLE. Mas tarde en 1988 se crea otro
sistema experto matemático importante el Mathematica. Ambos sistemas permiten trabajar
directamente, es decir sin tediosas programaciones, con expersiones simbólicas como
polinomios, derivadas, integrales indefinidas, matrices, tensores, grupos, funciones
especiales, y métodos altamente sofisticados. En 1982 se fundó el ECCAI (European
Coordinating Committee for Artificial Intelligence).
En 1985 la Nasa desarrolla CLIPS, es un generador de sistemas expertos que está
codificado en lenguaje C, y que implementa un lenguaje propio para desarrollar sistemas
expertos. Como principal característica se puede citar que uenta con tres paradigmas de
programación: orientado a reglas, procedural y orientado a objetos. También en este mismo
año se programa un juego de Ajedrez Hitech que alcanza el nivel de un Gran Maestro.
Apartir de 1986 se recuperan los viejos esquemas del Perceptron en las Redes Neuronales.
En1987 supuso el fin de las “maquinas LISP”, debido a la aparición de los
microordenadoresde Apple e IBM con potencia parecida a las maquinas LISP, y la
programacion en C del software utilizado en I.A. para los nuevos microordenadores.
En 1989 se constituye el Centro de Inteligencia Artificial (CIA), en España, más tarde, se
formaria la Asociacion Española Para la Inteligencia Artificial (AEPIA).
AÑOS 90 Y EL PRESENTE
Uno de los hechos más populares que cualquiera conoce sobre la IA es la victoria de Deep
Blue (computadora de IBM que jugaba al ajedrez), contra kasparov en 1997.
Pero recientemente en la industria japonesa han aparecido diversos Robots que han servido
para ejemplificar el estado actual de la Inteligencia Artificial. Primero fue Honda con ASIMO
(acrónimo de “Advanced Step in Innovative Mobility”- paso avanzado en movilidad
innovadora), es un robot humanoide creado en el año 2000 por la empresa Honda, un robot
conforma humanoide capaz de andar y subir escaleras (figura 4, pág. ).
SONY ha comercializado con éxito una serie de robots-perro, el AIBO (figura 5, pág. )
Artificial Intelligence Robot (Robot de Inteligencia Artificial).
Al robot AIBO se le han programado emociones e instintos. Actúa de modo que intentara
satisfacer sus deseos originados en sus instintos. Si se los satisface, aumentrán sus niveles
de alegría, en caso contrrio, se pondrá triste o furioso. Como todo ser viviente, Aibo
aprendera a lograr lo que “desea”. En ocasiones, moverá sus patas con furia o mostrará
otras señales de bronca si no recibe de su amo la atención que requiere. De este modo, la
manera en que el amo responde a las expresiones de emotividad de Aibo influirá en su
personalidad y “crecimiento”. El robot, tiene reconocimiento de voz, hasta 40 voces y puede
recordar el nombre que se le dé y responder. Escapaz de expresar emociones.
CRITICAS
Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar
por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene
capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han
propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería
resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de
problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la
solución.
Muchas personas consideran que el test de Turing ha sido superado, citando
conversaciones en que al dialogar con un programa de inteligencia artificial para chat no
saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test
de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con
una máquina.
Otros experimentos mentales como la Habitación China de John Searle han mostrado cómo
una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin
siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está
pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si
para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es
muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante
reglas definidas a priori.
Uno de los mayores problemas en sistemas de Inteligencia Artificial es la comunicación con
el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los
inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para
comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que
un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el
humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma
distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario
en la lengua que el usuario utiliza.
Los desarrollos en Inteligencia Artificial son mayores en los campos disciplinares en los que
existe mayor consenso entre especialistas. Un sistema experto es más probable de ser
programado en física o en medicina que en sociología o en psicología. Esto se debe al
problema del consenso entre especialistas en la definición de los conceptos involucrados y
en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el
concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los
conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto
dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que
se esperaría que el sistema haga.
A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico
y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini
Sancho, 1994).
CUESTION FILOSOFICA
La Vida Artificial también nos ofrece una "visión privilegiada" de nuestra realidad. No hace
falta que las simulaciones por ordenador sean todavía más complejas, para poder tener el
derecho a preguntarnos acerca de si nuestro propio mundo no será también una "simulación
dentro de un cosmo-ordenador". De hecho, esta pregunta se ha planteado, desde tiempos
remotos, de infinidad de maneras.
Si los ordenadores son capaces de simular universos artificiales poblados por organismos
que mediante la reproducción, las mutaciones y la selección natural, evolucionan y se hacen
cada vez más inteligentes y conscientes, podríamos interpretar nuestro propio mundo como
un "superordenador" donde nosotros mismos somos los "seres artificiales" que lo habitan,
siguiendo el curso de evolución que El Programador ha deseado.
En el caso de que existiera un creador y una intencionalidad, es decir, si El Programador que
nos ha creado lo ha hecho con algún objetivo, no sería extraño que ese mismo programador
hubiera implementado mecanismos para que sus "entidades" (nosotros) no escapen a su
control. Pero las limitaciones que el programador fija para controlar a sus entidades pueden
no ser suficientes. Algunos programadores de Vida Artificial quedan a menudo gratamente
sorprendidos por el inesperado comportamiento de sus pequeñas creaciones, más
inteligentes y capaces de lo que cabría esperar en un primer momento.
Además, los "bugs" (errores) en programación son probablemente una constante en todos
los universos, dimensiones y realidades posibles, así que tal vez el "programador" haya
dejado algún hueco por donde podamos colarnos; es decir, que es posible que en nuestro
mundo existan acciones, comportamientos, o razonamientos con efectos maravillosos, que
están ahí, accesibles, pero que aún nadie ha realizado, ya sea por ignorancia, mala suerte, o
porque provocan la muerte a quien llega a adquirirlos. Un ejemplo de esto último se
encuentra en "Creced y Multiplicaos", de Isaac Asimov.
ESCUELAS DE PENSAMIENTO
Inteligencia artificial convencional
Se conoce también como Inteligencia Aritificial simbólico-deductiva. Apartir de Bases de Conocimiento estaticas a las que se aplica un analisis formal estadistico para emular el comportamiento humano frente a problemas concretos. Siel problema cambias sus restricciones se requiere actualizar la base de conocimiento.
Esta basada en el analisis formal y estadistico del pomportamiento humano ante diferentes problemas:
Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resulven
ciertos problemas concretos.
Sistemas expertos: Infieren una solucion, a traves del conocimiento previo del
contexto, en que se aplica y ocupa de ciertas reglas o relaciones.
Redes bayesianas: Propone soluciones mediante inferencia estadistica.
IA basada en comportamientos: que tienes autonimia y pueden auto-regularse y
controlarse para mejorar.
Smart Process Management: Facilita la toma de decisiones complejas, proponiendo
una solucion a un determinado problema al igual que lo haria un especialista en la
actividad.
Inteligencia artificial computacional
La Inteligencia Computacional (también conocida como Inteligencia Aritificial subsimbólica-
inductiva). La Inteligencia Computacional combina elementos de aprendizaje, adaptación,
evolución y Lógica difusa para crear programas que son, en cierta manera, inteligentes. La
investigación en Inteligencia Computacional no rechaza los métodos estadísticos, pero muy
a menudo aporta una vista complementaria. Las Redes Neuronales son una rama de la
inteligencia computacional muy relacionada con el aprendizaje automático
RAMAS DE LA INTELIGENCIA ARTIFICIAL
Aquí se brinda una lista de algunos de las muchas que existen dentro del estudio de la
Inteligencia Artificial e inclusive muchos de estos son considerados conceptos o tópicos.
INTELIGENCIA ARTIFICIAL LOGISTICA
Sistemas con programación que tiene una base de datos con conocimiento general sobre el
mundo que los rodean y dentro de estos tienen data de cómo reaccionar a las situaciones
específicas. El fin de estos sistemas es representar en oraciones soluciones a problemas
mediante un lenguaje matemático tal como algoritmo. El énfasis se hace mediante el análisis
de información y la reacción de este según su fuente de datos.
APRENDIZAJE POR EXPERIENCIA
Los sistemas van aprender a reaccionar y actuar de acuerdo a situaciones anteriores, es
decir el sistema tomara en cuenta decisiones pasadas para reaccionar a situaciones
corrientes. A medida que va obteniendo experiencia en situaciones similares las archiva en
su base de datos como memoria.
AGENTE INTELIGENTE
Un agente inteligente, es una entidad capaz de percibir su entorno, procesar tales
percepciones y responder o actuar en su entorno de manera racional, es decir, de manera
correcta y tendiendo a maximizar un resultado esperado.
En este contexto la racionalidad es la característica que posee una elección de ser correcta,
más específicamente, de tender a maximizar un resultado esperado. Este concepto de
racionalidad es más general y por ello más adecuado que inteligencia (la cual sugiere
entendimiento) para describir el comportamiento de los agentes inteligentes. Por este motivo
es mayor el consenso en llamarlos agentes racionales. Un agente inteligente puede ser una
entidad física o virtual. Si bien el término agente racional se refiere a agentes artificiales en
el campo de la Inteligencia Artificial, también puede considerarse agentes racionales a los
animales incluido el hombre.
Los agentes inteligentes se describen esquemáticamente como un sistema funcional
abstracto. Por esta razón, los agentes inteligentes son a veces llamados Agentes
Inteligentes Abstractos (AIA) para distinguirlos de sus implementaciones del mundo real
como sistemas informáticos, los sistemas biológicos, o de organizaciones. Algunas
definiciones de agentes inteligentes hacen énfasis en su autonomía por lo que prefieren el
término agente inteligente autónomo. Y otros (en particular, Russell y Norvig (2003))
consideran conducta dirigida a objetivos como la esencia de lo inteligente y prefieren un
término tomado de la economía "Agente Racional".
En Ciencias de la Computación el término agente inteligente puede ser usado para referirse
a un agente de software que tiene algo de inteligencia, independientemente de si no es un
agente racional por definición de Russell y Norvig. Por ejemplo, programas autónomos
utilizados para asistencia de un operador o de minería de datos (a veces denominado
robots) son también llamados "agentes inteligentes".
LOGICA DIFUSA
Se utiliza para la resolución de una variedad de problemas, principalmente los relacionados
con control de procesos industriales complejos y sistemas de decisión en general, la
resolución la compresión de datos. Los sistemas de lógica difusa están también muy
extendidos en la tecnología cotidiana, por ejemplo en cámaras digitales, sistemas de aire
acondicionado, lavarropas, etc. Los sistemas basados en lógica difusa imitan la forma en
que toman decisiones los humanos, con la ventaja de ser mucho más rápidos. Estos
sistemas son generalmente robustos y tolerantes a imprecisiones y ruidos en los datos de
entrada. Algunos lenguajes de programación lógica que han incorporado la lógica difusa
serían por ejemplo las diversas implementaciones de Fuzzy PROLOG o el lenguaje Fril.
Consiste en la aplicación de la lógica difusa con la intención de imitar el razonamiento
humano en la programación de computadoras. Con la lógica convencional, las
computadoras pueden manipular valores estrictamente duales, como verdadero/falso, sí/no
o ligado/desligado. En la lógica difusa, se usan modelos matemáticos para representar
nociones subjetivas, como caliente/tibio/frío, para valores concretos que puedan ser
manipuladas por los ordenadores.
En este paradigma, también tiene un especial valor la variable del tiempo, ya que los
sistemas de control pueden necesitar retroalimentarse en un espacio concreto de tiempo,
pueden necesitarse datos anteriores para hacer una evaluación media de la situación en un
período anterior.
SISTEMAS EXPERTOS
Es una aplicación informática capaz de solucionar un conjunto de problemas que exigen un
gran conocimiento sobre un determinado tema. Un sistema experto es un conjunto de
programas que, sobre una base de conocimientos, posee información de uno o más
expertos en un área específica. Se puede entender como una rama de la inteligencia
artificial, donde el poder de resolución de un problema en un programa de computadora
viene del conocimiento de un dominio específico. Estos sistemas imitan las actividades de
un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de
inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo
(hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el
seguimiento de una acción).
Para que un sistema experto sea herramienta efectiva, los usuarios deben interactuar de una
forma fácil, reuniendo dos capacidades para poder cumplirlo:
1. Explicar sus razonamientos o base del conocimiento: los sistemas expertos se deben
realizar siguiendo ciertas reglas o pasos comprensibles de manera que se pueda
generar la explicación para cada una de estas reglas, que a la vez se basan en
hechos.
2. Adquisición de nuevos conocimientos o integrador del sistema: son mecanismos de
razonamiento que sirven para modificar los conocimientos anteriores. Sobre la base
de lo anterior se puede decir que los sistemas expertos son el producto de
investigaciones en el campo de la inteligencia artificial ya que ésta no intenta sustituir
a los expertos humanos, sino que se desea ayudarlos a realizar con más rapidez y
eficacia todas las tareas que realiza.
Ventajas
Permanencia: A diferencia de un experto humano un SE (sistema experto) no
envejece, y por tanto no sufre pérdida de facultades con el paso del tiempo.
Duplicación: Una vez programado un SE lo podemos duplicar infinidad de veces.
Rapidez: Un SE puede obtener información de una base de datos y realizar cálculos
numéricos mucho más rápido que cualquier ser humano.
Bajo costo: A pesar de que el costo inicial pueda ser elevado, gracias a la capacidad
de duplicación el coste finalmente es bajo.
Entornos peligrosos: Un SE puede trabajar en entornos peligrosos o dañinos para el
ser humano.
Fiabilidad: Los SE no se ven afectados por condiciones externas, un humano sí
(cansancio, presión, etc.).
Consolidar varios conocimientos.
Apoyo Académico.
Limitaciones
Sentido común: Para un Sistema Experto no hay nada obvio. Por ejemplo, un sistema
experto sobre medicina podría admitir que un hombre lleva 40 meses embarazado, a
no ser que se especifique que esto no es posible ya que un hombre no puede
procrear hijos.
Lenguaje natural: Con un experto humano podemos mantener una conversación
informal mientras que con un SE no podemos.
Capacidad de aprendizaje: Cualquier persona aprende con relativa facilidad de sus
errores y de errores ajenos, que un SE haga esto es muy complicado.
Perspectiva global: Un experto humano es capaz de distinguir cuales son las
cuestiones relevantes de un problema y separarlas de cuestiones secundarias.
Capacidad sensorial: Un SE carece de sentidos.
Flexibilidad: Un humano es sumamente flexible a la hora de aceptar datos para la
resolución de un problema.
Conocimiento no estructurado: Un SE no es capaz de manejar conocimiento poco
estructurado.
REDES NEURONALES
Las Redes de Neuronas Artificiales (en inglés: “ANN”) son un paradigma de aprendizaje y
procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los
animales. Se trata de un sistema de interconexión de neuronas en una red que colabora
para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas
como redes de neuronas o redes neuronales.
Las redes neuronales consisten en una simulación de las propiedades observadas en los
sistemas neuronales biológicos a través de modelos matemáticos recreados mediante
mecanismos artificiales (como un circuito integrado, un ordenador o un conjunto de
válvulas). El objetivo es conseguir que las máquinas den respuestas similares a las que es
capaz de dar el cerebro que se caracterizan por su generalización y su robustez
Las redes neuronales artificiales (RNA) tienen muchas ventajas debido a que está basado
en la estructura del sistema nervioso, principalmente el cerebro.
Aprendizaje: Las RNA tienen la habilidad de aprender mediante una etapa que se
llama etapa de aprendizaje. Esta consiste en proporcionar a la RNA datos como
entrada a su vez que se le indica cuál es la salida (respuesta) esperada.
Auto organización: Una RNA crea su propia representación de la información en su
interior, descargando al usuario de esto.
Tolerancia a fallos: Debido a que una RNA almacena la información de forma
redundante, ésta puede seguir respondiendo de manera aceptable aun si se daña
parcialmente.
Flexibilidad: Una RNA puede manejar cambios no importantes en la información de
entrada, como señales con ruido u otros cambios en la entrada (por ejemplo si la
información de entrada es la imagen de un objeto, la respuesta correspondiente no
sufre cambios si la imagen cambia un poco su brillo o el objeto cambia ligeramente).
Tiempo real: La estructura de una RNA es paralela, por lo cual si esto es
implementado con computadoras o en dispositivos electrónicos especiales, se pueden
obtener respuestas en tiempo real.
DEFINICIONES Y CONCEPTOS DE INTELIGENCIA ARTIFICIAL
Algunas definiciones sobre inteligencia Artificiaal son:
La Inteligencia Artificial estudia cómo lograr que las máquinasrealicen tareas, que por
el momento, son realizadas mejor por los seres humanos.
La Iinteligencia Artificial trata de encontrar las técnicas para diseñar y programar
máquinas –computadoras- que emulen nuestras capacidades mentales.
La Inteligencia Artificial es el área que trata de analizar o estudiar el comportamiento
humano, y llevarlo a máquinas (computadores).
La Inteligencia Artificial es la emulación de un comportamiento inteligente, como
reacciona, como aprende. Se trata de dotar de esta inteligencia artificial a seres no
vivos (computadoras), con el fin de ayudar a la humanidad.
Se denomina Inteligencia Artificial a la rama de la informatica que desarrolla procesos
que imitan a inteligencia de los seres vivos. La principal aplicación de esta ciencia es
la creacion de máquinas para la automatización de tareas que requieran un
comportamiento inteligente.
IMPORTANCIA DE LA INTELIGENCIA ARTIFICIAL
Las computadoras son fundamentales hoy día en nuestras vidas afectando todos los
aspectos de esta.
La Inteligencia Artificial se crea con la implementación en las computadoras para realizar
mecanismo de computación que utiliza programas fijos y contiene una seria de reglas que lo
hacen funcionar. Esto permite a las computadoras a ser creadas en maquinas artificiales que
desempeñan tareas monótonas, repetitivas y simples mas eficiente y efectivas que un ser
humano.
Estudios sobre trabajos o tareas repetitivas han demostrado que el ser humano no le
agrada este tipo de trabajo y al pasar el tiempo son más susceptibles a cometer errores en el
mismo. Para situaciones complejas el objetivo se hace mas complejo debido a que la
inteligente artificial dada a las computadoras tienen dificultad en entender ciertas
situaciones o problemas específicos y como reaccionar a estas. Tambien ocurre que dentro
de un problema tienen la variabilidad del mismo y no pueden adaptarece a un cambio que
pueda ocurrir. Estos problemas son de suma importancia para la Inteligencia Artificial que
busca el mejorar, aprender, entender y el razonamiento del comportamiento de las
computadoras en situaciones complejas.
El campo de la ciencia de Inteligencia Artificial esta todavía en etapas de crecimiento
comparadas con otras ramas de computadoras pero poco a poco el estudio del
comportamiento humano dará paso para aplicar estos conocimientos a las computadoras y
estas lograr de manera primitiva razonas sobre diferentes situaciones. La complejidad en
aplicarle conocimientos del ser humano a las computadoras es la capacidad de estos de ser
impredecible y las maneras diferentes que se actua ante una posible situación y estas
reacciones hacen que no se pueda implementar un patrón dentro de la memoria de una
computadora. Hasta ahora no existe la posibilidad de predecir o almacenar todo tipo de
comportamiento de un ser humano a todas las situaciones que se enfrenta durante su
existencia.
CARACTERISTICAS, APLICACIONES, AREAS DE APLICACIÓN Y AREAS DE INVESTIGACION DE LA INTELIGENCIA ARTIFICIAL
CARACTERISTICAS DE LA INTELIGENCIA ARTIFICIAL
A. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de
los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente
para distinguirlo completamente. Otros tipos de programas como los compiladores y
sistemas de bases de datos, también procesan símbolos y no se considera que usen
técnicas de Inteligencia Artificial.
Las conclusiones de un programa declarativo no son fijas y son determinadas
parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al
problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se
han caracterizado por su afinidad con la Inteligencia Artificial.
B. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La
secuencia de pasos seguidos por el programa es influenciado por el problema particular
presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para
resolver un problema dado (programa declarativo). En contraste con los programas que
no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica,
explícitamente, cómo encontrar las variables de salida para cualquier variable dada de
entrada (programa de procedimiento).
C. El razonamiento basado en el conocimiento, implica que estos programas incorporan
factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan.
Al contrario de los programas para propósito específico, como los de contabilidad y
cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el
programa de razonamiento o motor de inferencia y base de conocimientos dándole la
capacidad de explicar discrepancias entre ellas.
D. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia
Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es
la resolución de conflictos en tareas orientadas a metas como en planificación, o el
diagnóstico de tareas en un sistema del mundo real: con poca información, con una
solución cercana y no necesariamente exacta.
APLICACIONES DE LA INTELIGENCIA ARTIFICIAL
Hay muchos usos y aplicaciones de la Inteligencia Artificial tanto en el mercado comercial
como en el servicio militar.
Algunos de los usos de la Inteligencia Artificial son:
1. Juegos Electrónicos: Hoy día se pueden comprar sistemas que utilizan esta
inteligencia para jugar a nivel profesional como por ejemplo un juego de ajedrez. En
el juego de ajedrez la información esta enmarcada para que se reconozca los
patrones del juego y sus posibilidades. Hay cientos de cálculos que el sistema hace
forzosamente para hacer el análisis y en este se evalúan cientos de posibilidades
por segundos. Un ejemplo de este tipo de sistema es “Deepblue” desarrollado por
IBM, el cual derrotó en un juego de ajedrez al campeón mundial en 1999.
2. Reconocimiento de Voz: Los sistemas que contienen en su memoria, la data para
reconocer voz, comenzaron su auge un la década de los ’90 cuando se logró
implementar el programa en los sistemas de las aerolíneas, aunque con
capacidades limitadas. El sistema consiste en indicarle las instrucciones mediante
los comandos de voz para que este realizara sus tareas. Un ejemplo de este tipo de
sistema es “Via Voice” el cual fue el primer sistema credo para las aerolíneas.
3. Entendimiento del lenguaje natural: Los sistemas tienen data para el reconocer el
significado de la palabra estando esta sola pero cuando se tienen en contexto y en
una oracion hay problemas en que el sistema reconozca el significado de cada una
de las palabras. En este campo se esta muy primitivo por que el objetivo final es que
el sistema reconozca lo que se le indica y responda a este.
4. Visión computarizada: Existen ciertos sistemas que estan diseñados con
programas que reconocen en solo dos dimensiones pero para lograr eficientemente
que el sistema funcione a capacidad total se tiene que desarrollar información que se
pueda ser leída por el sistema en tercera dimensión porque esta la que se requiere.
Este sistema esta en etapas primitiva y su uso mayor es en el area verificación y/o
lectura de la retina para propósitos de seguridad.
5. Sistemas Expertos: Estos sistemas tienen la capacidad de recoger la data de
información, analizarla y brindar recomendaciones e conclusiones sobre un problema
en particular. Un ejemplo de este tipo de sistema es MYCYN, este sistema esta
programado con conocimientos médicos y tiene la capacidad de diagnosticar a un
paciente como si fuese una verificación rutinaria de un doctor. Aunque es un avance
tecnológico sin duda alguna tiene sus limitaciones y para su desempeño depende
grandemente del diseño del sistema y el sentido común que tenga el sistema.
6. Clasificación: Estos son sistemas que mayormente se utilizan en compañías que
evalúan y otorgan crédito a una entidad. Funcionan recogiendo toda la data,
analizando la misma y luego la almacenan en una base de datos para clasificarla en
las categorías. Una vez clasificada la data el sistema hace recomendación sobre la
entidad la cual se esta evaluando.
AREAS DE APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL
La inteligencia Artificial se aplica en los sistemas reales en una gran variedad de ramas y
problemas:
Gestion y control: analisis inteligente, fijacion de objetos.
Fabricacion: diseño, planificacion, programacion, monitorizacion, control, gestion de
proyectos, robotica simplificada y vision computarizada.
Educacion: adiestramiento practico, exámenes y diagnósticos.
Ingenieria: diseño, control y analisis.
Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento, configuracion,
monitorizacion y ventas.
Cartografia: interpretacion de fotografias, diseño, resolucion de problemas
cartograficos.
Profesiones. Abogacia, medicina, contabilidad, geologia, quimica.
Software. Enseñanza, especificacion, diseño, verificacion, mantenimiento.
Sistemas de armamiento: guerra electronica, identificacion de objetos, control
adaptivo, proceso de imágenes, proceso de señales.
Procesos de datos: educacion, interfase en lengua natural, acceso inteligente a datos
y gestores de bases de datos, analisis inteligentes de datos.
Finanzas: planificacion, analisis, consultoria.
APLICACIONES COMERCIALES DE LA INTELIGENCIA ARTIFICIAL
Tambien la inteligencia Artificial tiene numerosas aplicaciones comerciales en el mundo de
hoy.
Configuracion: selección de distribucion de los componentes de un sistema de
computacion.
Diagnosis: hardware informatico, redes de ordenadores, equipos mecánicos,
problemas medicos, averias telefónicas, instrumentación electrónica, circuitos
electrónicos, averias automovilísticas.
Interpretacion y analisis: datos geológicos para prospeccion petrolífica, compuestos
quimicos, analisis de señales, problemas matematicos complejos, evaluacion de
amenazas militares, analisis de circuitos electronicos, datos biologicos (coronarios,
cerebrales y respiratorios), informacion de radar, sonar e infrarrojos.
Monitorización: quipos, monitorización de procesos, fabricación y gestión de procesos
científicos, amenazas militares, funciones vitales de pacientes hospitalizados, datos
financieros en tiras de pael perforado por teleimpresora, informes industriales y
gubernamentales.
Planificación: gestión de activo y pasivo, gestión de cartera, análisis de créditos y
préstamos, contratos, programación de trabajos de taller, gestión de proyectos,
planificación de experimentos, producción de tarjetas de circuito impreso.
Interfaces inteligentes: hardware (fiscal) de instrumentación, programas de
computadora, bases de datos múltiples, paneles de control.
Sistema de lenguaje natural: interfaces con bases de datos en lenguaje natural,
gestión de impuestos (ayudas para contabilidad), consultoría en temas legales,
planificación de fincas, consultoría de sistemas bancarios.
Sistemas de diseño: integracion de microcircuitos en muy alta escala, síntesis de
circuitos electrónicos, plantas químicas, edificios, puentes y presas, sistemas de
tranporte.
Sistemas de visión computarizada: selección de piezas y componentes, ensamblados,
control de calidad.
Desarrollo de software: programación automática.
Programas de reconocimiento de voz para reservar billetes de avión para un vuelo.
Sistemas expertos que controlan el correcto funcionamiento de un tranfbordador
espacial.
Sistemas expertos de diagnostico de enfermedades.
Protección de fraudes en tarjetas de crédito y cuentas a través de sistemas de redes
neuronales o sistemas expertos.
Detección de peueña anomalías invisibles al ojo humano en radiografías.
En el mundo de los videojuegos. Rivales con comportamiento lógico.
Traduccion automática de documentos (GOOGLE).
LAS AREAS DE INVESTIGACION DE LA INTELIGENCIA ARTIFICIAL
Son muchas las areas de la IA que se investigan hoy dia. Entre ellas, tenemos las
siguientes:
La representacion del conocimiento, que busca en el descubrimiento de metodos
expresivos y eficientes describir informacion sobre aspectos del mundo real.
Los metodos de aprendizaje automatico, que extienden las tecnicas estadísticas con
el fin de posibilitar la identificacion de un amplio rango de tendencias generales a
partir de un conjunto de datos de entrenamiento.
El campo de la planificación, que enfrenta el desarrollo de algoritmos que construyen
y ejecutan automáticamente secuencias de comandos primitivos con el fin de alcanzar
ciertas metas de alto nivel.
Los trabajos en el area de razonamiento posible, que hacen uso de principios
estadisticos para desarrollar codificaciones de información incierta.
El estudio de las arquitecturas de agentes, que busca la integración de otras áreas de
la Inteligencia Artificial con el objeto de crear agentes inteligentes, entidades robustas
capaces de comportamiento autonomo y en tiempo real.
La coordinacion y colaboracion multiagentes, que ha permitido el desarrollo de
técnicas para la representacion de la capacidades de otros agentes y la especificacion
del conocimiento necesario para la colaboracion entre ello.
El desarrollo de ontologias, que persigue la creacion de catalogos de conocimiento
explicito, formal y multipropósito, que puedan ser utilizados por sistemas inteligentes.
Los campos de procesamiento de voz y lenguaje, que buscan la creacion de sistemas
que se comunican con la gente en su lenguaje.
La síntesis y comprension de imágenes, que conduce a la produccion de algoritmos
para el análisis de fotografias, diagramas y videos, así como también de técnicas para
el despliegue visual de informacion cuantitativa y estructural.
TECNOLOGIAS DE APOYO
VISION ARTIFICIAL
La Visión artificial, también conocida como Visión por Computador (del inglés Computer
Vision) o Visión técnica, tiene el propósito de programar un computador para que "entienda"
una escena o las características de una imagen.
Los objetivos típicos de la visión artificial incluyen:
La detección, segmentación, localización y reconocimiento de ciertos objetos en
imágenes (por ejemplo, caras humanas).
La evaluación de los resultados (ej.: segmentación, registro).
Registro de diferentes imágenes de una misma escena u objeto, hacer concordar un
mismo objeto en diversas imágenes.
Seguimiento de un objeto en una secuencia de imágenes.
Mapeo de una escena para generar un modelo tridimensional de la escena; tal
modelo podría ser usado por un robot para navegar por la escena.
Estimación de las posturas tridimensionales de humanos.
Búsqueda de imágenes digitales por su contenido.
Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizaje
estadístico, geometría de proyección, procesado de imágenes, teoría de gráficos y otros
campos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva y la
computación biológica.
Propiedades básicas de las imágenes digitales
Las imágenes de señal continua se reproducen mediante dispositivos electrónicos
analógicos que registran los datos de la imagen con precisión utilizando varios métodos,
como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturaleza
química de la emulsión de una película, que varían continuamente en los diferentes aspectos
de la imagen. Para procesar o visualizar en el ordenador una señal continua o una imagen
analógica, se debe convertir primero a un formato comprensible para el ordenador o formato
digital. Este proceso se aplica a todas las imágenes, independientemente de su origen,
complejidad y de si son en blanco y negro (escala de grises) o a todo color. Una imagen
digital se compone de una matriz rectangular (o cuadrada) de píxeles que representan una
serie de valores de intensidad ordenados en un sistema de coordenadas (x,y).
Detectores de imagen electrónicos
Con este documento se pretende ofrecer ayuda para la comprensión de conceptos básicos
sobre la detección de luz y proporcionar una guía para la selección del detector electrónico
adecuado ( CCD o sistema de videocámara) con aplicaciones específicas de microscopía
óptica.
Conceptos básicos sobre procesamiento digital de la imagen
El procesamiento digital de la imagen permite una modificación reversible de la imagen
prácticamente libre de ruido en forma de una matriz de enteros en vez de las clásicas
manipulaciones en el cuarto oscuro o filtración de voltajes dependientes del tiempo
necesarios para las imágenes analógicas y señales de video. Incluso aunque muchos
algoritmos de procesamiento de imágenes son extremadamente potentes, el usuario medio
a menudo aplica operaciones a imágenes digitales sin tener en cuenta los principios
subyacentes tras dichas manipulaciones. Las imágenes que resultan de una manipulación
descuidada están a menudo distorsionadas con respecto a aquellas que podrían producirse
si la potencia y versatilidad del software de procesamiento digital fuesen utilizadas
correctamente.
Estrategias recomendadas para el procesamiento de imágenes digitales
Dependiendo de las condiciones de iluminación, la integridad de la muestra y los métodos de
preparación, las imágenes capturadas con el microscopio óptico pueden requerir una
cantidad considerable de rehabilitación/reinserción/renovación para conseguir un equilibrio
entre precisión científica y composición estética. Las imágenes digitales que se obtienen
mediante un CCD (charge-coupled device) o un CMOS (complementary metal oxide
semiconductor) a menudo sufren señales-a-ruido pobres, iluminación irregular, impurezas de
enfoque, deslumbramiento, cambios en los colores y otros problemas que distorsionan la
calidad global de la imagen.
INTERFAZ DE USUARIO
Las interfaces básicas de usuario son aquellas que incluyen elementos como menús,
ventanas, teclado, ratón, los beeps y algunos otros sonidos que la computadora hace, y en
general, todos aquellos canales por los cuales se permite la comunicación entre el ser
humano y la computadora. La mejor interacción humano-máquina a través de una adecuada
interfaz (Interfaz de Usuario), que le brinde tanto comodidad, como eficiencia.
TIPOS DE INTERFACES DE USUARIO
Dentro de las Interfaces de Usuario se puede distinguir básicamente tres tipos:
A) Una interfaz de hardware, a nivel de los dispositivos utilizados para ingresar, procesar y
entregar los datos: teclado, ratón y pantalla visualizadora.
B) Una interfaz de software, destinada a entregar información acerca de los procesos y
herramientas de control, a través de lo que el usuario observa habitualmente en la pantalla.
C) Una interfaz de Software-Hardware, que establece un puente entre la maquina y las
personas, permite a la maquina entender la instruccion y a el hombre entender el codigo
binario traducido a informacion legible.
FUCIONES PRINCIPALES
Sus principales funciones son los siguientes:
Puesta en marcha y apagado.
Control de las funciones manipulables del equipo.
Manipulación de archivos y directorios.
Herramientas de desarrollo de aplicaciones.
Comunicación con otros sistemas.
Información de estado.
Configuración de la propia interfaz y entorno.
Intercambio de datos entre aplicaciones.
Control de acceso.
Sistema de ayuda interactivo.
TIPOS DE INTERFACES DE USUARIO
Según la forma de interactuar del usuario
Atendiendo a como el usuario puede interactuar con una interfaz, nos encontramos con
varios tipos de interfaces de usuario:
Interfaces alfanuméricas (intérpretes de mandatos) que solo presentan texto.
Interfaces gráficas de usuario (GUI, graphics user interfaces), las que permiten
comunicarse con el ordenador de una forma muy rápida e intuitiva representando
gráficamente los elementos de control y medida.
Interfaces táctiles, que representan gráficamente un "panel de control" en una pantalla
sensible que permite interaccionar con el dedo de forma similar a si se accionara un
control físico.
Según su construcción
Pueden ser de hardware o de software:
Interfaces de hardware: Se trata de un conjunto de controles o dispositivos que
permiten la interacción hombre-máquina, de modo que permiten introducir o leer
datos del equipo, mediante pulsadores, reguladores e instrumentos.
Interfaces de software: Son programas o parte de ellos, que permiten expresar
nuestros deseos al ordenador o visualizar su respuesta.
VALORACION
El principal objetivo de una interfaz de usuario es que éste se pueda comunicar a través de
ella con algún tipo de dispositivo, conseguida esta comunicación, el segundo objetivo que se
debería perseguir es el de que dicha comunicación se pueda desarrollar de la forma más
fácil y cómoda posible para el usuario, sin embargo, las interfaces no siempre son intuitivas
tal como es el caso de las interfaces de línea de órdenes (CLI), que se encuentran por
ejemplo en algunos sistemas operativos como los NOS de los Routers o algunos shell de
Unix, DOS, etc. Estas interfaces son las primeras que utilizaron los ordenadores y están
anticuadas, aunque los nostálgicos las siguen prefiriendo porque se saben de memoria los
comandos. También es importante reconocer las interfaces de línea de órdenes, como el
mejor medio para que el administrador del sistema pueda llevar a cabo tareas complejas, de
ahí que se sigan utilizando y todo sistema operativo disponga de un intérprete de comandos
(shell en Unix, consola o simbolo del sistema en Windows) como parte fundamental de la
interfaz del usuario.
Piense en el ejemplo de crear un usuario en un sistema: disponemos de un programa que
activaremos con doble clic del ratón y rellenaremos una serie de datos en una ventana de
diálogo. Mucho más fácil que recordar el comando y las opciones para hacerlo ¿verdad?
Ahora imagine que es el administrador de un sistema que debe crear 200 usuarios. Supongo
que no le es difícil imaginar lo engorroso de la operación. Esto se soluciona creando lo que
se llaman "scripts" o programitas que realizan tareas en un sistema operativo. Son ficheros
BAT en Windows y shell scripts en Unix/Linux. Estos programitas utilizan el conjunto de
comandos que ofrece el sistema. Además, no todo se puede hacer a través de la interfaz
gráfica, hay ciertas funciones para usuarios avanzados y administradores que sólo es
posible realizarlas mediante comandos.
El diseño de la interfaz es crítico para el manejo del equipo, hay algunas muy bien diseñadas
que incorporan controles intuitivos y de fácil manejo, en cambio existen otras que no se
entienden bien y el usuario no acierta a manejarlas correctamente sin estudiar un manual o
recibir formación del experto.
SMART PROCESS MANAGEMENT
SPM (Smart Process Management: Gestión de Procesos Inteligente) es una tecnología que
soporta la generación dinámica de procesos a partir de la representación del conocimiento
técnico de un experto (know-how).
El conocimiento gestionado por esta tecnología puede residir de forma estructurada o
semiestructurada en soportes físicos (manuales, guías de buenas prácticas, protocolos de
actuación) o de forma desestructurada en la mente de los expertos (reglas heurísticas y
modos de actuar adquiridos por la experiencia).
Mediante tecnología SPM es posible desarrollar sistemas capaces de generar
automáticamente los procesos necesarios para resolver problemas complejos. Gracias a
este tipo de sistemas es posible aumentar el desempeño de los trabajadores de una
organización. Además, mediante la tecnología SPM se consigue que el conocimiento sobre
los procesos llevados a cabo por los decisores y expertos (knowledge-workers) de una
organización quede representado en formato electrónico (estando disponible y accesible a
cualquier miembro de la organización).
Es necesario reconocer que hasta ahora las TICs han permitido el desarrollo de la Era
Digital y han propiciado la aparición de la nueva Sociedad del Conocimiento. Estas
tecnologías han tenido un gran impacto en la capacidad para gestionar y acceder a una gran
cantidad de conocimiento almacenado. Además, han cambiado la forma en que las personas
se relacionan, se comunican y trabajan.
En el entorno empresarial, las TIC (Tecnologías de la Información y la Comunicación) han
alcanzado un grado de madurez tal que han soportado el desarrollo de metodologías y
tecnologías tales como BPM (Business Process Management) capaces de gestionar
(modelar, representar y ejecutar) de forma eficiente los procesos de una organización. Esto
ha permitido que procesos estáticos, repetitivos y predecibles, llevados a cabo por los
trabajadores de menor cualificación de una organización, estén en la práctica totalmente
automatizados, requiriendo cada vez menos intervención humana para su desempeño.
El carácter del conocimiento y técnicas necesarios para gestionar estos procesos obliga a
adoptar nuevos conceptos que superen a los clásicos usados en las TICs. Así, aparece el
nuevo término TICA ( Tecnologías de la información, conocimiento y aprendizaje ) que
refleja de una mejor manera las nuevas tendencias fruto de las nuevas necesidades en
entornos empresariales. Los nuevos sistemas basados en las tecnologías TICA no sólo se
dedican a representar información de forma estática y a ejecutar procesos predecibles y
repetitivos Los nuevos sistemas inteligentes basados en las TICA permiten representar
conocimiento para ser utilizado con el objeto de mejorar el desempeño de las tareas de
decisores y expertos. Además, puesto que el conocimiento manejado tiene que evolucionar
y adaptarse con el aumento de la experiencia de los expertos, estos sistemas tienen que
incorporar capacidades de aprendizaje
Las TICA necesariamente están basadas en técnicas de Inteligencia Artificial. La Inteligencia
Artificial es una disciplina científica que entre otros tiene el objetivo de construir sistemas
inteligentes que den una respuesta dinámica, flexible y adaptable (inteligente) ante un
problema basándose en la información disponible. Esta respuesta puede no ser fácil de
encontrar para un humano, debido a la gran cantidad de información que maneja y/o a la
gran cantidad de casos a tener en cuenta. Una parte muy importante de la Inteligencia
Artificial se dedica al desarrollo de técnicas orientadas a resolver problemas cuya solución
implica adoptar una secuencia de acciones organizadas en el tiempo, considerando que el
conocimiento necesario para generar estos procesos debe evolucionar constantemente y
adaptarse a nuevas circunstancias
Por tanto, un problema para el cual la Inteligencia Artificial puede ayudar es la búsqueda del
proceso más adecuado, entendido como una secuencia de actividades ordenadas en el
tiempo, para llevar a cabo una determinada tarea.
En definitiva, se denomina Smart Process Management o SPM (gestión inteligente de
procesos), al conjunto de metodologías y tecnologías basadas en Inteligencia Artificial que
facilitan la solución a este tipo de problemas utilizando herramientas automáticas.
BENEFICIOS DEL SMART PROCESS MANAGEMENT
Mediante el uso de las metodologías y tecnologías SPM se consigue proporcionar un
enfoque integral a la hora ayudar a la persona a encontrar el proceso más adecuado para
resolver un problema durante todas las etapas de la búsqueda de la solución:
Durante la etapa de adquisición de la información, para realizar el modelado de los
conceptos que juegan un papel clave en la definición del proceso.
Durante la etapa de definición de los procedimientos o protocolos que marcan la
estructura a la cual se deberá adecuar el proceso resultante.
Durante la etapa de la descripción de los objetivos que queremos cubrir tras la ejecución
del proceso.
Durante la etapa de búsqueda del proceso más adecuado. Usando tecnologías
inteligentes (Smart) que realicen este proceso de forma automática.
Y durante la propia etapa de ejecución, puesta en marcha y adaptación del proceso
según la evolución del mismo.
Algunas de las ventajas de usar un enfoque SPM son varias:
Los sistemas desarrollados utilizando tecnología SPM permiten a las organizaciones el
aumento del rendimiento de sus empleados sin necesidad que éstos sean expertos en
los tipos de problemas a los que se enfrentan.
La tecnología SPM ofrece soluciones a problemas complejos de una forma más rápida y
óptima de la que lo haría cualquier experto.
Permite tener modelados en un formato digital los procedimientos o protocolos que
conforman el proceso. Estos procedimientos pueden ser visualizados, estudiados,
documentados y compartidos con otras personas. Además pueden ser modificados y
mejorados fácilmente para su adaptación a nuevas situaciones.
Los procesos resultantes pueden ser guardados, compartidos, comunicados y ejecutados
colaborativamente entre diferentes responsables.
Se pueden utilizar distintas estrategias para mejorar el proceso resultante en algún
aspecto.
Los procesos son adaptados de forma automática para satisfacer distintas restricciones
temporales o de consumo de recursos.
Distintos procesos pueden ser comparados con el objetivo de aprender distintos aspectos
que ayuden a mejorarlos.
Estas ventajas hacen de las metodologías y tecnologías SPM unas herramientas muy útiles
para la construcción de herramientas software fácilmente adaptables y escalables que
ayuden al usuario en la búsqueda de un proceso personalizado para resolver un
determinado problema. Así mismo pueden ser utilizadas dentro de un entorno empresarial
para la estandarización y automatización de protocolos operacionales, que homogenicen y
coordinen el comportamiento de los distintos miembros de la empresa mientras el gestor de
la misma puede seguir controlando los aspectos estratégicos.
CIENTIFICOS
JOHN MCCARTHY
John McCarthy, nació en septiembre de 1927, Boston.
Es un prominente informático que recibió el Premio Turing en 1971 por sus importantes
contribuciones en el campo de la Inteligencia Artificial. De hecho, fue el responsable de
introducir el término “inteligencia artificial”, concepto que acuñó en la Conferencia de
Dartmouth en 1956.
McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones
del ACM en 1960. John McCarthy ayudó a motivar la creación del Proyecto MAC en el MIT,
pero en 1962 se marchó del MIT y se fue a la Universidad de Stanford, donde se dedicó a
instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival amistoso del
Proyecto MAC.
En 1961, fue el primero en sugerir públicamente (en un discurso dado para celebrar el
centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría
conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas
podrían ser vendidas como un servicio (como el agua o la electricidad).
La idea de una computadora o una utilidad informática era muy popular a fines de la década
del 60, pero se desvaneció hacia mediados de los 70 cuando se volvió claro que el
hardware, software y las tecnologías de telecomunicación simplemente no estaban
preparados. Sin embargo, desde el 2000, la idea ha reaparecido en diferentes formas.
McCarthy recibió su B.S. en Matemáticas del Instituto de Tecnología de California en 1948 y
su Ph.D. en Matemáticas de la Universidad de Princeton en 1951. Tras cortas estancias en
Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en Stanford
en 1962, donde permaneció hasta su retiro a finales del 2000. Ahora es Profesor Emérito.
JOSEPH WEIZENBAUM
Joseph Weizenbaum fue profesor emérito de Informática en el Instituto Tecnológico de
Massachusetts y se le considera uno de los padres de la cibernética.
Nació en Berlín, Alemán de padres judíos, escapó del régimen de Hitler en 1936, emigrando
con su familia a los Estados Unidos. Empezó a estudiar matemáticas en 1941, pero sus
estudios fueron interrumpidos por la guerra, durante la que sirvió en el ejército. Sobre
los años 50, trabajó en computación analógica, y ayudó a crear un ordenador digital para la
Universidad Wayne State. En 1955 trabajó para General Electric en el primer ordenador
utilizado por un banco y en 1963 entró en el Instituto Tecnológico de Massachusetts, dos
años después creó allí su célebre departamento de ciencias de la computación.
En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba el
procesamiento del lenguaje natural para dar la sensación de cierta empatía. El programa
aplicaba reglas de concordancia de patrones a las frases de los humanos para calcular sus
respuestas. Weizenbaum se sorprendió del impacto que este programa tuvo, al tomarse en
serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le hizo pensar
sobre las implicaciones filosóficas de la Inteligencia Artificial y más adelante se convirtió en
uno de sus más fervientes críticos. Su influyente libro de 1976 El Poder de las
Computadoras y la Razón Humana (Computer Power and Human Reason) muestra su
ambivalencia en cuanto a la tecnología introducida por la informática y afirma que cuando la
Inteligencia Artificial sea posible, no deberemos dejarles tomar decisiones importantes
porque los ordenadores nunca tendrán cualidades humanas como la compasión y la
sabiduría al no haber crecido en el entorno emocional de una familia humana.
Falleció el 5 de marzo de 2008 en Gröben, Alemania por complicaciones de cáncer.
MARVIN MINSKY
Marvin Lee Minsky es un científico estadounidense nacido en Nueva York en agosto de
1927, considerado uno de los padres de las ciencias de la computación y cofundador del
laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.
Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría
computacional, representación del conocimiento, semántica computacional, percepción
mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador
de redes neuronales.
Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo
fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco
rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la
investigación académica en redes neuronales artificiales durante los años 70. []
Minsky también es responsable de sugerir la trama de "Jurassic Park" a Michael Crichton
durante un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos
como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y
concibió los dinosaurios como clones.
ALAN TURING
Alan Mathison Turing (23 de junio de 1912 en Maida Vale, Londres - 7 de junio de 1954 en
Wilmslow, Cheshire) fue un matemático, informático teórico, criptógrafo y filósofo inglés.
Es considerado uno de los padres de la Ciencia de la computación siendo el precursor de la
informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo
y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente
aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional
existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una
máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en romper los códigos
nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la
sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros
computadores electrónicos programables digitales en el Laboratorio Nacional de Física del
Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la
Universidad de Mánchester. Entre otras muchas cosas, también contribuyó de forma
particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la
Inteligencia Artificial.
En 1952 Turing escribió un programa de ajedrez. A falta de una computadora lo
suficientemente potente como para ejecutarlo, él simulaba el funcionamiento de la
computadora, tardando más de hora y media en efectuar un movimiento. Una de las partidas
llegó a registrarse; el programa perdió frente a un amigo de Turing.
Trabajó junto a Norbert Wiener en el desarrollo de la cibernética. Esta rama de estudios se
genera a partir de la demanda de sistemas de control que exige el progresivo desarrollo de
las técnicas de producción a partir del siglo XX. La cibernética pretende establecer un
sistema de comunicación entre el hombre y la máquina como premisa fundamental para
administrar los sistemas de control. Sus estudios profundizaron en esta relación
estableciendo el concepto de interfaz y cuestionando los límites de simulación del
razonamiento humano.
La carrera de Turing terminó súbitamente cuando fue procesado por su homosexualidad. No
se defendió de los cargos y se le dio a escoger entre la castración química o ir a la cárcel.
Eligió lo primero y sufrió importantes consecuencias físicas, entre ellas la impotencia. Dos
años después del juicio, en 1954, se suicidó.
TEST DE TURING
El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para
demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo
(Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los
mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la
hipótesis positivista de que, si una máquina se comporta en todos los aspectos como
inteligente, entonces debe ser inteligente.
La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una
máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la
máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el
juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles,
el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna
máquina puede pasar este examen en una experiencia con método científico.
En 1990 se inició un concurso, el Premio Loebner, una competencia de carácter anual entre
programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez
humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el
control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a
las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares
estadounidenses para el programa que pase el test, y un premio de consolación para el
mejor programa anual. Todavía no ha sido otorgado el premio principal.
ROBOTICA
La robótica es la ciencia y la tecnología de los robots.Se ocupa del diseño, manufactura y
aplicaciones de los robots. La robótica combina diversas disciplinas como son: la mecánica,
la electrónica, la informática, la inteligencia artificial y la ingeniería de control. Otras áreas
importantes en robótica son el álgebra, los autómatas programables y las máquinas de
estados.
En el término robot confluyen las imágenes de máquinas para la realización de trabajos
productivos y de imitación de movimientos y comportamientos de seres vivos.
Los robots actuales son obras de ingeniería y como tales concebidas para producir bienes y
servicios o explotar recursos naturales. Desde esta perspectiva son máquinas con las que se
continúa una actividad que parte de los propios orígenes de la humanidad, y que desde el
comienzo de la Edad Moderna se fundamentan esencualmente en conomientos científicos.
En nuestro siglo el desarrollo de máquinas ha estado fuertemente influido por el progreso
tecnológico. De esta forma se pasa de máquinas que tienen como objeto trabajo físico, a
máquinas o instrumentos que son también capaces de procesar información,
complementando, o incluso sustituyendo, al hombre en algunas actividades intelectuales.
Por otra parte, también desde la antigüedad, el hombre ha sentido fascinación por las
máquinas que imitan la figura y los movimientos de seres animados. Existe una larga
tradición de autómatas desde el mundo griego hasta nuestro siglo, pasando por los
autómatas de los artesanos franceses y suizos del siglo XVIII, que ya incorporaban
interesantes dispositivos mecánicos para el control automático de movimientos.
El término robot aparece por primera vez en 1921, en la obra teatral R.U.R. (Rossum’s
Universal Robots) del novelista y autor dramático checo Karel Capek en cuyo idioma la
palabra “robota” significa fuerza del trabajo o servidumbre. Por aquellos años la producción
en grandes series se había introducido en numerosas fábricas. Se discute ya del poder de
las máquinas y la dominación de los hombres por las máquinas, argumento de ésta y otras
obras teatrales y películas de los años viente en los que aparecen trabajadores robóticos.
El término tiene amplia aceptación y pronto se aplica a autómatas constridos en los años
viente y treinta ue se exhiben en ferias, promociones de productos, películas y otras
aplicaciones más o menos festivas. Se trata de imitar movimientos de seres vivos pero
también de demostrar técnicas de control remoto, incluyéndose en algunos casos funciones
sensoriales primarias.
En cualquier caso, interesa recordar que el término robot nace asociado a la idea trabajoy y
producción. En 1915, Leonardo Torres Quevedo declaró a la revista “Scientific American”
(Eames, 1973):
“Los antiguos autómatas imitan la apariencia y movimientos de los seres vivos, lo cual no
tiene mucho interés práctico; lo que yo busco es una clase de aparatos que, sin necesidad
de reproducir los gestos más visibles del hombre, intentan obtener los mismos resultados
que una persona”.
Los robots industriales surgen de la convergencia de tecnologías del control automático y, en
particular, del control de máquinas herramientas, de los manipuladores teleoperadores, y de
la aplicación de computadores en tiempo real. En los párrafos siguientes se comentan
brevemente algunos aspoectos significativos en la evolucion de estas tecnologias.
Mediante el control automatico de procesos se pretende concebir y realizar ingenios que
permitan gobernar un proceso sin la intervencion de agentes exteriores, especialmente el
hombre. En particular, se presentan problemas de seguimiento automatico de señales de
consigna, mediante los denominados servosistemas. Estos sistemas generan
automaticamente señales de control que tratan de anlar la diferencia entre la señal de
consigna y la señal medida en el proceso u objeto que se pretende controlar.
Un problema similar es el de la regulacion automatica mediante la cual se trata de mantener
una consigna, aunque se presenten perturbaciones que tiendan a separar al sistema de las
condiciones deseadas.
Tanto los servosistemas como los reguladores se basan en el principio de la
realimentacion.Las señales de consigna o referencia se comparan con medidas de variables
del proceso u objeto que se pretende controlar y su diferencia se emplea para generar
acciones de control sobre el propio proceso u objeto. En los sistemas de control automatico
esta cadena cerrada de accion-medida-accion se realiza sin intervenion del hombre.
La automatizacion industrial con utilizacion de sistemas de control automatico comienza
tambien en el siglo XIX pero no es hasta el siglo XX y, muy especialmente, despues de la
Segunda Guerra mundial, cuando empieza a extenderse la forma importante en todos los
sectores industriales. De esta forma, se generalizan los sistemas de control automatico de
variables de procesos industriales y, en particular, sistemas de control de posicion y
velocidad. Se emplean tambien sistemas de control realimentado en barcos o aviones que
deben seguir automaticamente una determinada trayectoria (pilotos automaticos) o en el
posicionamiento de radares. Tradicionalmente, en la realizacion de sistemas de control
automatico se han empleado diversas tecnologias tales como la neumatica, hidraulica y,
posteriormente, la electrica. A finales de los años sesenta y comienzos de los setenta los
minicomputadores encuentran una importante acogida en aplicaciones de control. La
aparicion en 1972 del microprocesador suministra un impulso decisivo al control por
computador, haciendo rentables numerisísimas aplicaciones entre las que se cuenta el
control de robots. Los avances en microelectronica de los años ochenta, con la tecnologia de
los circuitos de gran escala de integracion, acentuan esta tendencia.
Con respecto a las maquinas herramientas de control numerico, ha que señalar los
proyectos que se desarrollaron en EE.UU. A finales de los cuarenta y principios de los
cincuenta. Se combinaban los progresos en el diseño de servosistemas con las recientes
experiencias en tenicas de computacion digital. De esta forma, el contorno de corte era
codificado en cinta de papel perforado, utilizandose para generar automaticamente las
ordenes a los servomecanismos de la maquina. En 1953 se presentaba en el
“Massachesetts Institute of Technology” (MIT) una maquina de estas caracteristicas.
Los teleoperadores se desarrollaron en los años cuarenta para manejar materiales
radioactivos. Consistian en un par de pinzas “maestra” y “esclava” acopladas por
mecanismos que permitian que la pinza “esclava”, en contacto con el material peligroso,
reprodujera los movimientos de la pinza “maestra” accionada por un operador detrás de un
muro protector con ventanas apropiadas para observar la operación (Goertz, 1963).
El primer teleoperador accionado por servomecanismos electricos se presento en 1947.
Poco despues, en 1948, se introdujeron servosistemas con realimentacion de fuerza hacia la
pinza “maestra” para permitir que el operador percibiera el esfuerzo desarrollado.
En 1954 el ingeniero americano George Devol patentó el que se considera el primer robot
industrial. Un dispositivo que combinaba la articulacion de un teleoperador con el eje
servocontrolado de una maquina de control numerico.
En el proximo apartado se presenta una primera aproximacion a los robots actuales y su
interaccion con el entorno. En los dos siguientes se tratan aspectos especifios de los robots
manipuladores y los vehículos roboticos. Posteriormente, se presenta una clasificacion se
sistemas roboticos en cuenta su autonomia.
ROBOTICA INDUSTRIAL
Aunque la imagen del robot como una máquina a semejanza del ser humano subyace en el
hombre desde hace muchos siglos, esta idea ha derivado en la actualidad por los caminos
de la Biogenetica y la Bioingenieria.
El robot industrial que se conoce y utiliza en nuestros dias no surge con la finalidad de
reproducir seres vivientes sino el objetivo de aumentar la productividad, mejorar la calidad de
las piezas fabricadas y evitar la realización de trabajos tediosos al hombre.
George Devol es considerado el padre de la Robótica industrial y a él se debe la patente de
un manipulador programable en 1956, que fue germen del robot industrial
MICROBOTICA
En la Microbótica se puede considerar a la Robótica Industrial como su origen. No puede caerse en la simplicidad de considerarse al microbo como un robot pequeñito. Existen diferencias básicas relacionadas con el concepto, la arquitectura y la aplicación.
Hasta 1981 los computadores eran caros, voluminosos, complejos de manejar y mantener y estaban orientados a resolver grandes aplicaciones específicas. En dicho año cambió radicamente el concepto del computador como consecuencia de la idea del PC propuesta
por IBM. Actualmente, los computadores han pasado a ser máquinas potentes, fáciles de manejar, baratas y se usan hasta para jugar y divertirse.
A semejanza del robot industrial, que tuvo que esperar hasta 1971 a que Intel comercializase el microprocesador, el nacimiento del microbot fue posible gracias a la aparición del microcontrolador en la última década del siglo XX.
Un microcontrolador es un circuito integrado en cuyo chip interno se implementa un computador completo, aunque de limitadas prestaciones. De esta forma el computador que gobierna al microbot es más pequeño que un mechero y, en muchas ocasiones, cuesta menos.
En una primera aproximación al microbot destaca una diferencia notable con el robot industrial. El primero es móvil y carece de una estructura en forma de brazo. Además es mucho más pequeño y su precio estáal alcance de muchos bolsillos. Al estar gobernado por un microcontrolador concreto tiene limitado su nivel de inteligencia y su capacidad de programación. En la mayoría de las ocasiones el microbot dispone de ruedas o patas para moverse gracias a la acción de unos motores.
La mayoría de las labores que normalmente realizamos los humanos son muy sencilas. Desde que nos levantamos hasta que nos acostamos desarrollamos multitud de trabajos simples y rutinarios, desde afeitarnos, preparar desayunos y omidas, limpiar, recoger, ordenar manejar aparatos de video y sonido, etc. También nuestro trabajo y los desplazamientos están llenos de pequeñas tareas.
Los microbots no intentan quitar el puesto a los robots industriales. No están diseñados para llevar a cabo operaciones que exijan elevadas poencias y complicados algorítmos. Los microbot están destinados a resolver tareas pequeñas co rapidez y precisión. Limpian, detectan o buscan elementos concretos, miden, transportan pequeñas piezas, viilan, ayudan a minusválidos y hasta son magníficos compañeros de juegos.