View
24
Download
0
Category
Preview:
Citation preview
(c) 2020. P. Gómez-Gil, INAOE 1
Tópicos Avanzados:
Inteligencia Computacional I
Instructoras (en orden alfabético) Dra. Ma. del Pilar Gómez Gil
Dra. Alicia Morales Reyes
Primavera 2020 pgomez@inaoep.mx
V: 09-Mar-20
(c) 2020. P. Gómez-Gil, INAOE 2
1. Objetivo del curso
Introducir a estudiantes de posgrado en los
tópicos fundamentales relacionados a la
Inteligencia Computacional (IC), así como
en sus principales aplicaciones
1.1 Para que hablemos todos
de lo mismo….
¿Qué es Inteligencia Computacional (IC)? Conceptos, paradigmas, algoritmos e
implementaciones de sistemas que exhiben un comportamiento “inteligente” al aplicarse en sistemas complejos.
Los algoritmos involucrados en IC están inspirados en sistemas biológicos, e incluyen varias áreas, como las redes neuronales artificiales, los sistemas evolutivos, los sistemas difusos, .
(c) 2020. P. Gómez-Gil, INAOE 3
¿Que es “inteligencia”?
Según el diccionario Merriam-Webster:
“Es la habilidad de aprender, entender o
enfrentar nuevas situaciones;
Es la habilidad de aplicar conocimiento para
manipular el medio ambiente;
Es la habilidad de pensar de manera
abstracta; puede medirse con criterios
objetivos obtenidos de pruebas.”
(c) 2020. P. Gómez-Gil, INAOE 4
Página de recursos del curso:
(c) 2020. P. Gómez-Gil, INAOE 5
http://ccc.inaoep.mx/~pgomez/cursos/IC-I/
(c) 2020. P. Gómez-Gil, INAOE 6
Método de trabajo
Curso impartido en 2 etapas, involucrando a los diferentes instructores.
Dependiendo de la etapa y el tema, habrá exposiciones en clase de los
conceptos fundamentales de cada tema, se discutirán las dudas en clase y
se propondrán temas o artículos específicos para revisión del estado del
arte.
Se desarrollarán tareas y proyectos de investigación asignados por los
instructores
Fechas de exámenes
1o. examen …………….2 de Abril
2o. examen …………….30 de Abril
(c) 2020. P. Gómez-Gil, INAOE 7
Evaluación de la parte de RNA
1o. examen 35%
2o. examen 35%
Tareas proyectos,
examencitos etc. 30%
(c) 2020. P. Gómez-Gil, INAOE 8
(c) 2020. P. Gómez-Gil, INAOE 9
Contenido del curso
disponible en:
http://ccc.inaoep.mx/~pgomez/cursos/
IC-I/temario.pdf
Libro de texto para RNA
(c) 2020. P. Gómez-Gil, INAOE 10
Disponible en la biblioteca digital del INAOE
Dr. James Bezdek, en su visita al
INAOE, en Febrero del 2012
(c) 2020. P. Gómez-Gil, INAOE 11
(c) 2020. P. Gómez-Gil, INAOE 12
Dr. Haykin y Dra. Gómez en el MICAI
2008
Sistemas inteligentes (Kruse et al. 2013)
Requieren simular el pensamiento inteligente y realizar acciones en el campo en que son aplicados
Su calidad depende fuertemente de la manera en que se representa el conocimiento
La IC incluye aspectos teóricos (¿Cómo y por qué trabajan los sistemas inteligentes?) y prácticos (¿Dónde y cuándo se pueden usar estos sistemas?)
(c) 2020. P. Gómez-Gil, INAOE 14
Inteligencia Artificial e
inteligencia computacional
Originalmente, el conocimiento de los sistemas artificiales inteligentes fue representado por modelos simbólicos. Por ejemplo, representaciones top-down, sistemas expertos basados en reglas, probadores automáticos de teoremas y técnicas de investigación de operaciones (planeación, “scheduling”)
(c) 2020. P. Gómez-Gil, INAOE 15
Inteligencia Artificial e inteligencia
computacional (cont.)
La representación simbólica funciona bien en muchos casos, pero no es fácilmente escalable; los errores/complicaciones pequeñas crecen exponencialmente (Kruse et al. 2013)
Aunque esa representación obtiene soluciones óptimas, muchas veces no puede aplicarse en la práctica
La inteligencia computacional (IC) permite trabajar con sistemas imprecisos y encontrar soluciones en tiempos razonables, aunque no exactas
(c) 2020. P. Gómez-Gil, INAOE 16
Inteligencia computacional
(cont.)
Cubre una gran cantidad de modelos, pero los mas comunes incluyen: 1) Sistemas inspirados en la naturaleza. Ejemplos de
estos son las redes neuronales artificiales y los algoritmos evolutivos
2) Sistemas que representan conocimiento incierto, vago o incompleto. Ejemplos de éstos son los sistemas difusos y las redes bayesianas
Es muy común combinar las soluciones, creando sistemas híbridos, ejemplo sistemas neuro-difusos.
(c) 2020. P. Gómez-Gil, INAOE 17
(c) 2020. P. Gómez-Gil, INAOE 18
¿Que Son las Redes Neuronales
Artificiales?
Las Redes Neuronales Artificiales (R.N.A.) son modelos matemáticos inspirados en sistemas
biológicos, adaptados y simulados en computadoras convencionales.
Los elementos que las conforman se asemejan a las neuronas biológicas.
[Wasserman 89]
Una definición mas amplia de Redes
Neuronales Artificiales…
“Una red neuronal es un procesador masivamente paralelo y distribuido hecho de unidades procesadoras simples, las cuales son de manera natural propensas a almacenar conocimiento adquirido de la experiencia y hacerlo útil. Se parece al cerebro en dos aspectos: 1. La red neuronal adquiere el conocimiento del medio
ambiente, a través de un proceso de aprendizaje
2. La fuerza de conexión entre los neurones, conocida como los pesos sinápticos, se utiliza para almacenar el conocimiento adquirido ” [Haykin 1999]
(c) 2020. P. Gómez-Gil, INAOE 19
(c) 2020. P. Gómez-Gil, INAOE 20
Componentes básicos de las RNA
1. Elementos de procesamiento: Neurones
2. Regla de activación de los elementos.
3. Topología de interacción entre los elementos de
procesamiento.
4. Regla de propagación a través de las conexiones.
5. Regla de aprendizaje.
6. Medio ambiente en el que el sistema opera.
(c) 2020. P. Gómez-Gil, INAOE 21
Características Principales de Las RNA
1. APRENDIZAJE. Una red neuronal puede modificar su comportamiento en respuesta al medio ambiente.
2. GENERALIZACION. Una vez entrenada, la red neuronal puede ser insensible a cambios en sus entradas.
3. ABSTRACCION. Una red neuronal puede determinar la esencia o características principales de un conjunto de datos.
(c) 2020. P. Gómez-Gil, INAOE 22
ALCANCES Y LIMITACIONES DE LAS
RNA
Las R.N.A. no son la solución de todos los problemas, sino solo de aquellos en los que "las reglas de solución" no son conocidas, y existen suficientes datos ejemplos que permitan a la red aprender.
Las R.N.A. son hasta cierto punto impredecibles.
Las R.N.A. no pueden explicar como resuelven un problema. La representación interna generada puede ser demasiado compleja para ser analizada, aún y en los casos más sencillos.
(c) 2020. P. Gómez-Gil, INAOE 23
Resumen de los Beneficios de los
Sistemas Neuronales Artificiales [Haykin
1994]
1. Son sistemas no lineales
2. Son capaces de hacer un mapeo entre entradas y salidas
3. Son adaptables
4. Pueden dar información sobre la confiabilidad de sus respuestas
5. Pueden dar información sobre el “contexto” de la selección
6. Son tolerantes a fallas
7. Son implementables en VLSI
8. Son universales en cuanto a su análisis y diseño
9. Presentan analogías con los sistemas biológicos
Una solución basada en RNA
vale la pena si…
Las reglas de decisión de la solución no
se conocen explícitamente
Hay una gran cantidad de datos que
representan al problema…
(c) 2020. P. Gómez-Gil, INAOE 24
(c) 2020. P. Gómez-Gil, INAOE 25
EVENTOS HISTORICOS IMPORTANTES
1943. W. McCulloch y W. Pitts publican "A Logical Calculus of the ideas imminent in nervious activity" in Bulletin of Mathematical Biophysics, 5: 115-33.
1949. D. O. Hebb publica el libro "Organization of Behavior" New York: Science Editions. La ley de aprendizaje especificada por Hebb ha sido la base para los algoritmos de entrenamiento de R.N.A.
Entre los años 50´s y 60´s un grupo de investigadores producen las primeras redes neuronales artificiales, implementadas con circuitos electrónicos. Entre ellos están Marvin Minsky, Frank Rosenblatt y Bernanrd Widrow.
1962. F. Rosenblatt publica el libro "Principles of neurodynamics". New York: Spartan Books, presentando las bases del perceptrón.
(c) 2020. P. Gómez-Gil, INAOE 26
EVENTOS HISTORICOS IMPORTANTES
(2)
1969. M. Minsky y S. Papert publican "Perceptrons" Cambridge, MA: MIT Press. En este libro muestran que el perceptrón es teóricamente incapaz de resolver problemas muy simples. Se crea una fuerte desmotivación en la investigación del área.
1986. D. E. Rumelhart, G. E. Hinton y R. J. Williams publican "Learning internal representations by error propagation", en Parallel Distributed Processing, Vol I, pp 318-62. Cambridge MA: MIT Press. Acá presentan uno de los primeros algoritmos para entrenar redes neuronales de varios niveles, destruyendo el mito de Minsky y haciendo resurgir la investigacion en el área de R.N.A.
... Cientos de modelos y aplicaciones han surgido desde entonces....
Tarea
Leer capítulo 2 “Introduction” del libro de
texto (Kruse et al. 2013)
(c) 2020. P. Gómez-Gil, INAOE 27
Recommended