Una aproximación práctica a las redes neuronales artificiales



Libro impreso
COP $62,000
Acceso abierto
Acceso abierto
El propósito general de este libro es ser una guía para que el lector interesado en trabajar con Redes Neuronales Artificiales, (RNA) esté en capacidad de solucionar problemas propios de su disciplina usando esta técnica de la Inteligencia Computacional. La estructura del libro se concibe desde los tipos de aprendizaje, ya que es la característica más importante que poseen las redes neuronales artificiales y en ella radica su principal fortaleza para solucionar y adaptarse a diversos problemas. En este libro se encuentran contenidos teóricos básicos que lo dejarán preparado para afrontar el estudio de libros y artículos de carácter avanzado, acompañado de problemas resueltos que afianzan el saber y el saber hacer. El primer capítulo presenta una breve revisión histórica de la evolución de las RNA con el fin de mostrar los principales desarrollos científicos que han enriquecido este apasionante campo del saber. Se introduce el modelo artificial de una neurona inspirado en el funcionamiento de la neurona biológica y a partir de este modelo artificial, se hace una revisión de las arquitecturas monocapa, multicapa y recurrente de las redes neuronales artificiales, así como de los procesos de aprendizaje supervisado y no supervisado. En el capítulo dos, se estudian las redes neuronales tipo Perceptron y Adaline, las arquitecturas, los principales algoritmos de aprendizaje y su aplicabilidad. Es importante detenerse en las limitaciones inherentes al Perceptron con el fin de visualizar la introducción de estructuras de red más complejas y que las superen. Como en todos los capítulos siguientes, el libro propone una aproximación práctica para solucionar problemas usando MATLAB y UV-SRNA, siendo esta última una herramienta desarrollada en la Universidad del Valle. De las limitaciones observadas en el Perceptron, relacionadas fundamentalmente con su imposibilidad para solucionar problemas no lineales, surgen el Perceptron Multicapa (MlP) y el algoritmo de Backpropagation, temas que son ampliamente discutidos en el capítulo tres. En el capítulo cinco se presentan los Mapas Auto-organizados de Kohonen como un ejemplo representativo del aprendizaje no supervisado de las redes neuronales artificiales. En las aplicaciones prácticas se enfatiza en la capacidad que tiene esta red para auto-organizarse dependiendo de la estructura de los datos que se utilicen para su entrenamiento, con el fin de mostrar su aplicabilidad en el campo del reconocimiento y clasificación de patrones. La estructura del libro se concibe desde los tipos de aprendizaje, ya que es la característica más importante que poseen las redes neuronales artificiales y en ella radica su principal fortaleza para solucionar y adaptarse a diversos problemas. En este libro se encuentran contenidos teóricos básicos que lo dejarán preparado para afrontar el estudio de libros y artículos de carácter avanzado, acompañado de problemas resueltos que afianzan el saber y el saber hacer. El primer capítulo presenta una breve revisión histórica de la evolución de las RNA con el fin de mostrar los principales desarrollos científicos que han enriquecido este apasionante campo del saber. Se introduce el modelo artificial de una neurona inspirado en el funcionamiento de la neurona biológica y a partir de este modelo artificial, se hace una revisión de las arquitecturas monocapa, multicapa y recurrente de las redes neuronales artificiales, así como de los procesos de aprendizaje supervisado y no supervisado. En el capítulo dos, se estudian las redes neuronales tipo Perceptron y Adaline, las arquitecturas, los principales algoritmos de aprendizaje y su aplicabilidad. Es importante detenerse en las limitaciones inherentes al Perceptron con el fin de visualizar la introducción de estructuras de red más complejas y que las superen. Como en todos los capítulos siguientes, el libro propone una aproximación práctica para solucionar problemas usando MATLAB y UV-SRNA, siendo esta última una herramienta desarrollada en la Universidad del Valle. De las limitaciones observadas en el Perceptron, relacionadas fundamentalmente con su imposibilidad para solucionar problemas no lineales, surgen el Perceptron Multicapa (MlP) y el algoritmo de Backpropagation, temas que son ampliamente discutidos en el capítulo tres. En el capítulo cinco se presentan los Mapas Auto-organizados de Kohonen como un ejemplo representativo del aprendizaje no supervisado de las redes neuronales artificiales. En las aplicaciones prácticas se enfatiza en la capacidad que tiene esta red para auto-organizarse dependiendo de la estructura de los datos que se utilicen para su entrenamiento, con el fin de mostrar su aplicabilidad en el campo del reconocimiento y clasificación de patrones. El primer capítulo presenta una breve revisión histórica de la evolución de las RNA con el fin de mostrar los principales desarrollos científicos que han enriquecido este apasionante campo del saber. Se introduce el modelo artificial de una neurona inspirado en el funcionamiento de la neurona biológica y a partir de este modelo artificial, se hace una revisión de las arquitecturas monocapa, multicapa y recurrente de las redes neuronales artificiales, así como de los procesos de aprendizaje supervisado y no supervisado. En el capítulo dos, se estudian las redes neuronales tipo Perceptron y Adaline, las arquitecturas, los principales algoritmos de aprendizaje y su aplicabilidad. Es importante detenerse en las limitaciones inherentes al Perceptron con el fin de visualizar la introducción de estructuras de red más complejas y que las superen. Como en todos los capítulos siguientes, el libro propone una aproximación práctica para solucionar problemas usando MATLAB y UV-SRNA, siendo esta última una herramienta desarrollada en la Universidad del Valle. De las limitaciones observadas en el Perceptron, relacionadas fundamentalmente con su imposibilidad para solucionar problemas no lineales, surgen el Perceptron Multicapa (MlP) y el algoritmo de Backpropagation, temas que son ampliamente discutidos en el capítulo tres. En el capítulo cinco se presentan los Mapas Auto-organizados de Kohonen como un ejemplo representativo del aprendizaje no supervisado de las redes neuronales artificiales. En las aplicaciones prácticas se enfatiza en la capacidad que tiene esta red para auto-organizarse dependiendo de la estructura de los datos que se utilicen para su entrenamiento, con el fin de mostrar su aplicabilidad en el campo del reconocimiento y clasificación de patrones. En el capítulo dos, se estudian las redes neuronales tipo Perceptron y Adaline, las arquitecturas, los principales algoritmos de aprendizaje y su aplicabilidad. Es importante detenerse en las limitaciones inherentes al Perceptron con el fin de visualizar la introducción de estructuras de red más complejas y que las superen. Como en todos los capítulos siguientes, el libro propone una aproximación práctica para solucionar problemas usando MATLAB y UV-SRNA, siendo esta última una herramienta desarrollada en la Universidad del Valle. De las limitaciones observadas en el Perceptron, relacionadas fundamentalmente con su imposibilidad para solucionar problemas no lineales, surgen el Perceptron Multicapa (MlP) y el algoritmo de Backpropagation, temas que son ampliamente discutidos en el capítulo tres. En el capítulo cinco se presentan los Mapas Auto-organizados de Kohonen como un ejemplo representativo del aprendizaje no supervisado de las redes neuronales artificiales. En las aplicaciones prácticas se enfatiza en la capacidad que tiene esta red para auto-organizarse dependiendo de la estructura de los datos que se utilicen para su entrenamiento, con el fin de mostrar su aplicabilidad en el campo del reconocimiento y clasificación de patrones. De las limitaciones observadas en el Perceptron, relacionadas fundamentalmente con su imposibilidad para solucionar problemas no lineales, surgen el Perceptron Multicapa (MlP) y el algoritmo de Backpropagation, temas que son ampliamente discutidos en el capítulo tres. En el capítulo cinco se presentan los Mapas Auto-organizados de Kohonen como un ejemplo representativo del aprendizaje no supervisado de las redes neuronales artificiales. En las aplicaciones prácticas se enfatiza en la capacidad que tiene esta red para auto-organizarse dependiendo de la estructura de los datos que se utilicen para su entrenamiento, con el fin de mostrar su aplicabilidad en el campo del reconocimiento y clasificación de patrones. En el capítulo cinco se presentan los Mapas Auto-organizados de Kohonen como un ejemplo representativo del aprendizaje no supervisado de las redes neuronales artificiales. En las aplicaciones prácticas se enfatiza en la capacidad que tiene esta red para auto-organizarse dependiendo de la estructura de los datos que se utilicen para su entrenamiento, con el fin de mostrar su aplicabilidad en el campo del reconocimiento y clasificación de patrones.

No Related Posts

COM044000 ORDENADORES > Redes neuronales
UYQN Redes neuronales y sistemas difusos
006.3 Generalidades > Generalidades y ciencias de la computación > Métodos especiales de computadora > Inteligencia artificial



Autor

Eduardo Francisco Caicedo Bravo

Identificadores:
Tipo ID Valor ID
ORCID https://orcid.org/0000-0003-0727-2917
Biografía:

Ingeniero Electricista de la Universidad del Valle. Máster en Tecnologías de la Información en Fabricación de la Universidad Politécnica de Madrid y Doctor en Ingeniería de la misma Universidad, en el área de Informática Industrial, España. Profesor Titular y Profesor Distinguido de la Universidad del Valle, Director del Grupo de Investigación Percepción y Sistemas Inteligentes (PSI). Autor de varios libros y artículos científicos, conferencista invitado en eventos nacionales e internacionales y profesor visitante en universidades internacionales. Ha trabajado proyectos con COLCIENCIAS, La Unión Europea, el CYTED, la Confederación Suiza y empresas nacionales. Áreas de Interés: Instrumentación Electrónica, Inteligencia Computacional y Robótica, SmartGrids.







Autor

Jesús Alfonso López Sotelo

Identificadores:
Tipo ID Valor ID
Biografía:

Ingeniero electricista, Universidad del Valle, Magíster en automática, Universidad de Valle, Doctor en ingeniería, Universidad del Valle. Trabajó como profesor en la Universidad del Valle, Pontificia Universidad Javeriana y actualmente Universidad Autónoma de Occidente. Ha realizado diversidad de investigaciones en áreas como: Control automático, Aplicaciones de la inteligencia computacional, enseñanza del control automático y de la inteligencia computacional. Es miembro activo del grupo de investigación en Energías: GIEN.




Introducción

Capítulo 1
Generalidades sobre redes neuronales artificiales

Introducción
Breve reseña histórica

De la neurona biológica a la neurona artificial
La neurona biológica
La neurona artificial
Procesamiento matemático en la neurona artificial

Red neuronal artificial

Arquitecturas de redes neuronales artificiales
Redes monocapa
Redes multicapa
Redes feedforward
Redes recurrentes

El aprendizaje en las redes neuronales artificiales
Aprendizaje supervisado
Aprendizaje no-supervisado

Ejemplo de procesamiento de la información en una red neuronal
Nivel de aplicación

Capítulo 2
Redes neuronales perceptron y adaline

Introducción

Red neuronal perceptron
Arquitectura de un perceptron
Algoritmo de aprendizaje

Red neuronal adaline
Arquitectura
Algoritmo de aprendizaje

Limitaciones del perceptron

Aproximación práctica
Construcción de un perceptron usando MATLAB®
Solución de la función lógica AND con un perceptron
Exportando la red neuronal a simulink
Solución de la función lógica AND con UV-SRNA
Clasificador lineal con UV-SRNA
Reconocimiento de caracteres usando el Perceptron
Reconocimiento de caracteres con UV-SRNA
Filtro adaptativo usando una red adaline
Filtrado de señales biomédicas
Filtrado de señales de voz

Proyectos propuestos

Capítulo 3
Perceptron multicapa y algoritmo backpropagation

Introducción
Arquitectura general de un perceptron multicapa

Entrenamiento de un MLP
Nomenclatura del algoritmo backpropagation
Algoritmo backpropagation: regla delta generalizada
Pasos del algoritmo backpropagation
Algoritmo gradiente descendente con alfa variable
Pasos del algoritmo gradiente descendente con alfa variable

Algoritmos de alto desempeño para redes neuronales MLP
Algoritmo de aprendizaje del gradiente conjugado
Algoritmo de aprendizaje levenberg marquardt

Consideraciones de diseño
Conjuntos de aprendizaje y de validación  
Dimensión de la red neuronal

Velocidad de convergencia del algoritmo
Funciones de activación
Pre y pos-procesamiento de datos
Regularización

Aproximación práctica
Solución del problema de la función XOR con MATLAB®
Aprendizaje de una función seno con MATLAB®
Aprendizaje de la función silla de montar con MATLAB®
Solución del problema de la XOR con UV-SRNA
Identificación de sistemas usando redes neuronales MLP
Pronóstico de consumo de energía (demanda)
Aplicación a la clasificación de patrones (el problema de IRIS)

Proyectos propuestos

Capítulo 4
Red neuronal de hopfield

Introducción

Memoria autoasociativa bidireccional (BAM)
Arquitectura de la BAM
Memoria autoasociativa
Procesamiento de información en la BAM

Modelo discreto de hopfield
Procesamiento de aprendizaje
Principio de funcionamiento
Concepto de energía en el modelo discreto de hopfield
Ejemplo de procesamiento

Modelo continuo de hopfield
Modelo continuo de hopfield de una neurona
Función de energía para el modelo continuo de hopfield

Aproximación práctica
Red tipo hopfield con MATLAB®

Proyectos propuestos

Capítulo 5
Mapas auto-organizados de kohonen

Introducción
El modelo bioinspirado de kohonen
Arquitectura de la red

Algoritmo de aprendizaje
Consideraciones iniciales
Modelo matemático
Ejemplo

Principio de funcionamiento
Aproximación práctica
Capacidad para reconocer grupos de patrones de un mapa de kohonen
Capacidad de autoorganización de los mapas de kohonen usando MATLAB®
Capacidad de autoorganización de los mapas de kohonen usando UV-SRNA
Clasificación de patrones usando mapas de kohonen

Proyectos propuestos

Capítulo 6
Red neuronal de base radial (RBF)

Introducción
El problema de interpolación

Redes de base radial
Arquitectura de una red de base radial
Entrenamiento de la red RBF
Diferencias entre las redes MLP y RBF

Aproximación práctica
Ejemplo de interpolación exacta con MATLAB®
Aprendizaje de la función XOR
Aprendizaje de una función de una variable
Identificación de la dinámica de un sistema con una red RBF

Proyectos propuestos

Bibliografía

Publicaciones relacionadas