REDES NEURONALES
Redes Neuronales Biológicas
•
Procesador de
información muy simple basado en procesos electroquímicos.
•
1011
Neuronas (procesadores)
•
salida (6×1014
conex.)
•
Poder desconocido
•
1000 – 10000 conexiones
por neurona

COMPONENTES DE UNA NEURONA
•
SOMA: Cuerpo de la
célula
–
Realiza el
”procesamiento”
•
AXÓN: Elemento de
salida con múltiples ramificaciones.
–
Transporta impulsos
nerviosos a otras neuronas
•
DENDRITAS: Elementos de
entrada
–
Reciben señales de
excitación/inhibición de otras neuronas a través de las sinapsis.
–
SINAPSIS: Áreas de
contacto entre neuronas.
•
Conexiones
unidireccionales, dos tipos.
•
excitadoras
•
inhibidoras
•
No hay contacto físico,
(separación)
•
Transmisión de info. en
forma electroquímica (iones +/-), gobernada por neurotransmisores
Funcionamiento
•
Neurona (soma)
”acumula” todos los potenciales positivos y negativos que recibe en sus entradas
(dendritas)
•
Si la suma de esos
impulsos es ”suficiente”, cambia su potencia y genera su salida en el axón que
se propagará a otras neuronas.
•
BREVE RESEÑA HISTÓRICA
- Comienzos(década 40)
•
El trabajo de Warren
McCulloch y Walter Pitts publicado en 1943 bajo el título:
"A logical calculus of the
ideas immanent in nervous activity”
comienzo de la neuronales computación
Se muestra que incluso las formas más simples de redes
neuronales pueden computar, funciones aritméticas y lógicas.
•
Norbert Wiener y John von Newmann (el padre de la computación moderna),
realizaron trabajos en los que sugerían que la investigación en el diseño de
ordenadores inspirados en el cerebro podría ser interesante.
•
En 1949, Donald Hebb,
psicólogo de la Universidad de McGill: "The Organization of Behavior“
donde se diseña la primera ley de aprendizaje para las redes de neuronas
artificiales.
. La primera edad de oro
(50-60)
•
En 1962, Frank Rosenblatt introdujo y desarrolló una amplia gama de
redes neuronales artificiales llamadas perceptores.
•
En 1960, Bernard
Widrow y su alumno Marcian Hoff desarrollaron una regla de aprendizaje que es
muy parecida a la regla de aprendizaje del perceptrón y que es la precursora de
la regla de retropropagación para redes multicapa.
•
En 1969, Marvin Minsky y Seymour Papert,
•
en su libro titulado "Perceptrons", mostraron las
imitaciones del perceptrón (con una sola capa) para aprender.
•
Los años tranquilos (70)
•
Teuvo Kohonen (1972)
de la Universidad de Tecnología de Helsinki desarrollaron las redes neuronales
de memoria asociativa.
•
James Anderson
(1968, 1972), de la Universidad de Brown, comenzó su investigación en las redes
de memoria asociativa.
•
Stephen Grossberg
(director del Center for Adaptative Systems de la Universidad de Boston ) y sus
muchos colaboradores, como Gail Carpenter, con quien desarrolló una teoría de
redes neuronales autoorganizadas, llamada teoría de resonancia adaptativa (l985, 1987
•
En 1987 se celebró en San Diego la primera conferencia
abierta sobre redes neuronales (IEEE International Conference on Neural
Networks), con más de 1700 participantes, y se formó la International Neural
Network Society (INNS).
•
En 1988 nace la
revista Neural Networks; le sigue la revista Neural Computation en 1989 y la
IEEE Transaction on Neural Networks en 1990. Posteriormente han ido apareciendo
otras muchas y se han creado Institutos de Investigación y programas de
formación en Neurocomputación.
•
Es un sistema de procesamiento de información que tiene
ciertas características de comportamiento inspiradas en el conocimiento actual
que tenemos sobre el funcionamiento de las neuronas biológicas.
•
El cerebro se puede
contemplar como un ordenador complejo, no lineal y paralelo que procesa gran
cantidad de información.
•
“Son sistemas
computacionales, de implementación en hardware o software, que imitan las
habilidades computacionales del sistema nervioso biológico, usando un gran
número de simples neuronas artificiales interconectadas”
Redes Neuronales Artificiales
•
Objetivo: Emular
funcionamiento de neuronas biológicas.
•
Una RNA está formada
por un conjunto de EPS (neuronas artificiales) unidas por conexiones
unidireccionales ponderadas (con un peso asociado).
•
La red se adapta
mediante un aprendizaje que modifica los pesos de las conexiones.
•
El conocimiento se
almacena en los pesos sinápticos.

No hay comentarios:
Publicar un comentario