viernes, 12 de octubre de 2012

REDES NEURONALES


REDES NEURONALES
Redes Neuronales Biológicas
         Procesador de información muy simple basado en procesos electroquímicos.
         1011 Neuronas (procesadores)
         salida (6×1014 conex.)
         Poder desconocido
         1000 – 10000 conexiones por neurona
COMPONENTES DE UNA NEURONA
         SOMA: Cuerpo de la célula
        Realiza el ”procesamiento”
         AXÓN: Elemento de salida con múltiples ramificaciones.
        Transporta impulsos nerviosos a otras neuronas
         DENDRITAS: Elementos de entrada
        Reciben señales de excitación/inhibición de otras neuronas a través de las sinapsis.
        SINAPSIS: Áreas de contacto entre neuronas.
         Conexiones unidireccionales, dos tipos. 
         excitadoras
         inhibidoras
         No hay contacto físico, (separación)
         Transmisión de info. en forma electroquímica (iones +/-), gobernada por neurotransmisores
Funcionamiento
      Neurona (soma) ”acumula” todos los potenciales positivos y negativos que recibe en sus entradas (dendritas)
      Si la suma de esos impulsos es ”suficiente”, cambia su potencia y genera su salida en el axón que se propagará a otras neuronas.
      BREVE RESEÑA HISTÓRICA
  1. Comienzos(década 40)
       El trabajo de Warren McCulloch y Walter Pitts publicado en 1943 bajo el título:
"A logical calculus of the ideas immanent in nervous activity”
comienzo de la neuronales computación
Se muestra que incluso las formas más simples de redes neuronales pueden computar, funciones aritméticas y lógicas.
      Norbert Wiener y John von Newmann (el padre de la computación moderna), realizaron trabajos en los que sugerían que la investigación en el diseño de ordenadores inspirados en el cerebro podría ser interesante.
       En 1949, Donald Hebb, psicólogo de la Universidad de McGill: "The Organization of Behavior“ donde se diseña la primera ley de aprendizaje para las redes de neuronas artificiales.
. La primera edad de oro (50-60)
      En 1962, Frank Rosenblatt  introdujo y desarrolló una amplia gama de redes neuronales artificiales llamadas perceptores.
       En 1960, Bernard Widrow y su alumno Marcian Hoff desarrollaron una regla de aprendizaje que es muy parecida a la regla de aprendizaje del perceptrón y que es la precursora de la regla de retropropagación para redes multicapa.
      En 1969, Marvin Minsky y Seymour Papert,
      en su libro titulado "Perceptrons", mostraron las imitaciones del perceptrón (con una sola capa) para aprender.
      Los años tranquilos (70)
       Teuvo Kohonen (1972) de la Universidad de Tecnología de Helsinki desarrollaron las redes neuronales de memoria asociativa.
       James Anderson (1968, 1972), de la Universidad de Brown, comenzó su investigación en las redes de memoria asociativa.
       Stephen Grossberg (director del Center for Adaptative Systems de la Universidad de Boston ) y sus muchos colaboradores, como Gail Carpenter, con quien desarrolló una teoría de redes neuronales autoorganizadas, llamada teoría de resonancia adaptativa  (l985, 1987
      En 1987 se celebró en San Diego la primera conferencia abierta sobre redes neuronales (IEEE International Conference on Neural Networks), con más de 1700 participantes, y se formó la International Neural Network Society (INNS).
       En 1988 nace la revista Neural Networks; le sigue la revista Neural Computation en 1989 y la IEEE Transaction on Neural Networks en 1990. Posteriormente han ido apareciendo otras muchas y se han creado Institutos de Investigación y programas de formación en Neurocomputación.
      Es un sistema de procesamiento de información que tiene ciertas características de comportamiento inspiradas en el conocimiento actual que tenemos sobre el funcionamiento de las neuronas biológicas.
       El cerebro se puede contemplar como un ordenador complejo, no lineal y paralelo que procesa gran cantidad de información.
      “Son sistemas computacionales, de implementación en hardware o software, que imitan las habilidades computacionales del sistema nervioso biológico, usando un gran número de simples neuronas artificiales interconectadas”

Redes Neuronales Artificiales

      Objetivo: Emular funcionamiento de neuronas biológicas.
      Una RNA está formada por un conjunto de EPS (neuronas artificiales) unidas por conexiones unidireccionales ponderadas (con un peso asociado).
      La red se adapta mediante un aprendizaje que modifica los pesos de las conexiones.
      El conocimiento se almacena en los pesos sinápticos.

No hay comentarios:

Publicar un comentario