|
1943. MacCulloch
y Pitts (MacCulloch y Pitts, 1943) publicaban el artículo "A
logical Calculus of ideas Immanent in Nervous Activity". La
colaboración de un neurobiólogo y un matemático genera un modelo
abstracto de neurona en el que la probabilidad de que una neurona se
activase dependía de la señal de entrada y de la sinapsis de
conexión.
|
|
1949. Hebb
Publica el libro "The organization of the Behavior" (Hebb,
1949) donde se describe cómo pueden aprender las neuronas. Si la
neurona de entrada y la neurona de salida estaban ambas activadas
entonces se reforzaba la conexión sináptica de ambas.
|
|
1951.
Marvin Minsky y Dean Edmons fabrican con tubos, motores y
dispositivos mecánicos una máquina capaz de aprender. Para ello se
basaron en las ideas de MacCulloch y Pitts. Aunque rudimentaria,
esta máquina fue fascinante en su tiempo.
|
|
1956.
Organizada por Minsky, John mcCarthy, Nathaniel Rochester y Claude
Shannon se celebró la primera conferencia sobre Inteligencia
Artificial.
|
|
1959. Frank
Rosenblatt (Rosenblatt, 1959) desarrolla su concepto de perceptron.
Un sistema que permitía interpretar patrones tanto abstractos como
geométricos. El perceptron supone un gran avance en la IA y el
inicio de las RNA.
|
|
1962. Marcian
Hoff. Desarrolla un modelo llamado ADALINE. Este modelo de RNA es
capaz de clasificar los datos en espacios separables linealmente. La
red ADALINE era extremadamente similar al perceptron y pronto se
generalizó estos resultados al modelo de Rosenblatt.
|
|
1969.
Minsky y Papert (Minsky and Paperts, 1969) publican el libro
llamado "perceptrons" en el que presentan el principal
problema del perceptron, el famoso problema del XOR o el No
exclusivo. El XOR en un operador lógico en el que la conclusión es
verdadera si es verdad uno de los supuestos, pero es falsa en caso
de que ambos sean falsos o verdaderos. La solución de este problema
es linealmente no separable y el percetron no podía superarlo. Además
en este artículo se plantea "el problema de la asignación de
créditos". Una red de perceptrones compuesta por varias capas
podría solucionar el XOR, sin embargo eso no es posible porque no
se sabe cuánto tienen que modificarse los pesos de la capa
intermedia. Este libro desmoralizó a todos los investigadores y
provocó un descenso del interés en las RNA.
|
|
En la época posterior
al libro de Minsky y Papert el interés generalizado por las RNA había
desaparecido, sin embargo algunos investigadores decidieron
continuar con las investigaciones. En este periodo aparecen los
modelos de Anderson, Kohonen. Grossberg, Hopfield, etc.
|
|
1986. Rumelhart,
McClelland y el PDP (Rumelhart, McClelland & PDP, 1986) Estos
dos investigadores fundaron el PDP (Parallel Distributed Processing)
un grupo dedicado al estudio del conocimiento. De este grupo se editó
el libro "Parallel Distributed Processing: Explorations in the
Microstructures of Cognition". Este libro supuso una revolución
dentro de las RNA, en él se exponía el modelo Back-Propagation que
resolvía el problema de la asignación de créditos propuesto por
Minsky. Después de este libro se produjo una explosión en las RNA
apareciendo modelos, técnicas, campos de aplicación y fusiones híbridas
de modelos. Esta explosión e interés en el tema ha durado hasta la
actualidad donde las RNA son una de las herramientas matemáticas más
utilizadas.
|