Pour comprendre ce qu’on appelle aujourd’hui l’Intelligence Artificielle, il est nécessaire de comprendre le cheminement entrepris depuis plus d’un siècle dans des domaines bien précis de la science et de la recherche informatique.
La recherche informatique n'a eu de cesse de s’inspirer des nouvelles connaissances sur le vivant, des avancées réalisées dans la recherche scientifique, afin d’en tirer des avantages, parmi ces champs de recherche on peut citer en exemple : les algorithmes génétiques, les réseaux de neurones, le recuit simulé.
Les Réseaux de Neurones
L’être humain dispose d’un cerveau qui le place sur le plan de l'intelligence au dessus des autres espèces vivantes. Cette particularité peut être vue comme une faiblesse, l’être humain est par nécessité un être social et dépendant,
comparativement, c’est au bout d’une année qu’un être humain aura appris à marcher, quand il ne faut que quelques heures pour n'importe quel animal, en effet pour des raisons de survie, les animaux ont un besoin rapide d'autonomie.
Au contraire l'être humain a besoin de temps, la neurogenèse et Le développement du cerveau sont des processus liés à l'expérience, à l'apprentissage, il y a dans le développement du cerveau un temps à respecter pour chaque chose, on ne peut pas aller plus vite que la musique, les nouveaux neurones qui apparaissent doivent se mettre au diapason de ceux déjà existants, pour bien s'en rendre compte, les capacités optimales du cerveau sont obtenues dans la tranche d'âge qui va de 18 à 25 ans.
Le Cerveau est longtemps restée une énigme, ce n’est qu’en 1881 que l’allemand Heinrich Wilhelm Waldeyer établit la théorie selon laquelle le système nerveux est composé de cellules spécifiques qui assurent le traitement de signaux : les fameux neurones.
C'est en 1943 que deux scientifiques américains Warren McCulloch et Walter Pitts proposent une adaptation en mathématiques du neurone biologique : le neurone formel.
L'objectif est dans un premier temps de réaliser des opérations logiques, arithmétiques, puis c'est en 1949 qu'une théorie qui concerne l'interaction des neurones dans leur phase d'apprentissage voit le jour, il s'agit de la "règle de Hebb".
En 1957, Frank Rosenblatt conçoit le premier véritable réseau de neurones avec le Perceptron capable d'apprendre et dont l'application servira dans un premier temps à reconnaître des formes.
Si les opérations logiques basiques sont réalisables avec un perceptron simple couche (AND, OR, NOT), des limitations se sont rapidement fait sentir, comme par exemple l'impossibilité de réaliser un Ou exclusif (XOR), il faudra attendre les années 80 et le perceptron multicouche pour apporter de nouvelles solutions et étendre les possibilités de ces systèmes.
Les progrès réalisés au niveau des réseaux de neurones artificiels se font donc à l'origine par bonds sur le plan de la recherche mais nous verrons par la suite, que l'augmentation de la puissance de calcul des ordinateurs a énormément joué dans leur développement et a permis certaines avancées.