Perceptron
la naissance d’un rêve
Imagine un gars en 1958, Frank Rosenblatt, qui regarde un ordinateur gros comme une machine à laver et se dit : “Et si on lui donnait un cerveau, ou du moins, un neurone ?”.
Pas de cloud, pas de GPU, juste des idées et une machine à carte perforée.
C’est là qu’est né le perceptron, le tout premier neurone artificiel.
En gros, c’est un modèle mathématique qui essayait de reproduire comment un vrai neurone humain traite l’information :
Tu lui donnes des entrées (comme des 0 et des 1), il les combine, et il te donne un résultat (genre “oui” ou “non”).
À l’époque, c’était révolutionnaire.
Rosenblatt pensait qu’en empilant des perceptrons, on arriverait à créer une machine capable de penser.
Oui, le gars rêvait déjà d’IA quand le monde découvrait à peine les téléviseurs en couleur.
Mais voilà, le perceptron avait un gros problème : il ne pouvait pas résoudre des tâches complexes.
En 1969, deux autres chercheurs (Marvin Minsky et Seymour Papert) sont venus casser l’ambiance en montrant mathématiquement ses limites.
Résultat : pendant 20 ans, l’IA a été mise au placard.
Les budgets de recherche se sont effondrés, les gens n’y croyaient plus.
Pourquoi c’est important aujourd’hui ?
Parce que sans le perceptron, il n’y aurait pas de neurones artificiels, donc pas de deep learning.
Il a posé la première pierre.
Et surtout, il nous rappelle que même si une idée semble limitée ou “cassée”, elle peut devenir le fondement d’une révolution.
Le perceptron, c’est l’ancêtre de tous les modèles d’IA.
Un petit neurone qui a allumé une étincelle, et cette étincelle brûle encore aujourd’hui dans des modèles comme GPT.
➡️ T’avais déjà entendu parler du perceptron ?
Ça te paraît simple ou tordu comme concept ?