Édition du: 13/01/2023 |
INDEX |
LOGIQUE et IA |
|||
INTELLIGENCE ARTIFICIELLE HISTORIQUE |
|||
|
Sommaire de cette page >>> Historique >>> Évolution
technologique |
Image
totalement créée
par Nvidia |
Débutants Glossaire |
Anglais: Artificial Intelligence – A.I.
|
||
1308 |
Raymond Lulle (1232-1316, Catalan) – Ars generalis
ultima: tentative de création d'un langage universel permettant le
raisonnement (but religieux) – Obtention de conclusions à travers la présence
conjointe de Principes et de Règles. |
|
1666 |
Gottfried Leibniz
(1646-1716) – Dissertatio de are combinatoria: toute pensée humaine est la
combinaisons de pensées plus simples. |
|
1726 |
Jonathan Swift (1667-1745) – Les voyages de Gulliver:
la Machine à écrire avec mécanisme de raisonnement améliorant les
connaissances. Préfigure nos ordinateurs. |
|
1763 |
Thomas Bayes (1702-1761) – Mathématicien qui développa
une manière de raisonner avec les probabilités. Le théorème de Bayes est
utilisé pour lutter contre les spams. |
|
1854 |
George Boole (1815-1864) – Développe la logique de
Boole; il prétend que le raisonnement logique peur être formalisé, comme
l'algèbre. |
|
1898 |
Nikola Tesla (1856-1943) – Première démonstration de
transmission sans fil en téléguidant un navire (téléguidage). |
|
1900 |
David Hilbert recense 23
problèmes non résolus, dont celui de la décidabilité à la
Conférence internationale de mathématique à Paris. |
|
1914 |
Leonardo Torres y Quevado: première démonstration d'une
machine à jouer aux échecs. |
|
1920 |
Karel Capek, dramaturge tchèque, donne le nom de robot à
des machines intelligentes. |
|
1925 |
Voiture autonome radio-controlée dans les rues de New
York |
|
1929 |
Premier robot construit au Japon. |
|
1931 |
Kurt Gödel publie son théorème sur l’incomplétude. |
|
1936 |
Alan Turing adresse les
notions de décidabilité. |
|
1940 |
Norbert Wiener introduit les automates : systèmes auto régulés avec
boucle de rétro action. |
|
1943 |
Premières études sur les neurones formels.
Warren McCulloch et Walter Pitts. |
|
1944 |
Début des ordinateurs,
basés sur les idées de
Turing, et de
von
Neumann. |
|
1945 |
ENIAC –
Premier ordinateur. |
|
1949 |
Edmund Berkeley publie: cerveaux géants: ou les
machines qui pensent |
|
1949 1950 |
Donald Hebb explique les phénomènes d’apprentissage.
Alan Turing publie Computing Machinery and
Intelligence qui marque le
véritable début de l'IA (test de Turing). |
|
1950 |
Claude Shannon publie un article sur la programmation
d'un jeu d'échecs |
1952 |
Arthur Samuel: programme un jeu d'échecs et premier
pgrogramme avec apprentissage. |
1955 |
Premiers langages d’intelligence
artificielle. |
1955 |
Première utilisation officielle de l’expression
" Intelligence Artificielle " à la
Conférence de Dartmonth College: John McCarthy, Marvin Minsky, Nathanaiel
Rochester et Claude Shannon. |
1955 |
Herbert Simon et Allen Newell développe le premier
programme d'intelligence artificielle qui démontre une bonne partie des
théorèmes publiés par Bertrand Russel. |
1957 |
Rosenblatt invente le Perceptron, ancêtre des réseaux de
neurones. Deux couches pour la reconnaissance de caractères. |
1958 |
Langage fonctionnel LISP – John McCarthy.
Le langage le plus populaire de l'IA. |
1959 |
Arthur Samuel utilise le terme de "machine
learning": machine à apprentissage qui peut mieux jouer que ne le ferait
son créateur. |
1959 |
Oliver Selfridge publie un article sur la
reconnaissance de caractères a priori inconnu.
John McCarthy publie un article qui décrit des
programmes qui apprennent par
apprentissage. |
1961 |
Cybernétique de Wiener. |
1961 |
Premier robot industriel (Ultimate) sur une
ligne de montage de General Motors. |
1961 |
James Sladge développe un programme
heuristique (SAINT) qui résous des problèmes d'intégration symbolique. |
1964 |
Daniel Bobrow développe STUDENT, un langage
naturel de programmation des ordinateurs. |
1965 |
Edward Feigenbaum, Bruce Buchanan, josha
Lederberg et Carl Djerassi travaillent sur DENDRAL, le premier système expert
(chimie organique). |
1966 |
Le premier robot universel mobile (Shakey)
qui commente ses actions. |
1967 |
Langage Logo – Seymour Papert
(né en 1928) |
1968 |
Hal, l'ordinateur sensible du film: 2001,
l'Odyssée de l'espace. |
1969 |
Arthur Bryson et Yu-Chi Ho décrivent la propagation
rétrograde. Application aux réseaux de neurones multicouches. |
1969 |
Marvin Minsky et Seymour Papert publient
Perceptrons: une introduction à la géométrie par ordinateur. |
1970 |
WABOT-1, le premier robot à forme humaine. |
1971 |
Début des microprocesseurs
avec les circuits intégrés d’Intel. |
1972 |
MYCIN, système expert d'identification des bactéries
avec recommandations de soins. |
1976 |
Raj Reddy: article sur la reconnaissance de la parole
par réseaux de neurones. |
1986 |
"La société de l'esprit" (1986), ouvrage de
Marvin Minsky, père de l'IA au MIT (Massachusetts Institute of Technology).
Né en 1927. |
1986 |
Voiture Mercedes-Benz sans chauffeur |
1989 |
Yann LeCun et son équipe implémente des algorithmes de
propagation rétrograde à des réseaux de neurones multicouches. |
1997 |
L'ordinateur Deep
Blue bat le champion du monde aux échecs |
1998 |
Yann LeCun et Yoshua Bengio; reconnaissance des
caractères manuscrits. |
2000 |
La SWARM INTELLIGENCE – L'intelligence de l'essaim: discipline
qui parie que les petits organismes artificiels du futur auront la capacité
de créer ensemble une intelligence collective à la manière des fourmis
d'aujourd'hui. |
|
LA SMART DUST – poussière intelligente ou réseaux de microprocesseur
microscopique répartis. Chacun captant une grandeur dans son environnement et
la communiquant à son voisin pour l'acheminer à un organe central
reconstituant la cartographie de la grandeur. Applications
cartographie thermique des forêts – prévention des
incendies;
cartographies des polluants;
détection de vibrations
- alarmes dans les zones sismiques;
suivi des marchandises dans les magasins;
surveillance des biens et des personnes;
suivi des fantassins sur le champ de bataille;
exploration des planètes;
etc. |
2000 |
ASIMO, le robot humanoïde qui marche comme un humain. |
2009 |
Google lance ses recherches sur la voiture autonome. |
2011 |
WATSON, bat les champions du Jeopary. |
2016 |
ALPHA GO bat le champion du monde de GO. |
Voir Histoire des mathématiques et des sciences /
Histoire de la neuronique /
Événement des années
1900 / Inventions des années 1900
|
||
1950 –
Alan Turing
utilise le terme intelligence artificielle dans l'un de ses articles. 1950 –
Années qui voient les premières réflexions sur l'IA sans émerger faute de puissance de
calcul et de mémoire 1956 –
Conférence au Darmouth College, naissance de l'IA, réunissant les acteurs
importants de l'IA, parmi lesquels: Marvin Minsky, John McCarthy, Claude Shannon et
Nathan Rochester. 1959 –
Arthur Samuel (IBM) présente un jeu de dames qui s'améliore à chaque partie
jouée. 1986 –
Rina Dechter – Premiers concepts de
l'apprentissage profond. 1989 –
Yann Le Cun – Première application: un réseau de
neurones artificiels profond reconnait les codes postaux écrits à la main
sur des lettres. 1990's –
Début de l'IA avec apprentissage. 1997 – Deep
Blue, le superordinateur d'IBM, bat le champion des échecs. |
Test de Turing: Il consiste à engager une conversation masquée
entre un humain, une machine, et un autre humain. Si le premier humain n’est pas
en mesure de désigner l’interlocuteur qui est une machine, alors cette
dernière passe le test de Turing. IA forte: dotée de conscience et donc d’une sensibilité particulière. Domaine
encore de la science-fiction. IA faible: programme qui n’est pas doté de sens et se
concentre uniquement sur la tâche pour laquelle il a été programmé. Celle qui
est en cours de développement explosif. Algorithme: programme dédié à une tâche et qui n'évolue pas. Réseaux de neurones artificiels: réseaux
informatiques à plusieurs couches, constitués de nœuds programmables
automatiquement à la suite d'un apprentissage. |
|
|
||
2009 – Année
considérée comme le point de départ de l'apprentissage profond. 2011 –
Watson: programme IBM conçu dans le but de répondre à des questions formulées
en langage naturel. Champion du jeu télévisé américain Jeopardy. 2012 –
Andrew Ng (né en 1976) fonde Google Brain et crée une architecture comportant
de nombreuses couches. Sa machine apprend à reconnaitre les chats sur des
images. 2012 – Progrès des
composants informatiques qui autorisent l'implémentation de l'IA. Les GPU
permettent de réaliser des traitements parallèles 2014 – AlphaGo
de DeepMind (Google) bat le champion du jeu de GO. 2015 –
Capacité à mémoriser des quantités astronomiques de données. |
Machine à apprentissage profond (machine
learning and deep learning): exploitation de nombreuses données pour parfaire
automatiquement la performance du programme, du réseau de neurones. Plus
profond avec plus de couches. GPU, Graphic Processor Unit: processor
graphique, microprocesseur dédié qui décuple (centuple) la puissance
traitement en apprentissage profond. GAN: Generative Adversarial Networks. Réseau de
neurones qui simule une information (une image, par exemple) et la soumet à
un autre réseau de neurones pour tester sa capacité à reconnaitre le vrai du
faux parmi de vraies informations (images) et, ainsi améliorer sa
performance. Le premier réseau est le générateur et le second le
discriminateur. |
|
D'après Intelligence
artificielle, machine learning, deep learning : quelles différences ? –
Valentin
Blanchot – Siècle Digital – Janvier 2019
Suite |
||
Voir |
Logique
– Index Multimédia et
informatique – Index |
|
Sites |
Histoire
de l'intelligence artificielle – Wikipédia Apprentissage
automatique – Wikipédia
Machine
learning et deep learning, comment ça marche? – Ludovic Louis – Siècle
digital – 22/12/2016 De
l’intelligence artificielle aux humanités numériques – Entretien avec
Milad Doueihi et Jean-Gabriel Ganascia – La vie des idées – 2014 Intelligence
Artificielle : 700 Ans d’Histoire – Forbes
A
Very Short History Of Artificial Intelligence (AI) – Gil Press – 2016 |
|
Cette
page |