SlideShare uma empresa Scribd logo
1 de 72
Baixar para ler offline
Intelligence Artificielle Neuro-inspirée
Projet Br.A.In.
Nicolas Farrugia
Br.A.In.
2 mars 2017
Travail avec Vincent Gripon
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 1 / 20
Br.A.In.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
Br.A.In.
Brain-inspired
Artificial
Intelligence
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
Br.A.In.
Imagerie cérébrale
Réseaux de Neu-
rones Artificiels
Traitement
du Signal et
des Images
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
Plan
1 Intelligence Artificielle
Définition
La révolution artificielle
Intelligence artificielle vs. intelligence naturelle
L’apprentissage profond et ses limites
2 Apprentissage versus Stockage
Calcul vs. information
Codage correcteur d’erreurs
Mémoires associatives
3 Neuroimagerie et Intelligence artificielle
Réseaux de neurones profonds et perception visuelle
I.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
L’intelligence artificielle : définition
L’intelligence d’un algorithme
On qualifie d’intelligent un algorithme qui, une fois programmé, est
incapable de répondre au problème pour lequel il a été conçu. C’est
par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.
Exemple
Un algorithme qui calcule l’hypoténuse à partir des deux autres
longueurs d’un triangle rectangle n’est pas “intelligent”,
Un algorithme qui découvre par lui-même la relation et est
capable de généraliser à partir d’exemples données est qualifié
d’“intelligent”.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
L’intelligence artificielle : définition
L’intelligence d’un algorithme
On qualifie d’intelligent un algorithme qui, une fois programmé, est
incapable de répondre au problème pour lequel il a été conçu. C’est
par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.
Exemple
Un algorithme qui calcule l’hypoténuse à partir des deux autres
longueurs d’un triangle rectangle n’est pas “intelligent”,
Un algorithme qui découvre par lui-même la relation et est
capable de généraliser à partir d’exemples données est qualifié
d’“intelligent”.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage supervisé
Régression,
Nécessite un expert,
Débouche sur des tas
d’applications :
Jouer à un jeu,
Reconnaître des formes,
Résoudre un exercice de
maths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage supervisé
Régression,
Nécessite un expert,
Débouche sur des tas
d’applications :
Jouer à un jeu,
Reconnaître des formes,
Résoudre un exercice de
maths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage supervisé
Régression,
Nécessite un expert,
Débouche sur des tas
d’applications :
Jouer à un jeu,
Reconnaître des formes,
Résoudre un exercice de
maths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage non-supervisé
Partitionnement,
Nécessite une échelle
spatiale,
Pour beaucoup, c’est le “vrai”
support de l’intelligence :
Représentation du monde,
langage,
Compression,
Source d’hypothèses. . .
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage non-supervisé
Partitionnement,
Nécessite une échelle
spatiale,
Pour beaucoup, c’est le “vrai”
support de l’intelligence :
Représentation du monde,
langage,
Compression,
Source d’hypothèses. . .
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Des algorithmes intelligents pour quoi faire ?
La révolution artificielle
Écho à la révolution industrielle,
Automatisation du travail intellectuel pénible,
Réduction des inégalités (médecine, confort, vieillissement...).
La singularité
Nouveaux outils pour traiter/trier les informations,
Écart immense biologique et électronique,
Aller au delà des limites de l’homme biologique.
Les post-mathématiques
L’automatisation de preuves,
Le multi-agents et la simulation informatique,
La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
Des algorithmes intelligents pour quoi faire ?
La révolution artificielle
Écho à la révolution industrielle,
Automatisation du travail intellectuel pénible,
Réduction des inégalités (médecine, confort, vieillissement...).
La singularité
Nouveaux outils pour traiter/trier les informations,
Écart immense biologique et électronique,
Aller au delà des limites de l’homme biologique.
Les post-mathématiques
L’automatisation de preuves,
Le multi-agents et la simulation informatique,
La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
Des algorithmes intelligents pour quoi faire ?
La révolution artificielle
Écho à la révolution industrielle,
Automatisation du travail intellectuel pénible,
Réduction des inégalités (médecine, confort, vieillissement...).
La singularité
Nouveaux outils pour traiter/trier les informations,
Écart immense biologique et électronique,
Aller au delà des limites de l’homme biologique.
Les post-mathématiques
L’automatisation de preuves,
Le multi-agents et la simulation informatique,
La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
Intelligence artificielle et intelligence naturelle
Quelle est la couleur du cheval
blanc d’Henri IV ?
√
3
0
x3
(1 + x2
)dx
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
Intelligence artificielle et intelligence naturelle
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
Intelligence artificielle et intelligence naturelle
Il n’y a qu’un seul modèle duquel s’inspirer : le cerveau.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Non linéarités
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Paramètres
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
“Intriguing properties of neural networks”, Arxiv research report, 2013.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
“Intriguing properties of neural networks”, Arxiv research report, 2013.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Plan
1 Intelligence Artificielle
Définition
La révolution artificielle
Intelligence artificielle vs. intelligence naturelle
L’apprentissage profond et ses limites
2 Apprentissage versus Stockage
Calcul vs. information
Codage correcteur d’erreurs
Mémoires associatives
3 Neuroimagerie et Intelligence artificielle
Réseaux de neurones profonds et perception visuelle
I.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Mémoire et calcul
Mémoire et calculs doivent-ils être. . .
Séparés. . . ou inextricablement liés ?
Memory
Processing unit
Control unit
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 8 / 20
Le schéma de Shannon appliqué au cerveau
Perception Mémoire
Monde extérieur
riche et exubérant
Codage
de source
Suppression de
la redondance
naturelle
Addition de
redondance
artificielle
Codage
de canal
Information mentale,
parcimonieuse et
robuste
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 9 / 20
Le mystère du stockage de l’information mentale
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,
qui pend au plafond
Victor Hugo
ei π + 1 = 0
8 × 7 = 56
02 29 00 12 77
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,
qui pend au plafond
Victor Hugo
ei π + 1 = 0
8 × 7 = 56
02 29 00 12 77
1 neurone perdu
chaque seconde
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,
qui pend au plafond
Victor Hugo
ei π + 1 = 0
8 × 7 = 56
02 29 00 12 77
1 neurone perdu
chaque seconde
10% pendant
une vie
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
1 neurone perdu
chaque seconde
10% pendant
une vie
Le ? est un jambon, ?, qui pend au ?
?
e?π + 1 =?
8 × 7 =?
02 29 00 ?2 77
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
1 neurone perdu
chaque seconde
10% pendant
une vie
Le ? est un jambon, ?, qui pend au ?
?
e?π + 1 =?
8 × 7 =?
02 29 00 ?2 77
La mémoire à long terme est robuste...
et donc nécessairement redondante
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0En deux mots : parcimonie, compétition
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
Plan
1 Intelligence Artificielle
Définition
La révolution artificielle
Intelligence artificielle vs. intelligence naturelle
L’apprentissage profond et ses limites
2 Apprentissage versus Stockage
Calcul vs. information
Codage correcteur d’erreurs
Mémoires associatives
3 Neuroimagerie et Intelligence artificielle
Réseaux de neurones profonds et perception visuelle
I.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
Visualiser les réseaux de neurones profonds
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 13 / 20
Comprendre le codage neural
Prédire l’activité cérébrale
Il s’agit de construire des modèles d’encodage permettant de prédire
la réponse du cerveau.
L’I.A. permet de construire de tels modèles,
L’utilisation de Réseaux Profonds permet de valider leur
plausibilité biologique.
Exemples
Correspondance entre les premières couches d’un réseau profond
de reconnaissance d’images,
Encodage cérébral des catégories sémantiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
Comprendre le codage neural
Prédire l’activité cérébrale
Il s’agit de construire des modèles d’encodage permettant de prédire
la réponse du cerveau.
L’I.A. permet de construire de tels modèles,
L’utilisation de Réseaux Profonds permet de valider leur
plausibilité biologique.
Exemples
Correspondance entre les premières couches d’un réseau profond
de reconnaissance d’images,
Encodage cérébral des catégories sémantiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
Réseaux de neurones profonds et perception visuelle
“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 15 / 20
Réseaux de neurones profonds et perception visuelle
“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 16 / 20
I.A. et encodage du langage
11
Nature, 2016
MCGILL BARBADOS WORKSHOP ON GRAPH
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 17 / 20
I.A. et encodage du langage
12
MCGILL BARBADOS WORKSHOP ON GRAPH
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 18 / 20
I.A. et encodage du langage
13
MCGILL BARBADOS WORKSHOP ON GRAPH
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 19 / 20
Conclusion
Inspirer l’I.A. grâce au cerveau
Deux modèles importants pour l’I.A.
Les réseaux de neurones profonds : extracteurs de
caractéristiques d’images, mais comportent des limites,
Les mémoires associatives comme un modèle de mémoire à long
terme fiable.
Comprendre le cerveau grâce à l’I.A.
Les réseaux de neurones profonds permettent de réinterpréter /
confirmer la structure du cerveau,
De nombreuses perspectives de découvertes neuroscientifiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
Conclusion
Inspirer l’I.A. grâce au cerveau
Deux modèles importants pour l’I.A.
Les réseaux de neurones profonds : extracteurs de
caractéristiques d’images, mais comportent des limites,
Les mémoires associatives comme un modèle de mémoire à long
terme fiable.
Comprendre le cerveau grâce à l’I.A.
Les réseaux de neurones profonds permettent de réinterpréter /
confirmer la structure du cerveau,
De nombreuses perspectives de découvertes neuroscientifiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
Merci!
nicolas.farrugia@imt-atlantique.fr
vincent.gripon@imt-atlantique.fr
Facebook : Brain-Bzh
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 21 / 20

Mais conteúdo relacionado

Destaque

Vers un monde digital plus intelligent
Vers un monde digital plus intelligentVers un monde digital plus intelligent
Vers un monde digital plus intelligentFrançois DUCROT
 
2. personal production project research
2. personal production project research2. personal production project research
2. personal production project researchWill Stewart
 
L’intelligence artificielle
L’intelligence artificielleL’intelligence artificielle
L’intelligence artificielleiapassmed
 
How to Become a Thought Leader in Your Niche
How to Become a Thought Leader in Your NicheHow to Become a Thought Leader in Your Niche
How to Become a Thought Leader in Your NicheLeslie Samuel
 
105 langevin xavier ia(intelligence artificielle)
105 langevin xavier ia(intelligence artificielle)105 langevin xavier ia(intelligence artificielle)
105 langevin xavier ia(intelligence artificielle)Xavier Langevin
 
Introduction à l'intelligence artificielle et l'AIML par Gilles Darragi
Introduction à l'intelligence artificielle et l'AIML par Gilles DarragiIntroduction à l'intelligence artificielle et l'AIML par Gilles Darragi
Introduction à l'intelligence artificielle et l'AIML par Gilles DarragiDARRAGI Gilles
 
La influencia de la mercadotecnia
La influencia de la mercadotecniaLa influencia de la mercadotecnia
La influencia de la mercadotecniaadrypretty
 
تنسيق الشيفرة البرمجية (Coding Style)
تنسيق الشيفرة البرمجية (Coding Style)تنسيق الشيفرة البرمجية (Coding Style)
تنسيق الشيفرة البرمجية (Coding Style)anees abu-hmaid
 
دورة دروبال 7 باللغة العربية
دورة دروبال 7 باللغة العربيةدورة دروبال 7 باللغة العربية
دورة دروبال 7 باللغة العربيةanees abu-hmaid
 
باللغة العربية HTML دورة
  باللغة العربية HTML دورة   باللغة العربية HTML دورة
باللغة العربية HTML دورة anees abu-hmaid
 
Darknet: la face sombre du Web
Darknet: la face sombre du WebDarknet: la face sombre du Web
Darknet: la face sombre du WebPierre Scheurette
 

Destaque (13)

Vers un monde digital plus intelligent
Vers un monde digital plus intelligentVers un monde digital plus intelligent
Vers un monde digital plus intelligent
 
Mo cs call_flow
Mo cs call_flowMo cs call_flow
Mo cs call_flow
 
2. personal production project research
2. personal production project research2. personal production project research
2. personal production project research
 
L’intelligence artificielle
L’intelligence artificielleL’intelligence artificielle
L’intelligence artificielle
 
How to Become a Thought Leader in Your Niche
How to Become a Thought Leader in Your NicheHow to Become a Thought Leader in Your Niche
How to Become a Thought Leader in Your Niche
 
105 langevin xavier ia(intelligence artificielle)
105 langevin xavier ia(intelligence artificielle)105 langevin xavier ia(intelligence artificielle)
105 langevin xavier ia(intelligence artificielle)
 
Web 2.0
Web 2.0Web 2.0
Web 2.0
 
Introduction à l'intelligence artificielle et l'AIML par Gilles Darragi
Introduction à l'intelligence artificielle et l'AIML par Gilles DarragiIntroduction à l'intelligence artificielle et l'AIML par Gilles Darragi
Introduction à l'intelligence artificielle et l'AIML par Gilles Darragi
 
La influencia de la mercadotecnia
La influencia de la mercadotecniaLa influencia de la mercadotecnia
La influencia de la mercadotecnia
 
تنسيق الشيفرة البرمجية (Coding Style)
تنسيق الشيفرة البرمجية (Coding Style)تنسيق الشيفرة البرمجية (Coding Style)
تنسيق الشيفرة البرمجية (Coding Style)
 
دورة دروبال 7 باللغة العربية
دورة دروبال 7 باللغة العربيةدورة دروبال 7 باللغة العربية
دورة دروبال 7 باللغة العربية
 
باللغة العربية HTML دورة
  باللغة العربية HTML دورة   باللغة العربية HTML دورة
باللغة العربية HTML دورة
 
Darknet: la face sombre du Web
Darknet: la face sombre du WebDarknet: la face sombre du Web
Darknet: la face sombre du Web
 

Último

Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...
Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...
Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...Cap'Com
 
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Timothy Duquesne
 
Créer une web radio : décryptage du dispositif mis en place à l'agglomération...
Créer une web radio : décryptage du dispositif mis en place à l'agglomération...Créer une web radio : décryptage du dispositif mis en place à l'agglomération...
Créer une web radio : décryptage du dispositif mis en place à l'agglomération...Cap'Com
 
C2. Miser sur la sobriété éditoriale pour des contenus accessibles
C2. Miser sur la sobriété éditoriale pour des contenus accessiblesC2. Miser sur la sobriété éditoriale pour des contenus accessibles
C2. Miser sur la sobriété éditoriale pour des contenus accessiblesCap'Com
 
A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...
A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...
A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...Cap'Com
 
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Timothy Duquesne
 
B2. Travailler sa communication managériale
B2. Travailler sa communication managérialeB2. Travailler sa communication managériale
B2. Travailler sa communication managérialeCap'Com
 
D1. Application intranet mobile : peser le pour et le contre
D1. Application intranet mobile : peser le pour et le contreD1. Application intranet mobile : peser le pour et le contre
D1. Application intranet mobile : peser le pour et le contreCap'Com
 
A1. S'adresser aux nouvelles générations
A1. S'adresser aux nouvelles générationsA1. S'adresser aux nouvelles générations
A1. S'adresser aux nouvelles générationsCap'Com
 
Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...
Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...
Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...Cap'Com
 
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Timothy Duquesne
 
C1. Créer et accompagner un réseau d'ambassadeurs sur Linkedin
C1. Créer et accompagner un réseau d'ambassadeurs sur LinkedinC1. Créer et accompagner un réseau d'ambassadeurs sur Linkedin
C1. Créer et accompagner un réseau d'ambassadeurs sur LinkedinCap'Com
 
B1. Valoriser et s'appuyer sur le sport en com interne
B1. Valoriser et s'appuyer sur le sport en com interneB1. Valoriser et s'appuyer sur le sport en com interne
B1. Valoriser et s'appuyer sur le sport en com interneCap'Com
 
Conférence HOP | Renforcer la proximité : la com interne sur le terrain
Conférence HOP | Renforcer la proximité : la com interne sur le terrainConférence HOP | Renforcer la proximité : la com interne sur le terrain
Conférence HOP | Renforcer la proximité : la com interne sur le terrainCap'Com
 
E1.Évaluer sa communication interne .
E1.Évaluer sa communication interne     .E1.Évaluer sa communication interne     .
E1.Évaluer sa communication interne .Cap'Com
 
D2. Impliquer les agents dans les événements internes
D2. Impliquer les agents dans les événements internesD2. Impliquer les agents dans les événements internes
D2. Impliquer les agents dans les événements internesCap'Com
 

Último (16)

Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...
Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...
Plénière de clôture | S'appuyer sur les sciences comportementales pour accomp...
 
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
 
Créer une web radio : décryptage du dispositif mis en place à l'agglomération...
Créer une web radio : décryptage du dispositif mis en place à l'agglomération...Créer une web radio : décryptage du dispositif mis en place à l'agglomération...
Créer une web radio : décryptage du dispositif mis en place à l'agglomération...
 
C2. Miser sur la sobriété éditoriale pour des contenus accessibles
C2. Miser sur la sobriété éditoriale pour des contenus accessiblesC2. Miser sur la sobriété éditoriale pour des contenus accessibles
C2. Miser sur la sobriété éditoriale pour des contenus accessibles
 
A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...
A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...
A2. Réinventer son dispositif de recrutement au travers de l'ingénierie conve...
 
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
 
B2. Travailler sa communication managériale
B2. Travailler sa communication managérialeB2. Travailler sa communication managériale
B2. Travailler sa communication managériale
 
D1. Application intranet mobile : peser le pour et le contre
D1. Application intranet mobile : peser le pour et le contreD1. Application intranet mobile : peser le pour et le contre
D1. Application intranet mobile : peser le pour et le contre
 
A1. S'adresser aux nouvelles générations
A1. S'adresser aux nouvelles générationsA1. S'adresser aux nouvelles générations
A1. S'adresser aux nouvelles générations
 
Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...
Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...
Dynamiser ses voeux et événements protocolaires : décryptage du Grand Prix 20...
 
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
Présentation EMIsphère Saison 3 pour les Assises du Journalisme 2024
 
C1. Créer et accompagner un réseau d'ambassadeurs sur Linkedin
C1. Créer et accompagner un réseau d'ambassadeurs sur LinkedinC1. Créer et accompagner un réseau d'ambassadeurs sur Linkedin
C1. Créer et accompagner un réseau d'ambassadeurs sur Linkedin
 
B1. Valoriser et s'appuyer sur le sport en com interne
B1. Valoriser et s'appuyer sur le sport en com interneB1. Valoriser et s'appuyer sur le sport en com interne
B1. Valoriser et s'appuyer sur le sport en com interne
 
Conférence HOP | Renforcer la proximité : la com interne sur le terrain
Conférence HOP | Renforcer la proximité : la com interne sur le terrainConférence HOP | Renforcer la proximité : la com interne sur le terrain
Conférence HOP | Renforcer la proximité : la com interne sur le terrain
 
E1.Évaluer sa communication interne .
E1.Évaluer sa communication interne     .E1.Évaluer sa communication interne     .
E1.Évaluer sa communication interne .
 
D2. Impliquer les agents dans les événements internes
D2. Impliquer les agents dans les événements internesD2. Impliquer les agents dans les événements internes
D2. Impliquer les agents dans les événements internes
 

Intelligence artificielle Neuro-inspirée

  • 1. Intelligence Artificielle Neuro-inspirée Projet Br.A.In. Nicolas Farrugia Br.A.In. 2 mars 2017 Travail avec Vincent Gripon Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 1 / 20
  • 2. Br.A.In. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  • 4. Br.A.In. Imagerie cérébrale Réseaux de Neu- rones Artificiels Traitement du Signal et des Images Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  • 5. Plan 1 Intelligence Artificielle Définition La révolution artificielle Intelligence artificielle vs. intelligence naturelle L’apprentissage profond et ses limites 2 Apprentissage versus Stockage Calcul vs. information Codage correcteur d’erreurs Mémoires associatives 3 Neuroimagerie et Intelligence artificielle Réseaux de neurones profonds et perception visuelle I.A. et encodage du langage Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  • 6. L’intelligence artificielle : définition L’intelligence d’un algorithme On qualifie d’intelligent un algorithme qui, une fois programmé, est incapable de répondre au problème pour lequel il a été conçu. C’est par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité. Exemple Un algorithme qui calcule l’hypoténuse à partir des deux autres longueurs d’un triangle rectangle n’est pas “intelligent”, Un algorithme qui découvre par lui-même la relation et est capable de généraliser à partir d’exemples données est qualifié d’“intelligent”. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
  • 7. L’intelligence artificielle : définition L’intelligence d’un algorithme On qualifie d’intelligent un algorithme qui, une fois programmé, est incapable de répondre au problème pour lequel il a été conçu. C’est par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité. Exemple Un algorithme qui calcule l’hypoténuse à partir des deux autres longueurs d’un triangle rectangle n’est pas “intelligent”, Un algorithme qui découvre par lui-même la relation et est capable de généraliser à partir d’exemples données est qualifié d’“intelligent”. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
  • 8. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage supervisé Régression, Nécessite un expert, Débouche sur des tas d’applications : Jouer à un jeu, Reconnaître des formes, Résoudre un exercice de maths... Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  • 9. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage supervisé Régression, Nécessite un expert, Débouche sur des tas d’applications : Jouer à un jeu, Reconnaître des formes, Résoudre un exercice de maths... Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  • 10. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage supervisé Régression, Nécessite un expert, Débouche sur des tas d’applications : Jouer à un jeu, Reconnaître des formes, Résoudre un exercice de maths... Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  • 11. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage non-supervisé Partitionnement, Nécessite une échelle spatiale, Pour beaucoup, c’est le “vrai” support de l’intelligence : Représentation du monde, langage, Compression, Source d’hypothèses. . . Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  • 12. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage non-supervisé Partitionnement, Nécessite une échelle spatiale, Pour beaucoup, c’est le “vrai” support de l’intelligence : Représentation du monde, langage, Compression, Source d’hypothèses. . . Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  • 13. Des algorithmes intelligents pour quoi faire ? La révolution artificielle Écho à la révolution industrielle, Automatisation du travail intellectuel pénible, Réduction des inégalités (médecine, confort, vieillissement...). La singularité Nouveaux outils pour traiter/trier les informations, Écart immense biologique et électronique, Aller au delà des limites de l’homme biologique. Les post-mathématiques L’automatisation de preuves, Le multi-agents et la simulation informatique, La complémentarité mathématiques discrètes/continues. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
  • 14. Des algorithmes intelligents pour quoi faire ? La révolution artificielle Écho à la révolution industrielle, Automatisation du travail intellectuel pénible, Réduction des inégalités (médecine, confort, vieillissement...). La singularité Nouveaux outils pour traiter/trier les informations, Écart immense biologique et électronique, Aller au delà des limites de l’homme biologique. Les post-mathématiques L’automatisation de preuves, Le multi-agents et la simulation informatique, La complémentarité mathématiques discrètes/continues. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
  • 15. Des algorithmes intelligents pour quoi faire ? La révolution artificielle Écho à la révolution industrielle, Automatisation du travail intellectuel pénible, Réduction des inégalités (médecine, confort, vieillissement...). La singularité Nouveaux outils pour traiter/trier les informations, Écart immense biologique et électronique, Aller au delà des limites de l’homme biologique. Les post-mathématiques L’automatisation de preuves, Le multi-agents et la simulation informatique, La complémentarité mathématiques discrètes/continues. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
  • 16. Intelligence artificielle et intelligence naturelle Quelle est la couleur du cheval blanc d’Henri IV ? √ 3 0 x3 (1 + x2 )dx Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
  • 17. Intelligence artificielle et intelligence naturelle Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
  • 18. Intelligence artificielle et intelligence naturelle Il n’y a qu’un seul modèle duquel s’inspirer : le cerveau. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
  • 19. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 20. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 21. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 22. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 23. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 24. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 25. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 26. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 27. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 28. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 29. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Non linéarités Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 30. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Paramètres Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 31. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) “How to grow a mind: statistics, structure, and abstraction”, Science, 2011. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 32. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) “How to grow a mind: statistics, structure, and abstraction”, Science, 2011. “Intriguing properties of neural networks”, Arxiv research report, 2013. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 33. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) “How to grow a mind: statistics, structure, and abstraction”, Science, 2011. “Intriguing properties of neural networks”, Arxiv research report, 2013. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 34. Plan 1 Intelligence Artificielle Définition La révolution artificielle Intelligence artificielle vs. intelligence naturelle L’apprentissage profond et ses limites 2 Apprentissage versus Stockage Calcul vs. information Codage correcteur d’erreurs Mémoires associatives 3 Neuroimagerie et Intelligence artificielle Réseaux de neurones profonds et perception visuelle I.A. et encodage du langage Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  • 35. Mémoire et calcul Mémoire et calculs doivent-ils être. . . Séparés. . . ou inextricablement liés ? Memory Processing unit Control unit Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 8 / 20
  • 36. Le schéma de Shannon appliqué au cerveau Perception Mémoire Monde extérieur riche et exubérant Codage de source Suppression de la redondance naturelle Addition de redondance artificielle Codage de canal Information mentale, parcimonieuse et robuste Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 9 / 20
  • 37. Le mystère du stockage de l’information mentale Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  • 38. Le mystère du stockage de l’information mentale Le rêve est un jambon, lourd, qui pend au plafond Victor Hugo ei π + 1 = 0 8 × 7 = 56 02 29 00 12 77 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  • 39. Le mystère du stockage de l’information mentale Le rêve est un jambon, lourd, qui pend au plafond Victor Hugo ei π + 1 = 0 8 × 7 = 56 02 29 00 12 77 1 neurone perdu chaque seconde Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  • 40. Le mystère du stockage de l’information mentale Le rêve est un jambon, lourd, qui pend au plafond Victor Hugo ei π + 1 = 0 8 × 7 = 56 02 29 00 12 77 1 neurone perdu chaque seconde 10% pendant une vie Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  • 41. Le mystère du stockage de l’information mentale 1 neurone perdu chaque seconde 10% pendant une vie Le ? est un jambon, ?, qui pend au ? ? e?π + 1 =? 8 × 7 =? 02 29 00 ?2 77 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  • 42. Le mystère du stockage de l’information mentale 1 neurone perdu chaque seconde 10% pendant une vie Le ? est un jambon, ?, qui pend au ? ? e?π + 1 =? 8 × 7 =? 02 29 00 ?2 77 La mémoire à long terme est robuste... et donc nécessairement redondante Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  • 43. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 44. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 45. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 46. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 47. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 48. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 49. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 50. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 51. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 52. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 53. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 54. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0En deux mots : parcimonie, compétition Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  • 55. La redondance correctrice d’erreurs Hebbienne unités c grappes Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 56. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 57. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 58. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 59. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 60. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 61. Plan 1 Intelligence Artificielle Définition La révolution artificielle Intelligence artificielle vs. intelligence naturelle L’apprentissage profond et ses limites 2 Apprentissage versus Stockage Calcul vs. information Codage correcteur d’erreurs Mémoires associatives 3 Neuroimagerie et Intelligence artificielle Réseaux de neurones profonds et perception visuelle I.A. et encodage du langage Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  • 62. Visualiser les réseaux de neurones profonds Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 13 / 20
  • 63. Comprendre le codage neural Prédire l’activité cérébrale Il s’agit de construire des modèles d’encodage permettant de prédire la réponse du cerveau. L’I.A. permet de construire de tels modèles, L’utilisation de Réseaux Profonds permet de valider leur plausibilité biologique. Exemples Correspondance entre les premières couches d’un réseau profond de reconnaissance d’images, Encodage cérébral des catégories sémantiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
  • 64. Comprendre le codage neural Prédire l’activité cérébrale Il s’agit de construire des modèles d’encodage permettant de prédire la réponse du cerveau. L’I.A. permet de construire de tels modèles, L’utilisation de Réseaux Profonds permet de valider leur plausibilité biologique. Exemples Correspondance entre les premières couches d’un réseau profond de reconnaissance d’images, Encodage cérébral des catégories sémantiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
  • 65. Réseaux de neurones profonds et perception visuelle “Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 15 / 20
  • 66. Réseaux de neurones profonds et perception visuelle “Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 16 / 20
  • 67. I.A. et encodage du langage 11 Nature, 2016 MCGILL BARBADOS WORKSHOP ON GRAPH LEARNING ENCODING MODELS USING NEUROIMAGING Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 17 / 20
  • 68. I.A. et encodage du langage 12 MCGILL BARBADOS WORKSHOP ON GRAPH LEARNING ENCODING MODELS USING NEUROIMAGING Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 18 / 20
  • 69. I.A. et encodage du langage 13 MCGILL BARBADOS WORKSHOP ON GRAPH LEARNING ENCODING MODELS USING NEUROIMAGING Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 19 / 20
  • 70. Conclusion Inspirer l’I.A. grâce au cerveau Deux modèles importants pour l’I.A. Les réseaux de neurones profonds : extracteurs de caractéristiques d’images, mais comportent des limites, Les mémoires associatives comme un modèle de mémoire à long terme fiable. Comprendre le cerveau grâce à l’I.A. Les réseaux de neurones profonds permettent de réinterpréter / confirmer la structure du cerveau, De nombreuses perspectives de découvertes neuroscientifiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
  • 71. Conclusion Inspirer l’I.A. grâce au cerveau Deux modèles importants pour l’I.A. Les réseaux de neurones profonds : extracteurs de caractéristiques d’images, mais comportent des limites, Les mémoires associatives comme un modèle de mémoire à long terme fiable. Comprendre le cerveau grâce à l’I.A. Les réseaux de neurones profonds permettent de réinterpréter / confirmer la structure du cerveau, De nombreuses perspectives de découvertes neuroscientifiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20