Présentation lors de l'évènement #FranceIA à la Cantine Numérique à Brest, donnée également lors de la journée tutorale en présence des maîtres d'apprentissage à l'IMT Atlantique.
D2. Impliquer les agents dans les événements internes
Intelligence artificielle Neuro-inspirée
1. Intelligence Artificielle Neuro-inspirée
Projet Br.A.In.
Nicolas Farrugia
Br.A.In.
2 mars 2017
Travail avec Vincent Gripon
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 1 / 20
4. Br.A.In.
Imagerie cérébrale
Réseaux de Neu-
rones Artificiels
Traitement
du Signal et
des Images
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
5. Plan
1 Intelligence Artificielle
Définition
La révolution artificielle
Intelligence artificielle vs. intelligence naturelle
L’apprentissage profond et ses limites
2 Apprentissage versus Stockage
Calcul vs. information
Codage correcteur d’erreurs
Mémoires associatives
3 Neuroimagerie et Intelligence artificielle
Réseaux de neurones profonds et perception visuelle
I.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
6. L’intelligence artificielle : définition
L’intelligence d’un algorithme
On qualifie d’intelligent un algorithme qui, une fois programmé, est
incapable de répondre au problème pour lequel il a été conçu. C’est
par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.
Exemple
Un algorithme qui calcule l’hypoténuse à partir des deux autres
longueurs d’un triangle rectangle n’est pas “intelligent”,
Un algorithme qui découvre par lui-même la relation et est
capable de généraliser à partir d’exemples données est qualifié
d’“intelligent”.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
7. L’intelligence artificielle : définition
L’intelligence d’un algorithme
On qualifie d’intelligent un algorithme qui, une fois programmé, est
incapable de répondre au problème pour lequel il a été conçu. C’est
par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.
Exemple
Un algorithme qui calcule l’hypoténuse à partir des deux autres
longueurs d’un triangle rectangle n’est pas “intelligent”,
Un algorithme qui découvre par lui-même la relation et est
capable de généraliser à partir d’exemples données est qualifié
d’“intelligent”.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
8. Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage supervisé
Régression,
Nécessite un expert,
Débouche sur des tas
d’applications :
Jouer à un jeu,
Reconnaître des formes,
Résoudre un exercice de
maths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
9. Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage supervisé
Régression,
Nécessite un expert,
Débouche sur des tas
d’applications :
Jouer à un jeu,
Reconnaître des formes,
Résoudre un exercice de
maths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
10. Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage supervisé
Régression,
Nécessite un expert,
Débouche sur des tas
d’applications :
Jouer à un jeu,
Reconnaître des formes,
Résoudre un exercice de
maths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
11. Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage non-supervisé
Partitionnement,
Nécessite une échelle
spatiale,
Pour beaucoup, c’est le “vrai”
support de l’intelligence :
Représentation du monde,
langage,
Compression,
Source d’hypothèses. . .
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
12. Apprentissage supervisé et non supervisé
L’apprentissage
Apprendre, c’est généraliser (= mémoriser),
Apprentissage non-supervisé
Partitionnement,
Nécessite une échelle
spatiale,
Pour beaucoup, c’est le “vrai”
support de l’intelligence :
Représentation du monde,
langage,
Compression,
Source d’hypothèses. . .
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
13. Des algorithmes intelligents pour quoi faire ?
La révolution artificielle
Écho à la révolution industrielle,
Automatisation du travail intellectuel pénible,
Réduction des inégalités (médecine, confort, vieillissement...).
La singularité
Nouveaux outils pour traiter/trier les informations,
Écart immense biologique et électronique,
Aller au delà des limites de l’homme biologique.
Les post-mathématiques
L’automatisation de preuves,
Le multi-agents et la simulation informatique,
La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
14. Des algorithmes intelligents pour quoi faire ?
La révolution artificielle
Écho à la révolution industrielle,
Automatisation du travail intellectuel pénible,
Réduction des inégalités (médecine, confort, vieillissement...).
La singularité
Nouveaux outils pour traiter/trier les informations,
Écart immense biologique et électronique,
Aller au delà des limites de l’homme biologique.
Les post-mathématiques
L’automatisation de preuves,
Le multi-agents et la simulation informatique,
La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
15. Des algorithmes intelligents pour quoi faire ?
La révolution artificielle
Écho à la révolution industrielle,
Automatisation du travail intellectuel pénible,
Réduction des inégalités (médecine, confort, vieillissement...).
La singularité
Nouveaux outils pour traiter/trier les informations,
Écart immense biologique et électronique,
Aller au delà des limites de l’homme biologique.
Les post-mathématiques
L’automatisation de preuves,
Le multi-agents et la simulation informatique,
La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
16. Intelligence artificielle et intelligence naturelle
Quelle est la couleur du cheval
blanc d’Henri IV ?
√
3
0
x3
(1 + x2
)dx
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
17. Intelligence artificielle et intelligence naturelle
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
18. Intelligence artificielle et intelligence naturelle
Il n’y a qu’un seul modèle duquel s’inspirer : le cerveau.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
19. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
20. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
21. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
22. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
23. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
24. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
25. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
26. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
27. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
28. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
29. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Non linéarités
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
30. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Paramètres
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
31. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
32. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
“Intriguing properties of neural networks”, Arxiv research report, 2013.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
33. Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
“Intriguing properties of neural networks”, Arxiv research report, 2013.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
34. Plan
1 Intelligence Artificielle
Définition
La révolution artificielle
Intelligence artificielle vs. intelligence naturelle
L’apprentissage profond et ses limites
2 Apprentissage versus Stockage
Calcul vs. information
Codage correcteur d’erreurs
Mémoires associatives
3 Neuroimagerie et Intelligence artificielle
Réseaux de neurones profonds et perception visuelle
I.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
35. Mémoire et calcul
Mémoire et calculs doivent-ils être. . .
Séparés. . . ou inextricablement liés ?
Memory
Processing unit
Control unit
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 8 / 20
36. Le schéma de Shannon appliqué au cerveau
Perception Mémoire
Monde extérieur
riche et exubérant
Codage
de source
Suppression de
la redondance
naturelle
Addition de
redondance
artificielle
Codage
de canal
Information mentale,
parcimonieuse et
robuste
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 9 / 20
37. Le mystère du stockage de l’information mentale
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
38. Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,
qui pend au plafond
Victor Hugo
ei π + 1 = 0
8 × 7 = 56
02 29 00 12 77
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
39. Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,
qui pend au plafond
Victor Hugo
ei π + 1 = 0
8 × 7 = 56
02 29 00 12 77
1 neurone perdu
chaque seconde
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
40. Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,
qui pend au plafond
Victor Hugo
ei π + 1 = 0
8 × 7 = 56
02 29 00 12 77
1 neurone perdu
chaque seconde
10% pendant
une vie
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
41. Le mystère du stockage de l’information mentale
1 neurone perdu
chaque seconde
10% pendant
une vie
Le ? est un jambon, ?, qui pend au ?
?
e?π + 1 =?
8 × 7 =?
02 29 00 ?2 77
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
42. Le mystère du stockage de l’information mentale
1 neurone perdu
chaque seconde
10% pendant
une vie
Le ? est un jambon, ?, qui pend au ?
?
e?π + 1 =?
8 × 7 =?
02 29 00 ?2 77
La mémoire à long terme est robuste...
et donc nécessairement redondante
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
43. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
44. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
45. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
46. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
47. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
48. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
49. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
50. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
51. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
52. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
53. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
54. Un code neural distribué
Code distribué :
1 Assemblage de règles simples,
2 Chaque règle couvre plusieurs
mémoires,
3 Chaque mémoire est couverte par
plusieurs règles,
4 Permet un décodage itératif.
ei π + 1 = 0En deux mots : parcimonie, compétition
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
55. La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
56. La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
57. La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
58. La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
59. La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
60. La redondance correctrice d’erreurs Hebbienne
unités
c grappes
Les cliques neurales pour
stocker l’information men-
tale :
Nombre de combinaisons
possibles exponentiellement
grand,
Redondance très forte,
Utilisation optimale de la
capacité mémoire ,
Robustesse compétitive
avec les meilleurs codes
correcteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
61. Plan
1 Intelligence Artificielle
Définition
La révolution artificielle
Intelligence artificielle vs. intelligence naturelle
L’apprentissage profond et ses limites
2 Apprentissage versus Stockage
Calcul vs. information
Codage correcteur d’erreurs
Mémoires associatives
3 Neuroimagerie et Intelligence artificielle
Réseaux de neurones profonds et perception visuelle
I.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
62. Visualiser les réseaux de neurones profonds
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 13 / 20
63. Comprendre le codage neural
Prédire l’activité cérébrale
Il s’agit de construire des modèles d’encodage permettant de prédire
la réponse du cerveau.
L’I.A. permet de construire de tels modèles,
L’utilisation de Réseaux Profonds permet de valider leur
plausibilité biologique.
Exemples
Correspondance entre les premières couches d’un réseau profond
de reconnaissance d’images,
Encodage cérébral des catégories sémantiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
64. Comprendre le codage neural
Prédire l’activité cérébrale
Il s’agit de construire des modèles d’encodage permettant de prédire
la réponse du cerveau.
L’I.A. permet de construire de tels modèles,
L’utilisation de Réseaux Profonds permet de valider leur
plausibilité biologique.
Exemples
Correspondance entre les premières couches d’un réseau profond
de reconnaissance d’images,
Encodage cérébral des catégories sémantiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
65. Réseaux de neurones profonds et perception visuelle
“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 15 / 20
66. Réseaux de neurones profonds et perception visuelle
“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 16 / 20
67. I.A. et encodage du langage
11
Nature, 2016
MCGILL BARBADOS WORKSHOP ON GRAPH
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 17 / 20
68. I.A. et encodage du langage
12
MCGILL BARBADOS WORKSHOP ON GRAPH
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 18 / 20
69. I.A. et encodage du langage
13
MCGILL BARBADOS WORKSHOP ON GRAPH
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 19 / 20
70. Conclusion
Inspirer l’I.A. grâce au cerveau
Deux modèles importants pour l’I.A.
Les réseaux de neurones profonds : extracteurs de
caractéristiques d’images, mais comportent des limites,
Les mémoires associatives comme un modèle de mémoire à long
terme fiable.
Comprendre le cerveau grâce à l’I.A.
Les réseaux de neurones profonds permettent de réinterpréter /
confirmer la structure du cerveau,
De nombreuses perspectives de découvertes neuroscientifiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
71. Conclusion
Inspirer l’I.A. grâce au cerveau
Deux modèles importants pour l’I.A.
Les réseaux de neurones profonds : extracteurs de
caractéristiques d’images, mais comportent des limites,
Les mémoires associatives comme un modèle de mémoire à long
terme fiable.
Comprendre le cerveau grâce à l’I.A.
Les réseaux de neurones profonds permettent de réinterpréter /
confirmer la structure du cerveau,
De nombreuses perspectives de découvertes neuroscientifiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20