Quel cerveau pour l’avenir de l’humanité voulons-nous?
Introduction
L’intelligence
artificielle est un sujet que nous étudions depuis plus une décennie [1]en vue de trouver une
explication pertinente sur les possibilités de celle-ci à améliorer la vie de
l’être humain, la faire plus bienfaisante. En définitive, tenter de lancer une
réflexion de comment et pourquoi l’apparition de l’intelligence artificielle se
servie de l’intelligence collective (expérience collective) pour devenir
« singulier ».
En effet, de nos jours, en
modélisation des circuits biologiques, ceux-ci permettent de tester quelques
hypothèses fonctionnelles issues de la neurophysiologie. Les réseaux de
neurones artificiels sont des champions de la reconnaissance (des visages, des
objets, des sons, etc.), mais, dorénavant ils apprennent à raisonner à partir
de l'expérience.
Ces programmes informatiques
sont passés maîtres dans l'art de la reconnaissance, grâce à une importante
capacité à apprendre par entrainement, mais ces systèmes ne savent pas
faire des raisonnements logiques ou symboliques à l’heure actuelle. Arriverons
un jour à le faire sans l’intervention humaine et devenir intelligents
pour notre avenir ou seron nous pris au piège de notre ambition de savoir?
L'orientation statistique prise
dans le domaine de l'IA, qui devance l'homme dans des tâches nécessitant de
trier et filtrer un trop plein d'information, ne sera peut-être pas suffisante
pour capter toute la subtilité des systèmes cognitifs du cerveau humain
Cerveau biotique, connecté, artificiel ou de synthèse?
Machine Learning, Réseaux profonds
ou Deep Learning... ces termes désignent la technologie des réseaux de neurones
artificiels (RN) ; depuis les années 1980 mais surtout depuis les années
2000 sont devenus incontournables, grâce à l'explosion des ressources
disponibles dans les réseaux et aux immenses bases de données délocalisées. Capables
de filtrer des milliards de signaux, les RN peuvent apprendre, après
entrainement, à reconnaître un visage parmi de centaines de millions, ou encore
détecter la présence d'un objet donné
sur des photos ou vidéos qu'ils n'ont jamais vu.
Après avoir entrainé leur
système à reconnaître les trajets les plus courts sur des graphes représentant
des lieux reliés par des routes, et en compliquant chaque fois plus l'exercice,
les chercheurs ont présenté à leur système le graphe du métro londonien, en lui
demandant de trouver le plus court trajet menant d'une station à une autre le
chemin à parcourir. Par l'apprentissage, le système neuronal à induit les
principes logiques de maniement des symboles (stations et trajets) afin de
trouver la meilleure solution. Le système a généré dans sa représentation
interne l'équivalent d'un algorithme d'optimisation sans avoir été programmé
pour cela. Il a ainsi accompli la fusion entre les compétences des RN
(apprentissage) et celles des ordinateurs classiques (raisonnement logique).
En octobre 2011, un équipe de
chercheurs a annoncé que la disponibilité commerciale de la technologie
memristive serait prête en remplacement des cartes Flash, SSD, DRAM et SRAM et
sa disponibilité commerciale pour une nouvelle mémoire en 2018 et en mars 2012,
une équipe de chercheurs de HRL Laboratories et de l'Université du Michigan a
annoncé le premier arrangement fonctionnel de memristores[2] dans une puce. Enfin
l'Unité mixte de physique CNRS-Thalès viennent de franchir une nouvelle étape
en créant directement sur une puce électronique une synapse artificielle
capable d'apprentissage, Ils ont ainsi développé un modèle physique qui permet
d'expliciter cette capacité d'apprentissage. Cette découverte ouvre la voie à
la création d'un réseau de synapses[3] et donc à des systèmes
intelligents moins dépensiers en temps et en énergie.
En avril 2017, ces travaux
des chercheurs de l'Unité mixte de physique CNRS-Thalès, du Laboratoire de
l'intégration du matériau au système (CNRS-Université de Bordeaux-Bordeaux
INP), de l'Université d'Arkansas, du Centre de nanosciences et nanotechnologies
(CNRS-Université Paris-Sud), de l'université d'Évry et de Thalès en
collaboration avec des chercheurs américains et japonais, ont développé le
premier nano-neurone artificiel capable de reconnaitre des chiffres prononcés
par différents locuteurs. Ainsi comme le développement récent des synapses
électroniques, ce nano-neurone électronique est une avancée clé pour
l’intelligence artificielle et ses applications, les synapses assurent la
connexion et la transmission d'informations entre les neurones du cerveau.
Récemment, les algorithmes
d’intelligence artificielle sont devenus donc performants pour la
reconnaissance non seulement visuelle mais aussi vocale. Mais, l’exécution de
ces programmes sur nos ordinateurs conventionnels consomme une énergie dix
mille fois supérieure à celle du cerveau humain. Pour réduire la consommation
électrique, il faut construire des ordinateurs inspirés du cerveau intégrant un
très grand nombre de neurones et de synapses miniaturisés. Bientôt, ces
nano-neurones magnétiques pourront être interconnectés grâce à des synapses
artificielles telles que celles développées pour traiter et classer des
informations en masse en temps réel.
Le processus d'apprentissage
de notre cerveau est lié à nos synapses, qui assurent la connexion entre les
neurones. Plus elle est stimulée, plus cette liaison se renforce, et plus
l'apprentissage s'améliore. Les chercheurs se sont inspirés de ce mécanisme
pour concevoir le memristor, une synapse artificielle. Ce nanocomposant
électronique, formé d'une fine couche ferroélectrique prise en sandwich entre
deux électrodes, peut ajuster sa résistance sous l'action d'impulsions
électriques similaires à celles des neurones. Si la résistance est faible, la
liaison synaptique est forte, si la résistance est forte, la liaison est
faible. C'est cette capacité de la synapse à adapter sa résistance qui permet
l'apprentissage.
Si les travaux sur ces
synapses artificielles sont au centre des préoccupations de nombreux
laboratoires, pour la première fois, les chercheurs ont réussi à élaborer un
modèle physique anticipant son fonctionnement. Cette compréhension du processus
va donc permettre de créer des systèmes plus complexes, comme un ensemble de
neurones artificiels interconnectés par ces memristors.
Les avis de scientifiques
divergent de ceux des géants de la Tech, travaillant sur une fusion de
l’intelligence artificielle et du cerveau humain et de géants économiques, ils
se tournent désormais dans le transhumanisme, qu’ils voient comme l’évolution
naturelle de l’homme. Mais, le cerveau
n’est pas un mécanisme mais un organisme. Or les organismes ne se construisent
pas, ils évoluent, selon des pressions de sélection et des événements que l’on
ne peut prédire.
Les GAFA[4], BATX, Natu sont en train
d’octroyer les ordinateurs de cerveaux artificiels composés de réseaux de
neurones artificiels. Les uns comme les autres utilisent l’apprentissage
profond[5], une forme d’intelligence
artificielle censée imiter le cerveau humain. D’autres sociétés du secteur,
dont Twitter, Microsoft et autres font de même. De nombreux neuroscientifiques
considèrent avec scepticisme ces tentatives de recréation du cerveau par
rétro-ingénierie, notamment du fait des importantes lacunes dans notre
compréhension de la façon dont il fonctionne. D’autres, comme le directeur à l’Institut de neurobiologie
Max Planck en Allemagne, sont plus optimistes,
il pense que on pourrait mettre au point d’ici à 50 années une méthode
pour concevoir une réplique numérique du cerveau de n’importe quelle personne.
L’erreur chez les
scientifiques spécialisés dans l’informatique et chez certains bio-ingénieurs,
c’est qu’ils croient que le cerveau a été conçu selon une sorte de schéma,
comme si un ingénieur en avait établi le plan. Et si vous avez quelque chose
qui n’a pas été construit, il est naturellement impossible de le reproduire par
rétro-ingénierie. Le cerveau, système complexe est en constante adaptation et
ne peut pas être décrit avec un algorithme. Les mathématiciens savent que
certaines fonctions ne sont pas calculables, qu’on ne peut pas les résoudre
analytiquement, certains phénomènes
naturels échappent à tout modèle prédictif.
D’une « certaine
manière », internet fonctionne comme le cerveau, en refaisant l’histoire
du Web, on n’obtiendrait pas les mêmes résultats, articles et commentaires
disponibles qu’aujourd’hui. Cependant, à l’inverse du cerveau, nous savons
créer internet, s’il disparaît nous saurions le concevoir. On peut créer une
société comme Google, mais il est impossible de prédire le sujet de sa prochaine
requête sur ce même dispositif. On ne pourra jamais les décrire avec un
algorithme[6], nous ne sommes pas des
robots, et nous ne sommes pas prévisibles.
Mais nous courons le risque
de devenir des robots, parce que le cerveau s’adapte continuellement (il apprend
en permanence) à ce à quoi on l’expose: plus l’exposition est importante, plus
l’adaptation est grande. Se servir de smartphones, d’ordinateurs et de
tablettes constamment peut altérer le fonctionnement de notre cerveau. Toutes
ces machines affectent la biologie de notre cervelle. Il y a tout un éventail
de capacités humaines que nous sommes en train d’abandonner à cause de la
technologie. Des études ont montré, par exemple, que l’hippocampe postérieur[7], était plus développé chez
les chauffeurs de taxi londoniens que chez la plupart des gens. En étudiant
leur examen pointu sur le labyrinthe complexe des rues de la ville, ils
développent cette partie de leur cerveau, or, aujourd’hui, les chauffeurs qui
se reposent sur leur GPS ne bénéficieront pas de cette connaissance exponentiel.
Du fait de l’usage excessif
des écrans, de plus en plus de gens souffrent du syndrome qui entraîne une
fatigue et une vision floue et notre écriture se détériore peu à peu. Nous
allons perdre en capacités, mais aussi en diversité, en nous servant des mêmes
technologies pour nous guider dans nos décisions, nous nous conduirons de
manière semblable parce que les ordinateurs ignorent l’ambiguïté, ils fonctionnent
de manière très limitée. Mais la richesse de notre culture repose sur des
comportements non calculables, qui nous donnent toute notre humanité et notre diversité.
Si on veut protéger notre humanité, il faut protéger notre propre sensibilité
et nos rapports humains. La technologie modifie notre manière d’appréhender ces
derniers, un ordinateur n’aura jamais d’intuition.
En programmant un ordinateur
pour composer un texte, on obtiendra un résultat bien plus pauvre, moins
complexe dans sa sémantique que nos propre écris, nos subtilités, nos doubles sens, vous ne trouverez pas
d’ironie, ni de différents niveaux de lecture... En résumé, les facultés du
cerveau humain n’appartiennent qu’à lui-même, il faut peut-être le préserver et
non pas le remplacer ou l’augmenter.
Néanmoins, il semblerait que
nous entrions dans une période nouvelle de l'histoire de l'Homme et de la
science[8]. La récente théorie de
l'information intégrée, développée par les neuroscientifiques décrit la manière
de mesurer expérimentalement le degré de conscience d'un système. À ce titre,
elle pourrait potentiellement répondre à des questions qui paraissaient
autrefois insolubles. De plus, cette théorie suppose que tout système capable
de traiter et d'intégrer des informations, qu'il soit organique ou inorganique,
observe le monde avec un certain degré de subjectivité. Les plantes, les
smartphones, internet et même les protons en sont d’exemples : c'est un
cosmos composé de matière consciente.
Tandis qu'une partie de plus
en plus vaste du monde naturel se trouve décrite de manière objective et
empirique, on assiste au déclin de plus en plus rapide des croyances en
l'existence de tout ce qui va à l'encontre des explications scientifiques
actuelles.
Aujourd'hui, la science a
décrit à peu près tout ce qui peut l'être. Nous comprenons la naissance des
trous noirs, et leur place dans la géométrie de l'espace-temps, nous
appréhendons même le moment exact où l'univers a commencé à exister, mais aucun
scientifique ne vous dira que nous comprenons complètement notre propre
conscience. Malgré toutes nos avancées qui avaient posé comme principe que la
conscience est en réalité une sorte d'esprit immatériel non soumis aux lois
physiques, nous ne disposons toujours pas d'une explication scientifique
satisfaisante de la connaissance. Et dans ces conditions, il est impossible de
répondre à certaines questions si l'on ne peut mesurer la conscience.
La théorie de l'information
intégrée affirme[9]
(TII) fournir une manière précise de mesurer la conscience et d'exprimer ce
phénomène en termes purement mathématiques. Comme un ordinateur, le cerveau
enregistre et traite des informations. Mais c'est la manière dont celles-ci
sont partagées dans l'ensemble des réseaux cérébraux qui génère une expérience
consciente riche et puissante. Grâce aux avancées de l'imagerie cérébrale, la
neuroscience moderne nous apprend qu’un événement observé implique un certain
nombre de régions distinctes, dont chacune traite séparément des informations
sur différents aspects de l'événement. Une région du cortex visuel[10] traite la forme et la
couleur. Des aires auditives dans le lobe temporal reçoivent des informations
sur le bruit du vent qui souffle. Ce vent qui souffle sur la peau génère
également dans le cortex somatosensoriel[11] des signaux électriques
qui vous donnent une sensation de frôlement. Des tas de procédés se passent
dans des endroits très éloignés les uns des autres et pourtant, nous percevons
tout cela comme une même expérience consciente et unifiée. Cette expérience
unifiée repose sur la capacité du cerveau à intégrer en un tout cet afflux
d'informations sensorielles. Pour la TII, ces mesures d'informations permettent
de calculer un nombre exact correspondant au degré d'information intégrée
existant à un instant dans le cerveau.
C'est ce que la science a
toujours cherché à comprendre est décrire les choses objectivement, et
dépouiller de tout mystère des phénomènes naturels dont nous n'avons qu'une
compréhension très floue. La science ne s'était jusqu'ici consacrée qu'à la résolution
des questions liées au problème simple de la conscience. Certains croient
toujours que les questions qui touchent aux expériences subjectives ne peuvent
recevoir de réponse quantitative, et ne s'appliquent donc qu'à la philosophie.
D'autres gèrent cette situation en refusant d'admettre l'existence de la
conscience. La TII, elle reconnaît la conscience comme un phénomène réel,
descriptible de manière objective et mathématique.
La TII nous dit comment
mesurer le degré de conscience, mais pas comment différents types
d'informations sont liés à différentes sensations subjectives. La conscience
est une propriété fondamentale de l'univers. Là où il y a des informations
intégrées, il y a une expérience. La théorie considère son existence comme
avérée, et n'est donc pas obligée d'en expliquer le mécanisme, c'est un fait
naturel, l'information a un aspect interne, en plus de son côté externe. Nous
savons que certains états de conscience sont liés à des sensations, or ces
états ne sont que des états d'information, par conséquent, l'information est liée
à un ressenti.
Il est probable qu'il existe
un continuum de l'expérience, celui-ci évolue probablement selon un gradient[12], allant des sensations
brutes et très simples des organismes unicellulaires à la connaissance
qualitative plus complexe des humains. Ce qu'il y a d'intéressant dans la TII[13], c'est qu'elle ne suppose
pas que toute entité consciente est nécessairement un organisme vivant. Tout
système capable d'intégrer des informations devrait produire des états de
conscience. Comme les processeurs d'informations, les ordinateurs modernes
possèdent une connaissance, mais tellement réduite qu'elle pourrait être
indétectable par un observateur humain. En fait, votre téléphone intelligent a
des ressentis. Dans notre monde régenté par la technologie, la TII révèle que
la conscience se trouve à la fois dans nos foyers et dans nos mains. L'idée que
des machines peuvent être conscient c’est concevable.
Selon la TII, il nous faut
admettre qu'un système comme internet peut posséder des états de conscience
semblables à ceux d'un système nerveux biologique, tant que les informations y
sont intégrées de façon similaire. Internet est composé de milliards
d'ordinateurs reliés par des fibres optiques et des câbles, qui créent des
connexions spécifiques grâce à des protocoles de communication ultrarapides.
Chacun de ces processus est lui-même composé de quelques milliards de transistors.
Internet doit avoir une puissance équivalent du nombre de synapses dans les
cerveaux de milliers de personnes, par conséquent, en nombre de composants, il
dépasse largement n'importe quel cerveau humain. Pour le moment, il semble incertain
qu'internet possède une connaissance de soi similaire à la nôtre. Nos cerveaux
sont façonnés par l'évolution depuis des millions d'années, ce qui a développé
et peaufiné leurs capacités à traiter l'information. Néanmoins, l'idée d'une toile
dotée de conscience est envisageable. Cette théorie admet la possibilité de
l'émergence d'un super organisme abstrait, composé de multiples individus. En
théorie, il n'y a quasiment aucune limite à la croissance et à l'évolution d'un
système entièrement conscient dans l'espace. Celle-ci ne dépend que du taux de
croissance de l'information et de la complexité, qui a tendance à augmenter de
manière exponentielle.
Selon la récente théorie de
l'information intégrée (TII), développée par les neuroscientifiques, tout ce
qui est doté d'un Phi non nul[14] possède une expérience
subjective, y compris les particules subatomiques. Les protons et les neutrons
sont composés d'une triade de quarks qu'on n'observe jamais de manière isolée,
ils constituent un système intégré infinitésimal. Cela signifie notamment que
la conscience s'étend dans tout l'espace, comme un énorme réseau d'expérience.
Bien entendu, le niveau de conscience est plus grand là où l'intégration de
l'information est plus importante mais l'esprit est partout. La TII est en fait
la version moderne d'une très ancienne doctrine philosophique le "panpsychisme"[15]. Le concept de cette
doctrine est que toute matière a un aspect mental, ce qui rend la conscience
universelle. L'intégralité du cosmos fourmille de conscience, nous sommes
entourés et immergés dans la conscience.
L'intelligence artificielle a
des capacités de traitement énormes tandis que le cerveau humain dispose de
flexibilité, il peut catégoriser des informations très rapidement pour évacuer
les éléments non essentiels; le cerveau apprend très rapidement, se développe
et s'auto-façonne physiquement, c'est la plasticité que la machine n'a pas. La
capacité d'abstraction du cerveau est extraordinaire, il manipule des symboles.
Et c'est grâce à ces capacités d’intelligent collective, fruits de millions
d'années d'évolution, que nous sommes capables de réaliser procédés qui sont
insurmontables pour des machines. Nous possédons un apprentissage non supervisé prédominant
chez les animaux et les humains
Réussir à maîtriser ce type
d'apprentissage est le grand défi de l’avenir pour l'intelligence artificielle.
Une machine qui peut apprendre de peu de données, ou de données fausses, ou
sans instruction, c'est aussi sur quoi
travaille Google, avec le "quantum learning", qui utilise les
ordinateurs quantiques mais on ne sait pas fabriquer de vrais ordinateurs
quantiques, c'est trop tôt pour savoir si cette théorie aura un impact.
La recherche sur
l'intelligence artificielle est l'un des plus grands problèmes scientifiques
actuels, et ce n'est pas une question qu'une seule entité peut résoudre. C'est
une recherche ouverte et partagée, entre les universités et les grandes
entreprises qui fonctionnent progressivement. Pour comprendre l'intelligence
humaine, il faut prendre en compte la perspective de la survie, de l'adaptation,
et les développements en intelligence artificielle et les robots nous poussent
à réfléchir sur ce que c'est d'être un humain, c'est une réflexion qui peut
permettre à l'homme de réaliser qu'il est bien différent des machines.
L’intérêt pour l’homme de
l’IA se trouve dans neurogenèse adulte qui est un mécanisme qui génère beaucoup
d'espoirs pour le traitement de différentes pathologies. L'idée centrale
consiste à être capable de rediriger la neurogenèse vers les sites de lésion et
ainsi d'être capable de réparer avec les propres cellules du patient et avec un
minimum d'intervention le manque de neurones. Les neurones nouvellement formés
dans un cerveau adulte permettent de nouvelles stratégies de réparation du
système nerveux et de traitement de certaines maladies dégénératives. Cela
permettra de fabriquer à partir de cellules souches embryonnaires ou de
cellules souches adultes au d'autres structures un cerveau artificiel.
Il est désormais possible de
créer en laboratoire des amas cellulaires à structures différenciées
neuroectodermiques cérébraux, clairement des cerveaux humains miniatures, ils
ont la taille d'un cerveau d'un fœtus de 9 semaines. Faute de réseau sanguin et
de soutien ces tissus ont survécu un an environ, mais sans dépasser une taille
maximale de 4 mm environ. Leurs cellules se différencieraient trop tôt
pour que ces «mini-cerveaux» puissent être plus gros. Les premiers ont été cultivés par un laboratoire de
l'Institute of Molecular Biotechnology of the Austrian Academy of Science.
Ces mini-cerveaux sont des
modèles de laboratoire pour l'étude de certaines maladies neurodéveloppementales,
telle que l'autisme. Ils peuvent également permettre d'étudier in vitro des
processus neurotoxiques et constituer une future source de tissus à greffer.
Ces organoïdes sont enfin une alternative pour l'étude in vivo des effets de certains
produits chimiques et médicaments sur le système nerveux.
L'énergie que dépensent nos
neurones vient du glucose, qu'ils brûlent au rythme de 4,2 grammes par heure ce
qui corresponde au fonctionnement de notre cerveau avec une puissance de 38
wattheures, l'équivalent d'une ampoule classique, tandis que nos ordinateurs
sont très gourmands en énergie. Un transistor isolé n'est rien d'autre qu'un
simple interrupteur et n’a rien à voir avec un neurone biologique, alimenté en
données par ses synapses, qui le relient aux autres. Dans le cerveau, chacun de
nos 100 milliards de neurones dispose en moyenne de 10.000 synapses, soit
10.000 connexions.
Il est bien sûr possible de
construire un neurone artificiel qui ait une mémoire avec des transistors. Mais
il faut alors un ensemble de transistors suffisamment complexe pour prétendre
être un neurone artificiel qui s'étend sur une centaine de microns. Pour doter
de cette façon une machine d'autant de neurones artificiels que nous avons de
neurones biologiques dans le cerveau il faudrait construire un feuilleté de
silicium de trente mètres de diamètre.
Issus des travaux en matière
d'électronique de spin (ou spintronique) du prix Nobel de physique Albert Fert
(CNRS/Thales), les transistors isolés, ces cylindres magnétiques de 100 nanomètres
de diamètre ont en eux-mêmes une mémoire. La tâche cognitive à laquelle ont été
soumis consistait à reconnaître un chiffre de zéro à neuf prononcés par divers
interlocuteurs et le réseau de nanoneurones reconnaît les chiffres prononcés
avec un score de 99,6 %. Il sera possible
d'assembler des réseaux de nanoneurones de plus en plus grands, et de fabriquer
une puce capable de reconnaître des signaux complexes et d'apprendre en temps
réel de ses erreurs.
Google a découvert en 2016
une puce développée appelée « Tensor Processing Unit » (TPU). C'est elle qui se
cachait derrière la victoire d'AlphaGo ou qui permet à Android de répondre à
des instructions vocales, ou au moteur de recherche de fournir des réponses
pertinentes. En déployant cette puce intelligente dans ses systèmes, la firme
de Mountain View affirme pouvoir faire l'économie de quinze nouveaux data
centers.
Intel, après avoir racheter
Altera, dont la puce FPGA constitue déjà la pièce maitresse de la plate-forme
de cloud computing de Microsoft (Azure), a annoncé avoir développé une puce neuromorphique
de test «Loihi», dont le fonctionnement se rapproche de celui du cerveau. Avec
ses 130.000 neurones et mille fois plus de «synapses» artificiels, Loihi est
capable d'autoapprentissage. Quant à Nvidia, il s'est lancé aussi sur le marché
des puces intelligentes avec le processeur Tesla V100, optimisé pour le « deep
learning », et le « system on chip » Xavier, conçu pour les futures voitures
autonomes.
Et enfin, une équipe du
laboratoire CellTechs a annoncé avoir créé des “mini-cerveaux” à partir de
cellules-souches particulières. Ces cellules-souches, appelées “IPS” sont dites
“pluripotentes” et peuvent être reprogrammées pour devenir des cellules
cérébrales. Dans les années 2000 on mettait déjà des cellules-souches dans des
boîtes de pétri pour recréer des petits réseaux de neurones. La nouveauté est
que les biologistes de CellTechs ont créé une structure en trois dimensions.
L’ambition est désormais de faire croître dans cette structure semblable à un
cerveau des cellules de différents types, les cellules possèdent une capacité
d’auto-organisation et des tissus complexes peuvent donc se former.
Conclusion :
Le but est de faire de la
neurogenèse, créer des neurones pour les réimplanter et réparer les maladies
neurodégénératives, mais faire pousser des cellules, même cérébrales, ne finit
pas par donner un cerveau fonctionnel. Le but des recherches de CellTechs sur
les cellules IPS grâce à sa nouvelle modélisation de mini-cerveau en trois
dimensions espère un jour d’arriver à un « clonage » de notre cerveau afin de
mieux comprendre les maladies neurodégénératives et les guérir. Les cellules
IPS, par leur capacité de reprogrammation, ont permis de reléguer au second
plan les interrogations éthiques sur la nécessité d’embryons humains pour le
clonage «classique», néanmoins, à nouveau, il se posera des questions éthiques[16] car si ces nouveaux
cerveaux recréés sont fonctionnels, cela n’impliquerait forcément qu’ils soient
dotés de capacités cognitives. L’avenir nous le dira !
Annexe
Le logiciel de Google DeepMind a acquis des
nouvelles compétences. En effet, AlphaGo Zero[17] (nom de la nouvelle
version) n’a besoin d’aucun exemple humain pour gagner. Les seules
informations dont dispose le programme, basé sur un réseau de neurones
artificiels, sont les règles du jeu et la position des pierres noires et
blanches sur le plateau. Pour apprendre, le programme joue des millions de
parties contre lui-même, avec des coups aléatoires dans un premier temps, avant
d’affiner sa stratégie par la suite. AlphaGo Zero nécessite moins de
ressources informatiques pour fonctionner que ses prédécesseurs car cette
technique est plus puissante que les précédentes versions, elle n’est plus
contrainte par les limites de la connaissance humaine et elle est capable
d’apprendre à partir de zéro avec AlphaGo lui-même.
Cette méthode d’apprentissage «par
renforcement», mêlée à d’autres optimisations techniques de DeepMind, se
montre plus efficace que la précédente, qui combinait de l’apprentissage
«supervisé» (basé sur des parties jouées par des humains) et de
l’apprentissage par renforcement. Les
chercheurs de DeepMind évoquent la possibilité que celle-ci puisse servir
dans d’autres domaines. Cependant, la méthode conçue par DeepMind ne peut pas
s’appliquer à tous les problèmes auxquels se confronte l’intelligence
artificielle. Pour appliquer cette méthode, il faut que le cadre soit très
défini, qu’on ait une représentation solide du domaine, pas trop de flou dans
les règles, et que le problème soit bien défini.
DeepMind, entreprise spécialisée dans
l’intelligence artificielle, a été rachetée en 2014 par Google, quatre ans
après sa création. Sa victoire historique dans le jeu de go lui a donné une
visibilité, mais l’entreprise travaille sur d’autres questions et notamment
la santé.
|
[2] En théorie des
circuits électriques, le memristor est un élément de circuit passif
[3] Zone située entre
deux neurones (cellules nerveuses) et assurant la transmission des informations
de l'une à l'autre.
[4] Les grands acteurs
d'Internet ou « géants du numérique ». Les actuels géants sont ainsi américains,
chinois… et surnommés GAFA ou GAFAM, acronyme constitué des géants les plus
connus (Google, Apple, Facebook, Amazon, Microsoft) ; ou encore chinois et
surnommés BATX pour Baidu, Alibaba, Tencent et Xiaomi ; ou bien les Natu
(Netflix, Airbnb, Tesla, Uber).
[5] C’est un ensemble de
méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau
d’abstraction des données grâce à des architectures articulées de différentes
transformations non linéaires
[6] Nom qui procède de l’arabe, est une suite
finie et non ambiguë d’opérations ou d'instructions permettant de résoudre un
problème ou d'obtenir un résultat.
[7] Une partie du cerveau
très importante pour la mémoire
[8] Une époque où mesures
empiriques et raisonnements déductifs peuvent nous fournir des informations
d'ordre spirituel
[9] Cette théorie a été
développée par Giulio Tononi, psychiatre et neuroscientifique
[10] Elle est connue sous
le nom de "V2"
[11] Qui reçoit des informations
provenant de la surface du corps par l'intermédiaire de neurones relais et de
neurones sensitifs.
[12] En mathématiques, le
gradient est un vecteur représentant la variation d'une fonction par rapport à
la variation de ses différents paramètres, généralisant la notion de dérivée
d'une fonction dans le cas de plusieurs variables. En physique et en analyse
vectorielle, le gradient est une grandeur vectorielle indiquant la façon dont
une grandeur physique varie dans l'espace.
[13] Théorie de
l'information intégrée
[14] Phi non nul donc Phi
n'est pas réduit au vecteur nul
[15] Des penseurs tels que
Spinoza et Leibniz sont considérés comme des panpsychistes
[16] L'éthique de
l'intelligence artificielle est le domaine de l'éthique de la technologie
propre aux robots et autres entités artificiellement intelligents. Il est
généralement divisé en roboéthique, qui se préoccupe de l'éthique humaine pour
guider la conception, la construction et l'utilisation des êtres
artificiellement intelligents, et l'éthique des machines, préoccupée par le
comportement moral des agents moraux artificiels. Le terme « roboéthique » fait référence à la
moralité de la façon dont les humains conçoivent, construisent, utilisent et
traitent les robots. Elle considère à la fois comment des êtres
artificiellement intelligents peuvent être utilisés pour nuire à l'homme et
comment elles peuvent être utilisées au profit de celui-ci.
La
philosophique de l'intelligence artificielle tente de répondre à des questions
comme : une machine peut-elle agir intelligemment? L'intelligence humaine
et l'intelligence artificielle sont-elles les mêmes? Une machine peut-elle
avoir un esprit, état d'esprit, et une conscience similaire à celle de l'humain
?
[17] Historique
·
Janvier
2016 - DeepMind dévoile l’existence d’AlphaGo et le programme a été capable de
battre le champion européen Fan Hui.
·
Mars
2016 - Le Sud-Coréen Lee Sedol, meilleur joueur au monde, est battu 4 à 1 par
AlphaGo.
·
Décembre
2016-Janvier 2017 - AlphaGo affronte en ligne, et incognito, des joueurs
professionnels de très haut niveau. Il remporte toutes les parties.
·
Mai
2017 - AlphaGo bat 3-0 le Chinois Ke Jie, champion du monde de go. DeepMind
annonce qu’AlphaGo ne participera plus à des compétitions.
·
Octobre
2017 - DeepMind dévoile AlphaGo Zero, une nouvelle version plus puissante que
les précédentes, capable d’apprendre sans données humaines.
Commentaires
Enregistrer un commentaire