Quel cerveau pour l’avenir de l’humanité voulons-nous?





Introduction

L’intelligence artificielle est un sujet que nous étudions depuis plus une décennie [1]en vue de trouver une explication pertinente sur les possibilités de celle-ci à améliorer la vie de l’être humain, la faire plus bienfaisante. En définitive, tenter de lancer une réflexion de comment et pourquoi l’apparition de l’intelligence artificielle se servie de l’intelligence collective (expérience collective)  pour devenir  « singulier ».
En effet, de nos jours, en modélisation des circuits biologiques, ceux-ci permettent de tester quelques hypothèses fonctionnelles issues de la neurophysiologie. Les réseaux de neurones artificiels sont des champions de la reconnaissance (des visages, des objets, des sons, etc.), mais, dorénavant ils apprennent à raisonner à partir de l'expérience.
Ces programmes informatiques sont passés maîtres dans l'art de la reconnaissance, grâce à une importante capacité à apprendre par entrainement, mais ces systèmes ne savent pas faire des raisonnements logiques ou symboliques à l’heure actuelle. Arriverons un jour à le faire sans l’intervention humaine et devenir intelligents pour notre avenir ou seron nous pris au piège de notre ambition de savoir?
L'orientation statistique prise dans le domaine de l'IA, qui devance l'homme dans des tâches nécessitant de trier et filtrer un trop plein d'information, ne sera peut-être pas suffisante pour capter toute la subtilité des systèmes cognitifs du cerveau humain 

Cerveau biotique, connecté, artificiel ou de synthèse?

Machine Learning, Réseaux profonds ou Deep Learning... ces termes désignent la technologie des réseaux de neurones artificiels (RN) ; depuis les années 1980 mais surtout depuis les années 2000 sont devenus incontournables, grâce à l'explosion des ressources disponibles dans les réseaux et aux immenses bases de données délocalisées. Capables de filtrer des milliards de signaux, les RN peuvent apprendre, après entrainement, à reconnaître un visage parmi de centaines de millions, ou encore détecter  la présence d'un objet donné sur des photos ou vidéos qu'ils n'ont jamais vu.
Après avoir entrainé leur système à reconnaître les trajets les plus courts sur des graphes représentant des lieux reliés par des routes, et en compliquant chaque fois plus l'exercice, les chercheurs ont présenté à leur système le graphe du métro londonien, en lui demandant de trouver le plus court trajet menant d'une station à une autre le chemin à parcourir. Par l'apprentissage, le système neuronal à induit les principes logiques de maniement des symboles (stations et trajets) afin de trouver la meilleure solution. Le système a généré dans sa représentation interne l'équivalent d'un algorithme d'optimisation sans avoir été programmé pour cela. Il a ainsi accompli la fusion entre les compétences des RN (apprentissage) et celles des ordinateurs classiques (raisonnement logique).
En octobre 2011, un équipe de chercheurs a annoncé que la disponibilité commerciale de la technologie memristive serait prête en remplacement des cartes Flash, SSD, DRAM et SRAM et sa disponibilité commerciale pour une nouvelle mémoire en 2018 et en mars 2012, une équipe de chercheurs de HRL Laboratories et de l'Université du Michigan a annoncé le premier arrangement fonctionnel de memristores[2] dans une puce. Enfin l'Unité mixte de physique CNRS-Thalès viennent de franchir une nouvelle étape en créant directement sur une puce électronique une synapse artificielle capable d'apprentissage, Ils ont ainsi développé un modèle physique qui permet d'expliciter cette capacité d'apprentissage. Cette découverte ouvre la voie à la création d'un réseau de synapses[3] et donc à des systèmes intelligents moins dépensiers en temps et en énergie.
En avril 2017, ces travaux des chercheurs de l'Unité mixte de physique CNRS-Thalès, du Laboratoire de l'intégration du matériau au système (CNRS-Université de Bordeaux-Bordeaux INP), de l'Université d'Arkansas, du Centre de nanosciences et nanotechnologies (CNRS-Université Paris-Sud), de l'université d'Évry et de Thalès en collaboration avec des chercheurs américains et japonais, ont développé le premier nano-neurone artificiel capable de reconnaitre des chiffres prononcés par différents locuteurs. Ainsi comme le développement récent des synapses électroniques, ce nano-neurone électronique est une avancée clé pour l’intelligence artificielle et ses applications, les synapses assurent la connexion et la transmission d'informations entre les neurones du cerveau.
Récemment, les algorithmes d’intelligence artificielle sont devenus donc performants pour la reconnaissance non seulement visuelle mais aussi vocale. Mais, l’exécution de ces programmes sur nos ordinateurs conventionnels consomme une énergie dix mille fois supérieure à celle du cerveau humain. Pour réduire la consommation électrique, il faut construire des ordinateurs inspirés du cerveau intégrant un très grand nombre de neurones et de synapses miniaturisés. Bientôt, ces nano-neurones magnétiques pourront être interconnectés grâce à des synapses artificielles telles que celles développées pour traiter et classer des informations en masse en temps réel.
Le processus d'apprentissage de notre cerveau est lié à nos synapses, qui assurent la connexion entre les neurones. Plus elle est stimulée, plus cette liaison se renforce, et plus l'apprentissage s'améliore. Les chercheurs se sont inspirés de ce mécanisme pour concevoir le memristor, une synapse artificielle. Ce nanocomposant électronique, formé d'une fine couche ferroélectrique prise en sandwich entre deux électrodes, peut ajuster sa résistance sous l'action d'impulsions électriques similaires à celles des neurones. Si la résistance est faible, la liaison synaptique est forte, si la résistance est forte, la liaison est faible. C'est cette capacité de la synapse à adapter sa résistance qui permet l'apprentissage.
Si les travaux sur ces synapses artificielles sont au centre des préoccupations de nombreux laboratoires, pour la première fois, les chercheurs ont réussi à élaborer un modèle physique anticipant son fonctionnement. Cette compréhension du processus va donc permettre de créer des systèmes plus complexes, comme un ensemble de neurones artificiels interconnectés par ces memristors.
Les avis de scientifiques divergent de ceux des géants de la Tech, travaillant sur une fusion de l’intelligence artificielle et du cerveau humain et de géants économiques, ils se tournent désormais dans le transhumanisme, qu’ils voient comme l’évolution naturelle de l’homme.  Mais, le cerveau n’est pas un mécanisme mais un organisme. Or les organismes ne se construisent pas, ils évoluent, selon des pressions de sélection et des événements que l’on ne peut prédire.
Les GAFA[4], BATX, Natu sont en train d’octroyer les ordinateurs de cerveaux artificiels composés de réseaux de neurones artificiels. Les uns comme les autres utilisent l’apprentissage profond[5], une forme d’intelligence artificielle censée imiter le cerveau humain. D’autres sociétés du secteur, dont Twitter, Microsoft et autres font de même. De nombreux neuroscientifiques considèrent avec scepticisme ces tentatives de recréation du cerveau par rétro-ingénierie, notamment du fait des importantes lacunes dans notre compréhension de la façon dont il fonctionne. D’autres, comme  le directeur à l’Institut de neurobiologie Max Planck en Allemagne, sont plus optimistes,  il pense que on pourrait mettre au point d’ici à 50 années une méthode pour concevoir une réplique numérique du cerveau de n’importe quelle personne.
L’erreur chez les scientifiques spécialisés dans l’informatique et chez certains bio-ingénieurs, c’est qu’ils croient que le cerveau a été conçu selon une sorte de schéma, comme si un ingénieur en avait établi le plan. Et si vous avez quelque chose qui n’a pas été construit, il est naturellement impossible de le reproduire par rétro-ingénierie. Le cerveau, système complexe est en constante adaptation et ne peut pas être décrit avec un algorithme. Les mathématiciens savent que certaines fonctions ne sont pas calculables, qu’on ne peut pas les résoudre analytiquement,  certains phénomènes naturels échappent à tout modèle prédictif.
D’une « certaine manière », internet fonctionne comme le cerveau, en refaisant l’histoire du Web, on n’obtiendrait pas les mêmes résultats, articles et commentaires disponibles qu’aujourd’hui. Cependant, à l’inverse du cerveau, nous savons créer internet, s’il disparaît nous saurions le concevoir. On peut créer une société comme Google, mais il est impossible de prédire le sujet de sa prochaine requête sur ce même dispositif. On ne pourra jamais les décrire avec un algorithme[6], nous ne sommes pas des robots, et nous ne sommes pas prévisibles.
Mais nous courons le risque de devenir des robots, parce que le cerveau s’adapte continuellement (il apprend en permanence) à ce à quoi on l’expose: plus l’exposition est importante, plus l’adaptation est grande. Se servir de smartphones, d’ordinateurs et de tablettes constamment peut altérer le fonctionnement de notre cerveau. Toutes ces machines affectent la biologie de notre cervelle. Il y a tout un éventail de capacités humaines que nous sommes en train d’abandonner à cause de la technologie. Des études ont montré, par exemple, que l’hippocampe postérieur[7], était plus développé chez les chauffeurs de taxi londoniens que chez la plupart des gens. En étudiant leur examen pointu sur le labyrinthe complexe des rues de la ville, ils développent cette partie de leur cerveau, or, aujourd’hui, les chauffeurs qui se reposent sur leur GPS ne bénéficieront pas de cette connaissance exponentiel.
Du fait de l’usage excessif des écrans, de plus en plus de gens souffrent du syndrome qui entraîne une fatigue et une vision floue et notre écriture se détériore peu à peu. Nous allons perdre en capacités, mais aussi en diversité, en nous servant des mêmes technologies pour nous guider dans nos décisions, nous nous conduirons de manière semblable parce que les ordinateurs ignorent l’ambiguïté, ils fonctionnent de manière très limitée. Mais la richesse de notre culture repose sur des comportements non calculables, qui nous donnent toute notre humanité et notre diversité. Si on veut protéger notre humanité, il faut protéger notre propre sensibilité et nos rapports humains. La technologie modifie notre manière d’appréhender ces derniers, un ordinateur n’aura jamais d’intuition.
En programmant un ordinateur pour composer un texte, on obtiendra un résultat bien plus pauvre, moins complexe dans sa sémantique que nos propre écris, nos subtilités,  nos doubles sens, vous ne trouverez pas d’ironie, ni de différents niveaux de lecture... En résumé, les facultés du cerveau humain n’appartiennent qu’à lui-même, il faut peut-être le préserver et non pas le remplacer ou l’augmenter.
Néanmoins, il semblerait que nous entrions dans une période nouvelle de l'histoire de l'Homme et de la science[8]. La récente théorie de l'information intégrée, développée par les neuroscientifiques décrit la manière de mesurer expérimentalement le degré de conscience d'un système. À ce titre, elle pourrait potentiellement répondre à des questions qui paraissaient autrefois insolubles. De plus, cette théorie suppose que tout système capable de traiter et d'intégrer des informations, qu'il soit organique ou inorganique, observe le monde avec un certain degré de subjectivité. Les plantes, les smartphones, internet et même les protons en sont d’exemples : c'est un cosmos composé de matière consciente.
Tandis qu'une partie de plus en plus vaste du monde naturel se trouve décrite de manière objective et empirique, on assiste au déclin de plus en plus rapide des croyances en l'existence de tout ce qui va à l'encontre des explications scientifiques actuelles.
Aujourd'hui, la science a décrit à peu près tout ce qui peut l'être. Nous comprenons la naissance des trous noirs, et leur place dans la géométrie de l'espace-temps, nous appréhendons même le moment exact où l'univers a commencé à exister, mais aucun scientifique ne vous dira que nous comprenons complètement notre propre conscience. Malgré toutes nos avancées qui avaient posé comme principe que la conscience est en réalité une sorte d'esprit immatériel non soumis aux lois physiques, nous ne disposons toujours pas d'une explication scientifique satisfaisante de la connaissance. Et dans ces conditions, il est impossible de répondre à certaines questions si l'on ne peut mesurer la conscience.
La théorie de l'information intégrée affirme[9] (TII) fournir une manière précise de mesurer la conscience et d'exprimer ce phénomène en termes purement mathématiques. Comme un ordinateur, le cerveau enregistre et traite des informations. Mais c'est la manière dont celles-ci sont partagées dans l'ensemble des réseaux cérébraux qui génère une expérience consciente riche et puissante. Grâce aux avancées de l'imagerie cérébrale, la neuroscience moderne nous apprend qu’un événement observé implique un certain nombre de régions distinctes, dont chacune traite séparément des informations sur différents aspects de l'événement. Une région du cortex visuel[10] traite la forme et la couleur. Des aires auditives dans le lobe temporal reçoivent des informations sur le bruit du vent qui souffle. Ce vent qui souffle sur la peau génère également dans le cortex somatosensoriel[11] des signaux électriques qui vous donnent une sensation de frôlement. Des tas de procédés se passent dans des endroits très éloignés les uns des autres et pourtant, nous percevons tout cela comme une même expérience consciente et unifiée. Cette expérience unifiée repose sur la capacité du cerveau à intégrer en un tout cet afflux d'informations sensorielles. Pour la TII, ces mesures d'informations permettent de calculer un nombre exact correspondant au degré d'information intégrée existant à un instant dans le cerveau.
C'est ce que la science a toujours cherché à comprendre est décrire les choses objectivement, et dépouiller de tout mystère des phénomènes naturels dont nous n'avons qu'une compréhension très floue. La science ne s'était jusqu'ici consacrée qu'à la résolution des questions liées au problème simple de la conscience. Certains croient toujours que les questions qui touchent aux expériences subjectives ne peuvent recevoir de réponse quantitative, et ne s'appliquent donc qu'à la philosophie. D'autres gèrent cette situation en refusant d'admettre l'existence de la conscience. La TII, elle reconnaît la conscience comme un phénomène réel, descriptible de manière objective et mathématique.
La TII nous dit comment mesurer le degré de conscience, mais pas comment différents types d'informations sont liés à différentes sensations subjectives. La conscience est une propriété fondamentale de l'univers. Là où il y a des informations intégrées, il y a une expérience. La théorie considère son existence comme avérée, et n'est donc pas obligée d'en expliquer le mécanisme, c'est un fait naturel, l'information a un aspect interne, en plus de son côté externe. Nous savons que certains états de conscience sont liés à des sensations, or ces états ne sont que des états d'information, par conséquent, l'information est liée à un ressenti.
Il est probable qu'il existe un continuum de l'expérience, celui-ci évolue probablement selon un gradient[12], allant des sensations brutes et très simples des organismes unicellulaires à la connaissance qualitative plus complexe des humains. Ce qu'il y a d'intéressant dans la TII[13], c'est qu'elle ne suppose pas que toute entité consciente est nécessairement un organisme vivant. Tout système capable d'intégrer des informations devrait produire des états de conscience. Comme les processeurs d'informations, les ordinateurs modernes possèdent une connaissance, mais tellement réduite qu'elle pourrait être indétectable par un observateur humain. En fait, votre téléphone intelligent a des ressentis. Dans notre monde régenté par la technologie, la TII révèle que la conscience se trouve à la fois dans nos foyers et dans nos mains. L'idée que des machines peuvent être conscient c’est concevable.
Selon la TII, il nous faut admettre qu'un système comme internet peut posséder des états de conscience semblables à ceux d'un système nerveux biologique, tant que les informations y sont intégrées de façon similaire. Internet est composé de milliards d'ordinateurs reliés par des fibres optiques et des câbles, qui créent des connexions spécifiques grâce à des protocoles de communication ultrarapides. Chacun de ces processus est lui-même composé de quelques milliards de transistors. Internet doit avoir une puissance équivalent du nombre de synapses dans les cerveaux de milliers de personnes, par conséquent, en nombre de composants, il dépasse largement n'importe quel cerveau humain.  Pour le moment, il semble incertain qu'internet possède une connaissance de soi similaire à la nôtre. Nos cerveaux sont façonnés par l'évolution depuis des millions d'années, ce qui a développé et peaufiné leurs capacités à traiter l'information. Néanmoins, l'idée d'une toile dotée de conscience est envisageable. Cette théorie admet la possibilité de l'émergence d'un super organisme abstrait, composé de multiples individus. En théorie, il n'y a quasiment aucune limite à la croissance et à l'évolution d'un système entièrement conscient dans l'espace. Celle-ci ne dépend que du taux de croissance de l'information et de la complexité, qui a tendance à augmenter de manière exponentielle.
Selon la récente théorie de l'information intégrée (TII), développée par les neuroscientifiques, tout ce qui est doté d'un Phi non nul[14] possède une expérience subjective, y compris les particules subatomiques. Les protons et les neutrons sont composés d'une triade de quarks qu'on n'observe jamais de manière isolée, ils constituent un système intégré infinitésimal. Cela signifie notamment que la conscience s'étend dans tout l'espace, comme un énorme réseau d'expérience. Bien entendu, le niveau de conscience est plus grand là où l'intégration de l'information est plus importante mais l'esprit est partout. La TII est en fait la version moderne d'une très ancienne doctrine philosophique le "panpsychisme"[15]. Le concept de cette doctrine est que toute matière a un aspect mental, ce qui rend la conscience universelle. L'intégralité du cosmos fourmille de conscience, nous sommes entourés et immergés dans la conscience.
L'intelligence artificielle a des capacités de traitement énormes tandis que le cerveau humain dispose de flexibilité, il peut catégoriser des informations très rapidement pour évacuer les éléments non essentiels; le cerveau apprend très rapidement, se développe et s'auto-façonne physiquement, c'est la plasticité que la machine n'a pas. La capacité d'abstraction du cerveau est extraordinaire, il manipule des symboles. Et c'est grâce à ces capacités d’intelligent collective, fruits de millions d'années d'évolution, que nous sommes capables de réaliser procédés qui sont insurmontables pour des machines. Nous possédons  un apprentissage non supervisé prédominant chez les animaux et les humains
Réussir à maîtriser ce type d'apprentissage est le grand défi de l’avenir pour l'intelligence artificielle. Une machine qui peut apprendre de peu de données, ou de données fausses, ou sans instruction, c'est aussi  sur quoi travaille Google, avec le "quantum learning", qui utilise les ordinateurs quantiques mais on ne sait pas fabriquer de vrais ordinateurs quantiques, c'est trop tôt pour savoir si cette théorie aura un impact.
La recherche sur l'intelligence artificielle est l'un des plus grands problèmes scientifiques actuels, et ce n'est pas une question qu'une seule entité peut résoudre. C'est une recherche ouverte et partagée, entre les universités et les grandes entreprises qui fonctionnent progressivement. Pour comprendre l'intelligence humaine, il faut prendre en compte la perspective de la survie, de l'adaptation, et les développements en intelligence artificielle et les robots nous poussent à réfléchir sur ce que c'est d'être un humain, c'est une réflexion qui peut permettre à l'homme de réaliser qu'il est bien différent des machines.
L’intérêt pour l’homme de l’IA se trouve dans neurogenèse adulte qui est un mécanisme qui génère beaucoup d'espoirs pour le traitement de différentes pathologies. L'idée centrale consiste à être capable de rediriger la neurogenèse vers les sites de lésion et ainsi d'être capable de réparer avec les propres cellules du patient et avec un minimum d'intervention le manque de neurones. Les neurones nouvellement formés dans un cerveau adulte permettent de nouvelles stratégies de réparation du système nerveux et de traitement de certaines maladies dégénératives. Cela permettra de fabriquer à partir de cellules souches embryonnaires ou de cellules souches adultes au d'autres structures un cerveau artificiel.
Il est désormais possible de créer en laboratoire des amas cellulaires à structures différenciées neuroectodermiques cérébraux, clairement des cerveaux humains miniatures, ils ont la taille d'un cerveau d'un fœtus de 9 semaines. Faute de réseau sanguin et de soutien ces tissus ont survécu un an environ, mais sans dépasser une taille maximale de 4 mm environ. Leurs cellules se différencieraient trop tôt pour que ces «mini-cerveaux» puissent être plus gros. Les premiers  ont été cultivés par un laboratoire de l'Institute of Molecular Biotechnology of the Austrian Academy of Science.
Ces mini-cerveaux sont des modèles de laboratoire pour l'étude de certaines maladies neurodéveloppementales, telle que l'autisme. Ils peuvent également permettre d'étudier in vitro des processus neurotoxiques et constituer une future source de tissus à greffer. Ces organoïdes sont enfin une alternative pour l'étude in vivo des effets de certains produits chimiques et médicaments sur le système nerveux.
L'énergie que dépensent nos neurones vient du glucose, qu'ils brûlent au rythme de 4,2 grammes par heure ce qui corresponde au fonctionnement de notre cerveau avec une puissance de 38 wattheures, l'équivalent d'une ampoule classique, tandis que nos ordinateurs sont très gourmands en énergie. Un transistor isolé n'est rien d'autre qu'un simple interrupteur et n’a rien à voir avec un neurone biologique, alimenté en données par ses synapses, qui le relient aux autres. Dans le cerveau, chacun de nos 100 milliards de neurones dispose en moyenne de 10.000 synapses, soit 10.000 connexions.
Il est bien sûr possible de construire un neurone artificiel qui ait une mémoire avec des transistors. Mais il faut alors un ensemble de transistors suffisamment complexe pour prétendre être un neurone artificiel qui s'étend sur une centaine de microns. Pour doter de cette façon une machine d'autant de neurones artificiels que nous avons de neurones biologiques dans le cerveau il faudrait construire un feuilleté de silicium de trente mètres de diamètre.
Issus des travaux en matière d'électronique de spin (ou spintronique) du prix Nobel de physique Albert Fert (CNRS/Thales), les transistors isolés, ces cylindres magnétiques de 100 nanomètres de diamètre ont en eux-mêmes une mémoire. La tâche cognitive à laquelle ont été soumis consistait à reconnaître un chiffre de zéro à neuf prononcés par divers interlocuteurs et le réseau de nanoneurones reconnaît les chiffres prononcés avec un score de 99,6 %. Il  sera possible d'assembler des réseaux de nanoneurones de plus en plus grands, et de fabriquer une puce capable de reconnaître des signaux complexes et d'apprendre en temps réel de ses erreurs.
Google a découvert en 2016 une puce développée appelée « Tensor Processing Unit » (TPU). C'est elle qui se cachait derrière la victoire d'AlphaGo ou qui permet à Android de répondre à des instructions vocales, ou au moteur de recherche de fournir des réponses pertinentes. En déployant cette puce intelligente dans ses systèmes, la firme de Mountain View affirme pouvoir faire l'économie de quinze nouveaux data centers.
Intel, après avoir racheter Altera, dont la puce FPGA constitue déjà la pièce maitresse de la plate-forme de cloud computing de Microsoft (Azure), a annoncé avoir développé une puce neuromorphique de test «Loihi», dont le fonctionnement se rapproche de celui du cerveau. Avec ses 130.000 neurones et mille fois plus de «synapses» artificiels, Loihi est capable d'autoapprentissage. Quant à Nvidia, il s'est lancé aussi sur le marché des puces intelligentes avec le processeur Tesla V100, optimisé pour le « deep learning », et le « system on chip » Xavier, conçu pour les futures voitures autonomes.
Et enfin, une équipe du laboratoire CellTechs a annoncé avoir créé des “mini-cerveaux” à partir de cellules-souches particulières. Ces cellules-souches, appelées “IPS” sont dites “pluripotentes” et peuvent être reprogrammées pour devenir des cellules cérébrales. Dans les années 2000 on mettait déjà des cellules-souches dans des boîtes de pétri pour recréer des petits réseaux de neurones. La nouveauté est que les biologistes de CellTechs ont créé une structure en trois dimensions. L’ambition est désormais de faire croître dans cette structure semblable à un cerveau des cellules de différents types, les cellules possèdent une capacité d’auto-organisation et des tissus complexes peuvent donc se former.

Conclusion :

Le but est de faire de la neurogenèse, créer des neurones pour les réimplanter et réparer les maladies neurodégénératives, mais faire pousser des cellules, même cérébrales, ne finit pas par donner un cerveau fonctionnel. Le but des recherches de CellTechs sur les cellules IPS grâce à sa nouvelle modélisation de mini-cerveau en trois dimensions espère un jour d’arriver à un « clonage » de notre cerveau afin de mieux comprendre les maladies neurodégénératives et les guérir. Les cellules IPS, par leur capacité de reprogrammation, ont permis de reléguer au second plan les interrogations éthiques sur la nécessité d’embryons humains pour le clonage «classique», néanmoins, à nouveau, il se posera des questions éthiques[16] car si ces nouveaux cerveaux recréés sont fonctionnels, cela n’impliquerait forcément qu’ils soient dotés de capacités cognitives. L’avenir nous le dira !

Annexe

Le logiciel de Google DeepMind a acquis des nouvelles compétences. En effet, AlphaGo Zero[17] (nom de la nouvelle version) n’a besoin d’aucun exemple humain pour gagner. Les seules informations dont dispose le programme, basé sur un réseau de neurones artificiels, sont les règles du jeu et la position des pierres noires et blanches sur le plateau. Pour apprendre, le programme joue des millions de parties contre lui-même, avec des coups aléatoires dans un premier temps, avant d’affiner sa stratégie par la suite. AlphaGo Zero nécessite moins de ressources informatiques pour fonctionner que ses prédécesseurs car cette technique est plus puissante que les précédentes versions, elle n’est plus contrainte par les limites de la connaissance humaine et elle est capable d’apprendre à partir de zéro avec AlphaGo lui-même.
Cette méthode d’apprentissage «par renforcement», mêlée à d’autres optimisations techniques de DeepMind, se montre plus efficace que la précédente, qui combinait de l’apprentissage «supervisé» (basé sur des parties jouées par des humains) et de l’apprentissage par renforcement.  Les chercheurs de DeepMind évoquent la possibilité que celle-ci puisse servir dans d’autres domaines. Cependant, la méthode conçue par DeepMind ne peut pas s’appliquer à tous les problèmes auxquels se confronte l’intelligence artificielle. Pour appliquer cette méthode, il faut que le cadre soit très défini, qu’on ait une représentation solide du domaine, pas trop de flou dans les règles, et que le problème soit bien défini.
DeepMind, entreprise spécialisée dans l’intelligence artificielle, a été rachetée en 2014 par Google, quatre ans après sa création. Sa victoire historique dans le jeu de go lui a donné une visibilité, mais l’entreprise travaille sur d’autres questions et notamment la santé.





[1] https://technologiesdelaconnaissance.blogspot.fr/
[2] En théorie des circuits électriques, le memristor est un élément de circuit passif
[3] Zone située entre deux neurones (cellules nerveuses) et assurant la transmission des informations de l'une à l'autre.
[4] Les grands acteurs d'Internet ou « géants du numérique ». Les actuels géants sont ainsi américains, chinois… et surnommés GAFA ou GAFAM, acronyme constitué des géants les plus connus (Google, Apple, Facebook, Amazon, Microsoft) ; ou encore chinois et surnommés BATX pour Baidu, Alibaba, Tencent et Xiaomi ; ou bien les Natu (Netflix, Airbnb, Tesla, Uber).
[5] C’est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires
[6] Nom qui procède de l’arabe, est une suite finie et non ambiguë d’opérations ou d'instructions permettant de résoudre un problème ou d'obtenir un résultat.
[7] Une partie du cerveau très importante pour la mémoire
[8] Une époque où mesures empiriques et raisonnements déductifs peuvent nous fournir des informations d'ordre spirituel
[9] Cette théorie a été développée par Giulio Tononi, psychiatre et neuroscientifique
[10] Elle est connue sous le nom de "V2"
[11]  Qui reçoit des informations provenant de la surface du corps par l'intermédiaire de neurones relais et de neurones sensitifs.
[12] En mathématiques, le gradient est un vecteur représentant la variation d'une fonction par rapport à la variation de ses différents paramètres, généralisant la notion de dérivée d'une fonction dans le cas de plusieurs variables. En physique et en analyse vectorielle, le gradient est une grandeur vectorielle indiquant la façon dont une grandeur physique varie dans l'espace.
[13] Théorie de l'information intégrée
[14] Phi non nul donc Phi n'est pas réduit au vecteur nul
[15] Des penseurs tels que Spinoza et Leibniz sont considérés comme des panpsychistes
[16] L'éthique de l'intelligence artificielle est le domaine de l'éthique de la technologie propre aux robots et autres entités artificiellement intelligents. Il est généralement divisé en roboéthique, qui se préoccupe de l'éthique humaine pour guider la conception, la construction et l'utilisation des êtres artificiellement intelligents, et l'éthique des machines, préoccupée par le comportement moral des agents moraux artificiels.  Le terme « roboéthique » fait référence à la moralité de la façon dont les humains conçoivent, construisent, utilisent et traitent les robots. Elle considère à la fois comment des êtres artificiellement intelligents peuvent être utilisés pour nuire à l'homme et comment elles peuvent être utilisées au profit de celui-ci.
La philosophique de l'intelligence artificielle tente de répondre à des questions comme : une machine peut-elle agir intelligemment? L'intelligence humaine et l'intelligence artificielle sont-elles les mêmes? Une machine peut-elle avoir un esprit, état d'esprit, et une conscience similaire à celle de l'humain ?
[17] Historique
·        Janvier 2016 - DeepMind dévoile l’existence d’AlphaGo et le programme a été capable de battre le champion européen Fan Hui.
·        Mars 2016 - Le Sud-Coréen Lee Sedol, meilleur joueur au monde, est battu 4 à 1 par AlphaGo.
·        Décembre 2016-Janvier 2017 - AlphaGo affronte en ligne, et incognito, des joueurs professionnels de très haut niveau. Il remporte toutes les parties.
·        Mai 2017 - AlphaGo bat 3-0 le Chinois Ke Jie, champion du monde de go. DeepMind annonce qu’AlphaGo ne participera plus à des compétitions.
·        Octobre 2017 - DeepMind dévoile AlphaGo Zero, une nouvelle version plus puissante que les précédentes, capable d’apprendre sans données humaines.

Commentaires

Technologies de l'intelligence, transhumanisme

Le robot du futur

L’éthique dans la silver économie[

Lettre ouverte à Edgar Morin

L’intelligence artificielle, l'éducation et l'initiative France IA

Cobotique, robotique, sciences sociales, neurosciences et intelligence artificielle

La philosophie de l'esprit et la mort

De la inteligencia colectiva a la inteligencia artificial

Trois nouveaux régards