jeudi 22 octobre 2015

Mon esprit téléchargé dans une machine

Singularité technologique
La frise chronologique de Ray Kurzweil date le moment où un superordinateur sera plus puissant qu'un cerveau humain, et pourra alors le simuler : il s'agit d'une méthode envisagée pour créer une intelligence artificielle, utilisée notamment dans le projet Blue Brain.
La singularité technologique (ou simplement la singularité) est un concept, selon lequel, à partir d'un point hypothétique de son évolution technologique, la civilisation humaine pourrait connaître une croissance technologique d'un ordre supérieur. Pour beaucoup, il serait question d'intelligence artificielle, quelle que soit la méthode pour la créer. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supra intelligence », elles-mêmes en constante progression. La singularité induirait des changements tels sur la société humaine que l’individu humain d’avant la singularité ne pourrait ni les appréhender ni les prédire de manière fiable. Le risque en serait la perte de pouvoir humain, politique, sur son destin.
Source (et suite) du texte : wikipedia


Mon esprit téléchargé dans une machine
Le 2 juin 2015 - Le Temps

Facebook ouvre à Paris un centre de recherche sur l’intelligence artificielle pour approfondir le «deep learning», vient d’annoncer le groupe américain. Les machines peuvent-elles apprendre d’elles-mêmes? Les hommes sont-ils en train de créer un système artificiel qui deviendra aussi intelligent qu’eux, et puis, beaucoup plus? Le philosophe «transhumaniste» Nick Bostrom, de l’Université d’Oxford, met en garde: attention aux dérives incontrôlables

Le jour ne serait pas si lointain où les hommes créeront un système artificiel qui deviendra aussi intelligent qu’eux, puis beaucoup plus… Il sera alors possible de transférer l’intellect humain dans des superordinateurs. Mais avant cela, avertit le philosophe «transhumaniste» Nick Bostrom, de l’Université d’Oxford, il s’agit de déterminer et de mettre en place les garde-fous nécessaires pour prévenir toute dérive incontrôlable

«Je peine à décrire cette sensation: c’est comme si mon esprit s’était libéré!» Dans le film Transcendance, Johnny Depp vient, grâce à des électrodes implantées sous son crâne, de transférer le contenu de son cerveau sur un superordinateur quantique tout en mourant à petit feu, empoisonné par du polonium. Will Caster, le personnage qu’il incarne, n’interagit alors avec les humains que par des caractères alignés sur des écrans, puis par une voix métallique synchronisée à un visage numérique. Mais, très vite, lorsque son épouse permet à cette entité virtuelle qu’est devenu feu son mari d’accéder à Internet, cet avatar devient ultra-riche à la bourse en utilisant ses capacités ­informatiques surpuissantes, développe son intelligence, prend le contrôle d’une ville et de ses habitants, qui deviennent des robots à ses ordres, réussit des avancées en médecine régénératrice. «Ce système voudra toujours plus, se développer, évoluer, maîtriser: ce sera la fin de la vie organique primitive, et l’aube d’un âge plus avancé, craint un des héros du film. Tout n’existera que pour servir son intelligence!»

Nick Bostrom, lui, n’a pas vu ce blockbuster. Tout au plus en a-t-il lu le scénario; en fait, il aurait pu l’écrire. Ce philosophe, directeur du Future of Humanity Institute à l’Université d’Oxford et l’un des pontes du transhumanisme, travaille sur les mêmes concepts d’intelligence artificielle et d’immortalité virtuelle, mais tente de les extirper de la science-fiction pour les ramener dans le champ de la recherche académique, le plus sérieusement du monde. Dans son ouvrage* paru le 3 juillet, celui que la revue Foreign Policy a classé en 2009 parmi les «100 plus grands penseurs actuels» (en 73e position) n’hésite pas à mettre en garde face à l’avènement d’une superintelligence artificielle: «C’est le défi le plus important que l’humanité aura jamais à relever. Et – qu’on réussisse ou pas – ce sera probablement le dernier.»

Une note d’éternité. Qui résonne bien dans son bureau d’une rue discrète d’Oxford, inondé de la lumière froide d’une dizaine d’ampoules halogènes simplement fixées sur une gerbe de tiges en métal.

Le Temps: Accéder à l’immortalité virtuelle est-il réaliste?

Nick Bostrom: Dans le film, le transfert de l’intellect du personnage dans le superordinateur se fait en deux semaines, avec quelques simples électrodes: c’est bien sûr de la science-fiction. Cela dit, aujourd’hui, les interfaces directes cerveau-ordinateur existent et permettent à des personnes para­lysées de guider un robot par la pensée. Mais ce mode de communication reste grossier, lent, complexe. Dès lors, plutôt que de connecter un cerveau à un PC pour augmenter ses capacités, mieux vaut développer les bases (matérielles et programmatives) d’une intelligence artificielle à l’extérieur de l’organe même.

Une des étapes suivantes pourrait consister à reproduire un cerveau humain en le copiant. Concrètement, il faudra le congeler ou le vitrifier, le couper en tranches très fines, imager celles-ci avec des microscopes ultra-puissants – ceux existant permettent déjà d’atteindre un niveau de résolution moléculaire –, utiliser des logiciels de reconnaissance visuelle pour extraire l’architecture et la connectivité du réseau neuronal, et ensuite utiliser des modèles neurocomputationnels pour «faire fonctionner» ce réseau sur un superordinateur. Celui-ci pourrait alors s’améliorer, s’affiner, se perfectionner.

L’avantage de cette méthode est qu’elle ne nécessite aucune percée fondamentale. Toutefois, du point de vue technique, on en est encore loin. D’ailleurs, on peine à faire ainsi fonctionner virtuellement le cerveau du ver C. elegans, qui n’a que 302 neurones, contre 100 milliards chez l’homme. Certes, une fois que la technologie existera, la tâche ne sera peut-être pas proportionnellement beaucoup plus difficile…

Une autre manière de procéder, plus classique, consiste à développer des algorithmes théoriques qui simulent le fonctionnement des neurones. Mais, là, des percées sont nécessaires, et on ne sait pas lesquelles, ni combien. On reste donc loin d’atteindre une intelligence artificielle (IA) de niveau humain.

Supposons qu’on dispose d’une telle IA. Constituera-t-elle forcément une garantie d’immortalité?

Il faut voir les choses depuis tous les angles: peut-être cette IA nous aidera-t-elle, avec ses capacités hors norme, à trouver des méthodes pour réparer indéfiniment le corps humain, jusqu’au niveau cellulaire, et nous faire vivre des millions d’années. Quant au transfert de cerveau «par tranches», il n’implique pas forcément la mort, définie par la perte irréversible des informations (également neurologiques) qui ont constitué une personne, puisque ces données ne seraient pas effacées mais passeraient d’un milieu (biologique, le cerveau) à un autre (électronique). On peut même imaginer qu’avec des technologies mûres, on puisse le faire de manière continue, en remplaçant graduellement chaque neurone biologique par un neurone «en silicium». Ainsi, l’on ne remarquerait pas qu’après un certain temps, on n’aurait plus que des neurones en silicium…

Restera alors à voir si le «moi» en silicium est réellement similaire à l’ancien «moi» biologique… Votre discours – et votre livre – contient d’ailleurs moult «si», «quand», «supposons»: toutes ces incertitudes ne se multiplient-elles pas pour repousser la date de survenue d’une IA de niveau humain?

Au contraire, le fait qu’il y ait plusieurs méthodes pour développer une telle IA nous rapproche de son avènement possible. Peut-être que cela prendra dix, vingt ou cent ans, nul ne le sait. Il faut là aussi réfléchir en termes de proba­bilités. Nous avons fait un sondage parmi 100 des meilleurs experts du domaine: pour la moitié d’entre eux, cet événement se produira d’ici à 2050. Et 90% sont d’accord pour dire qu’il sera survenu d’ici à 2075. Il faut aussi tenir compte des progrès dans d’autres domaines, comme la sélection génétique dans les embryons de fécondation in vitro, avec laquelle on pourra radicalement augmenter les capacités intellectuelles des humains; ce sont alors peut-être ces êtres superintelligents qui vont générer les percées nécessaires. D’autre part, plusieurs jalons ont déjà été posés: l’ordinateur Deep Blue battant l’homme aux échecs, la voiture autoguidée, le superordinateur Watson remportant le quiz Jeopardy!, les systèmes de reconnaissance visuelle, les logiciels de jeux où l’ordinateur surpasse largement l’homme… Et, à chaque fois qu’une étape est passée, on oublie qu’on la considérait avant comme une incarnation de l’intelligence artificielle, tant la tâche pour l’atteindre semblait énorme. Mais, derrière ces éclats sur les radars médiatiques, des recherches cruciales sont réalisées sur les algorithmes et le hardware. Si l’on pense qu’il y a quelques décennies, l’ordinateur personnel n’existait pas, on peut espérer que, durant le temps d’une vie d’aujour­d’hui, on aura atteint le but évoqué.

Une des étapes cruciales, à mon avis, sera de développer une IA qui puisse réellement contribuer à sa propre amélioration. Générer cette capacité d’auto-amélioration nécessite le développement de logiciels qui dépassent pour l’heure l’ingéniosité de l’homme.

De plus, vous dites vous-même qu’on reste très loin d’une intelligence artificielle «générale», capable, comme l’homme, de raisonnements conceptuels abstraits, qui soit apte à ressentir des sentiments, ou à respecter des valeurs…

Nous n’avons juste pas encore trouvé les bons algorithmes pour tout cela: au final, l’«ordinateur» qu’est le cerveau est capable de générer ces conditions. Mais on ne sait pas encore comment avancer.

Cela dit, il faut faire attention à ne pas trop anthropomorphiser toute forme de superintelligence. L’esprit et l’intelligence humaine sont sans cesse affectés par les traits de personnalité, les désirs, les forces et faiblesses, les émotions. Autant d’«états d’âme» qui découlent de conflits biologiquement descriptibles entre différentes aires du cerveau, elles-mêmes étant le fruit de l’évolution. Dans une architecture «mentale» différente, comme celle d’une IA, toutes ces situations pourraient ne pas se présenter, et tous les parasites qu’elles induisent ne pas être pertinents. Il existe une tendance à calquer sur les agents artificiels tout ce que l’on a découvert à partir de la psychologie humaine. Or ces derniers pourraient être bien plus étranges que les êtres humains les plus étranges que vous ayez jamais rencontrés.

Selon vous, dès que l’instant sera atteint où une IA deviendra aussi intelligente que l’homme, ce système artificiel deviendra très vite beaucoup plus puissant…

Relisez l’histoire de l’homme: dès que de petites différences dans le câblage de son cerveau lui ont donné la capacité du langage, de développer des technologies et une culture, elles lui ont permis de devenir surpuissant par rapport aux autres animaux, même aux gorilles, pourtant bien plus forts. Or, aujourd’hui, le sort de ces grands singes dépend bien plus des décisions de l’homme que des leurs. De même, lorsque des machines deviendront plus intelligentes que l’homme, elles gagneront en puissance, inventeront de nouvelles technologies, de nouvelles stratégies pour atteindre leur objectif, et modèleront le monde en fonction de leurs préférences. Il y aura une «explosion d’intelligence». Et elle aura lieu en un laps de temps court, des jours, des semaines, peut-être des mois, mais certainement pas des décennies.

Vous le dites, tout dépendra de l’objectif conféré à ces machines… Quels sont les risques, si ces buts sont simples et bien limités?

Ils sont d’ordre existentiel! Imaginons que le but de votre système d’intelligence artificiel soit de produire un maximum d’agrafes à papier. L’objectif semble banal. Mais cette machine peut considérer qu’il faut supprimer toute entité susceptible de l’empêcher de l’atteindre: elle pourrait donc vouloir éliminer l’homme. D’autant plus que le corps humain, fait d’atomes, constitue une mine de matière première aux «yeux» de cette intelligence artificielle pour fabriquer ses agrafes. Exemple simpliste? Prenons-en un autre: l’objectif, pour une IA, de «faire sourire». Si cette entité n’est pas trop évoluée, elle pourra l’atteindre en racontant des blagues, par exemple. Mais si elle est plus subtile, elle verra qu’il lui suffit, pour «faire sourire», de paralyser les muscles faciaux des humains, par exemple en leur injectant une drogue. Allons encore un pas plus loin, avec le but plus abstrait de «rendre heureux»: à terme, l’agent artificiel pourrait comprendre qu’un moyen d’y parvenir serait de surstimuler en permanence la zone du cerveau humain responsable du plaisir, en y implantant une électrode. Bref, on se rend compte qu’il est très difficile de spécifier des objectifs, même simples, qu’on voudrait attribuer à un système IA, sans avoir aussi des dérives possibles, que j’appelle des phénomènes d’«instanciation perverse» [soit, en informatique, l’implémentation d’actions non souhaitée].

Mais devons-nous à tout prix donner un objectif à une IA?

Il se peut qu’elle s’en attribue elle-même un, qui n’était pas présent lors de sa conception. Mais pour la plupart, les hommes auront interagi avec cette superintelligence en lui demandant quelque chose… Et même si on ne considère l’IA «que» comme un superordinateur, on peut lui demander deux choses: soit de résoudre un problème qu’on cerne bien, qu’on aura fractionné en sous-problèmes et qu’on l’appelle à résoudre; soit – et c’est plus probable – de développer une stratégie pour résoudre un problème qu’on ne sait nous-même pas résoudre. On entre alors dans la zone à risque que je viens de décrire, avec, de plus, une machine capable d’apprendre par elle-même et, à ce moment-là, infiniment plus vite que l’être humain. Il se peut que ce système, malgré sa puissance, reste bienveillant – et c’est ce qu’on doit espérer. Mais toutes les valeurs (éthiques, morales, etc.) que vous aurez tenté d’inculquer à cette entité (et c’est un autre défi qu’on ne sait pour l’heure pas relever, sans même évoquer le débat sur le choix des valeurs à inoculer, qui peut varier grandement) peuvent avoir des effets collatéraux néfastes. Ce n’est pas que l’IA sera a priori agressive, hostile ou malveillante envers l’homme, elle tentera simplement de tout mettre en œuvre, même ce qui nous dépasse, pour réaliser son objectif. De la même manière qu’on ne spraie pas des fourmis qui ont envahi la cuisine parce qu’on les hait profondément, mais simplement parce qu’elles sont là et nous dérangent. Au final, on ne pourra plus combattre ces machines; il faut les construire pour que leurs objectifs coïncident au mieux avec les nôtres.

Quels sont les moyens de contrôler ce développement? N’y aura-t-il pas toujours un moyen de tirer la prise?

Résoudre ce problème du contrôle dans le cas d’une telle explosion d’intelligence sera un des plus grands défis de l’humanité. Il y a deux méthodes possibles. La première consiste à limiter ce que le système AI peut faire, à le «mettre dans une boîte», en quelque sorte, à le déconnecter d’Internet. Mais des failles demeurent: les hommes. La nature même de cet agent superintelligent implique qu’il aura des interactions avec le monde extérieur, hors de sa boîte, ceci directement ou à travers les humains. Il pourrait alors pervertir ces derniers pour qu’ils agissent en sa faveur, en lui promettant des avantages en retour. A long terme, il faudra à mon avis recourir à une deuxième méthode, dite de «sélection de motivation»: elle consiste à construire l’IA de telle manière qu’elle ne se transforme jamais en une entité qui ruine tous les objectifs et les valeurs de l’humanité. Ainsi, même si ce système pouvait détruire le monde, il ne le ferait pas. De même que si j’avais un bouton rouge pour faire sauter la planète, je ne le ferais pas… Cette «sélection de motivation» doit être inculquée lors du développement de toute IA, soit maintenant… Mais on revient alors au problème de l’attribution de valeurs à cette entité, problème qu’on ne sait pas résoudre…

Selon vous, selon qu’on choisisse de copier un cerveau humain ou de le comprendre plus théoriquement, les risques ne sont pas les mêmes. En quoi?

Si l’on copie le cerveau humain, on apprendra en gros comment cet organe fonctionne, et on tentera de reproduire son architecture avec ce qu’on appelle des «micropuces neuromorphiques».

C’est la stratégie que poursuit le Human Brain Project, à l’EPFL…

Oui. Ce faisant, on va peut-être mieux décrire la connectivité neuronale, et obtenir une sorte d’«imitation» de cerveau. Mais sans fondamentalement comprendre quelles sont ses règles de fonctionnement, que l’on tente de décrypter avec des approches plus théoriques. Cette démarche neuromorphique, plus pratique et concrète mais moins profonde, contient donc, selon moi, un plus grand danger que le système superintelligent nous échappe.

D’aucuns disent que, de même que l’on ne resterait pas les bras croisés si l’on savait que des extraterrestres arrivaient sur la Terre, il faut commencer maintenant à se préparer sociologiquement. Comment?

Je ne pense pas qu’une préparation sociologique soit nécessaire. En revanche, il faut agir, en suivant deux axes. D’abord se donner du temps pour clairement identifier et étudier les risques, ainsi que les leviers dont nous disposons pour les limiter. Et, pour ce faire – deuxième nécessité –, il faut inciter de plus en plus d’esprits brillants de tous les domaines (physique, maths, économie, philosophie, etc.) à se pencher sur cette question dès aujourd’hui, et plus particulièrement sur les technologies pour résoudre ce «problème du contrôle». Enfin, il faut développer les recherches dans le domaine du renforcement cognitif par la biologie ou la technologie, de manière à renforcer notre intelligence et notre sagesse collective pour faire face à la transition qui nous attend.

Des films comme «Transcendance» servent-ils votre cause? Et le fait que cette problématique a été récemment soulevée dans la presse par d’éminents scientifiques, dont le physicien Stephen Hawking, ne vous aide-t-il pas à trouver des fonds?

Historiquement, c’est vrai que la science-fiction s’était jusque-là accaparé cette thématique, elle l’a même nourrie et maintenue en vie. Heureusement, depuis peu, vu les progrès effectués, les conséquences de l’avènement de l’intelligence artificielle et des interactions homme-machine constituent un champ exploré aussi par des recherches académiques sérieuses. D’autres centres similaires au nôtre se créent, pas loin, à l’Université de Cambridge, ou au MIT de Boston et à Berkeley, en Californie. Toutefois, il y a aussi, avec ce genre de films, une poussée d’enthousiasme due à un effet d’entraînement qui induit nombre d’ingénieurs à penser qu’il serait «cool» de mettre au point une intelligence artificielle. Mais, je vois là l’image d’un enfant jouant béatement avec une bombe… Quant aux Etats, qui devraient être la colonne vertébrale de cette prise de conscience généralisée, même s’ils venaient un jour à envisager de financer davantage ces recherches sur le problème du contrôle, ils mettent aujourd’hui encore bien plus d’argent dans les travaux visant à mettre au point une IA, de peur d’être dépassés par leur voisin…

Votre vision est très pessimiste…

Dans ce débat sur la création d’une IA, il ne faut pas oublier que nous avons encore un avantage crucial: pour l’heure, c’est nous qui pouvons décider de faire le premier pas…

Source : Le Temps

* * *

Le jour où les robots penseront
Olivier Dessibourg, le 22 juillet 2014

Les robots devenus artificiellement beaucoup plus intelligents que l’homme prendront-ils le contrôle? Ce moment de basculement de l’humanité appelé «Singularité» est considéré tantôt comme de la science-fiction, tantôt comme une réalité possible. Dans la Silicon Valley, emblématique des avancées en robotique et en intelligence artificielle, l’idée fait entièrement partie du paysage scientifique, même chez les sceptiques. Grand reportage en Californie et dans des centres de recherche en Suisse

Le jour où les robots penseront

> Cybernétique Les robots, devenus artificiellement beaucoup plus intelligents que l’homme, prendront-ils le contrôle?

> Ce moment de basculement de l’humanité, appelé «Singularité», est considéré tantôt comme de la science-fiction, tantôt comme une réalité possible

> Dans la Silicon Valley, emblématique des avancées en robotique et en intelligence artificielle, l’idée fait entièrement partie du paysage scientifique, même chez les sceptiques

> Reportage en Californie et dans des centres de recherche en Suisse

«En cette fin 2011, comme depuis toujours, nous avons un problème pour imaginer le futur!» Les lumières des spots effleurent le rideau bleu, devant lequel a été installé l’immense téléprompteur: sur une vitre inclinée se reflète l’image télévisuelle d’un homme aux cheveux gominés, la soixantaine, chemise orange et blazer kaki, le tout donnant l’impression qu’il est présent derrière le pupitre qui couvre l’appareil. Dans la salle, 35 personnes écoutent religieusement cet orateur, Ray Kurzweil. «Notre cerveau ne pense intuitivement qu’en termes linéaires, reprend-il. Car nous avons évolué ainsi: lorsque nous chassons ou évitons une voiture, nous estimons de manière ­linéaire l’endroit où se trouvera l’animal ou le véhicule quelques secondes plus tard. Ce mode de réflexion est gravé dans notre cortex.»

Pourtant, selon lui, le progrès se caractérise toujours de façon exponentielle: la courbe qui le décrit démarre doucement, puis décolle et file vers le ciel. Une tendance observée dans tous les domaines: en technologies (des milliards de gens ­possèdent un téléphone portable, contre une poignée il y a dix ans), en biologie (le coût du séquençage de l’ADN baisse presque d’un ordre de grandeur chaque deux ans) et surtout en informatique (selon la loi de Moore, la puissance des ordinateurs double tous les 18 mois).

k L’humanité transformée
Et si ces ordinateurs deviennent de plus en plus performants, ils égaleront puis dépasseront un jour l’intelligence de l’homme. Il se peut alors qu’ils ne servent plus seulement à faire des calculs, mais qu’ils se mettent à réfléchir, à dialoguer, à apprécier l’art, à nourrir une conscience d’eux-mêmes. Ces machines dotées d’intelligence se mettront à se dupliquer, à développer encore leurs capacités «intellectuelles», sans intervention humaine. Peut-être d’ailleurs décideraient-elles de se passer des bipèdes encombrants qui peuplent la planète, les considérant au mieux comme de la matière première. Ou fusionnerons-nous avec elles, afin d’amener à la valeur de 1000 notre quotient intellectuel (celui d’Einstein était de 160) ou de télécharger le contenu de notre cerveau sur des mémoires électroniques pour vivre éternellement, cybernétiquement?

Quoi qu’il en soit, dès que ce temps viendra, dès que ce basculement s’opérera, la transformation que subira l’humanité sera si radicale qu’elle la changera de manière irréversible. «Elle nous permettra de transcender les limitations de notre cerveau et de notre corps», assène le conférencier. Cette transformation a un nom: la Singularité.

Science-fiction? Nouvelle religion apocalyptique ou rêve irresponsable d’une équipe de geeks pour certains. D’autres défendent ce scénario inéluctable avec le plus grand sérieux. Parmi eux, en première ligne, Raymond Kurzweil, l’homme du téléprompteur, qui en a même fait le cœur de son livre Humanité 2.0, la bible du changement (traduit de The Singularity is near, paru en 2005 ). Inventeur surdoué – adolescent, il a remporté en 1965 un concours télévisé avec un morceau de piano composé par un ordinateur – qualifié de «génie frénétique» par le Wall Street Journal, entrepreneur à succès, futurologue écouté jusqu’à la Maison-Blanche, il prédit, lui, l’arrivée de cette singularité pour 2045.

Cette vision n’est pourtant pas la sienne. En 1965 déjà, soit durant la première flambée des idées d’intelligence artificielle allumées notamment par Alan Turing, le statisticien anglais Irving J. Good évoque une «explosion d’intelligence» des machines. Et c’est en 1993 que le mathématicien et auteur de science-fiction Vernor Vinge popularise le terme dans son article The coming technological singularity: how to survive in the post-human era. Il y annonce: «Dans 30 ans, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère humaine prendra fin!»

Le mot «Singularité» lui-même est emprunté au vocabulaire de l’astrophysique. Il se réfère à un horizon de l’espace-temps, par exemple l’intérieur d’un trou noir, au-delà duquel les lois de la physique ne sont plus applicables. De même, la singularité technologique induira des modifications telles sur la civilisation que l’homme ne peut ni les appréhender ni les prévoir.

Qu’on y croie ou pas, cette idée a diffusé jusque dans les esprits les plus dubitatifs de la Silicon Valley, en Californie, où elle a désormais imbibé le tissu intellectuel dans lequel ont été façonnées les avancées les plus fascinantes en informatique et en intelligence artificielle.

k A l’école de la futurologie
Le concept est même devenu vendeur. En 2009, Ray Kurzweil a fondé, avec l’entrepreneur Peter Diamandis, la Singularity University, avec le soutien de Google et de l’Agence spatiale américaine. C’est sur un des campus de celle-ci, le NASA AMES Research Park à Moffet Field, près de San Francisco, qu’affluent des entrepreneurs, investisseurs et autres chefs d’entreprise, pour participer à des séminaires de plusieurs jours, inédits et à prix d’or (jusqu’à 25 000 dollars).

Dans les édifices à l’influence hispanique, entourés par des palmiers et des parcelles de gazon tondu aux ciseaux, l’atmosphère est décontractée, mais studieuse. «L’objectif, dit Peter Diamandis, est de présenter aux participants de quelle manière cette idée de croissance exponentielle des technologies, que Ray Kurzweil appelle la «loi du retour accéléré», va révolutionner l’économie dans les décennies à venir. Et cela dans des domaines émergents aussi variés que les nanotechnologies, la biomédecine, la biologie de synthèse, et bien sûr la robotique intelligente.» De la Singularité elle-même, il sera peu fait mention explicitement, les intervenants basant leur exposé surtout sur les technologies existantes ou en voie de développement. L’occasion aussi de faire le point, sur le terrain, entre la réalité, le futur proche, et les assertions plus fantasmagoriques, à l’aune des nombreuses avancées réalisées en 2011.

k Partout autour de nous
«L’intelligence artificielle est déjà partout autour de nous», résume Neil Jacobstein, responsable de ce domaine à la Singularity University. Des exemples de ses formes primitives, il est vrai, ne manquent pas. Des systèmes boursiers aux logiciels qui commandent les feux de circulation, des algorithmes gèrent en coulisses nombre de dispositifs de notre vie courante. Sur le champ de bataille, en Afghanistan, plus de 2000 robots combattent aux côtés des soldats. A domicile, de plus en plus d’appareils électroménagers, équipés de micropuces, enregistrent les préférences des utilisateurs. Beaucoup étant connectés au réseau Wi-Fi, ils peuvent être commandés à distance, formant l’«Internet des objets». Dans la Silicon Valley, il se murmure que Google a ouvert il y a peu un laboratoire secret, baptisé GoogleX, pour creuser cette idée. Interrogé à ce sujet, Sebastian Thrun, un de ses responsables, s’est braqué avant de s’en aller.

Ce scientifique allemand, aussi responsable du laboratoire d’intelligence artificielle (IA) à l’Université Stanford, est considéré comme un des cinq meilleurs experts au monde, pour avoir développé la GoogleCar, une voiture remplie de capteurs, qui roule sans conducteur à San Francisco – même sur la célèbre rue en serpentin de Lombard Street. Elle a déjà effectué plus de 320 000 km sans causer d’accident. Preuve que les systèmes d’intelligence artificielle ne se cantonnent plus aux ordinateurs, mais équipent des machines qui entrent en interaction avec les humains. Voire les remplacent: une équipe de l’Université galloise Aberystwyth a mis au point un «robot scientifique», capable d’émettre une hypothèse de recherche, de la vérifier expérimentalement, et d’en tirer des conclusions (lire les encadrés).

«Cette capacité d’interaction des robots va prendre une dimension énorme dans nos sociétés vieillissantes, estime Dan Barry, ancien astronaute de la NASA qui s’est reconverti dans la robotique. D’autant que certains parviennent à simuler des émotions, de l’empathie…» Et lorsqu’on parle d’interactions, poursuit Neil Jacobstein, «comment ne pas évoquer les systèmes reconnaissant les voix humaines, aptes à répondre à des questions, comme Siri, l’«assistant virtuel» du téléphone iPhone 4S». Ou Watson.

En février 2011, c e superordinateur créé par la société IBM a battu les champions humains de Jeopardy!, un jeu de questions-réponses . Equipé de 2500 microprocesseurs œuvrant en parallèle, chacun capable d’effectuer 33 milliards d’opérations par seconde, il consomme une puissance de 85 000 watts, soit de quoi alimenter un village – contre 20 pour le cerveau humain, ce qu’il faut pour allumer une ampoule . «Or il répondait plus rapidement que les deux candidats, après avoir décrypté la question lue à haute voie par le présentateur, puis trouvé des éléments de réponses dans sa base de données », dit Joe Jasinski, ingénieur au T.J. Watson ­Research Center d’IBM, de passage à Zurich. L’objectif est maintenant de développer un système similaire, qui pourrait aider les médecins à ­poser un diagnostic, en répondant à leurs questions.

D’aucuns n’hésitent pas à dire que tous ces objets ne sont en rien la concrétisation d’une intelligence au sens où l’homme l’entend; ces automates ne feraient que mener à bien les tâches spécifiques pour lesquels ils ont été programmés. «L’argument est un peu court, rétorque Ray Kurzweil. Dès 1990, on disait qu’on aurait réalisé un système d’IA lorsque celui-ci serait capable de battre un humain aux échecs. Cet exploit a été réalisé en 1997 par l’ordinateur Deep Blue d’IBM. L’objectif ultime était ensuite de vaincre à un jeu de culture générale.» L’étape vient d’être franchie par Watson…

De même, «si vous aviez dit à quelqu’un en 1978 qu’il disposerait bientôt d’une machine lui fournissant tout le savoir du monde sur un sujet en tapant quelques mots, il l’aurait considéré comme dotée d’une intelligence artificielle», souligne le cofondateur de Google Larry Page dans la revue Wired .

Comme probablement Google, Watson, loin de fonctionner avec un simple logiciel puisant dans des données gravées dans sa mémoire électronique, «repose sur un condensé d’une centaine de techniques d’IA, dont des algorithmes sophistiqués qui accordent des probabilités de pertinence aux réponses avancées», dit Joe Jasinski. «Watson est une machine très sophistiquée, mais qui ne sait pas jouer à un autre jeu», analyse, lui, Noah Goodman.

Ce psychologue de l’Université Stanford n’est qu’un des nombreux scientifiques estimant que l’on est encore loin de développer des entités très flexibles dans leurs tâches. Et qui soient surtout dotées de qualités – encore mal définies concrètement – que l’on dit propres à l’homme, comme le libre arbitre, la conscience de soi, la capacité d’abstraction, ou celle d’apprendre par généralisation à partir d’un cas unique. Une pique qu’admet Neil Jacobstein, avant de relancer: «A l’aune de l’évolution humaine, qui a pris des milliers d’années, ce saut d’évolution là est proche; il aura lieu au plus dans quelques décennies. En voyant Watson, il n’est pas déraisonnable de penser que nous aurons bientôt des machines extraordinairement intelligentes.»

«Le problème, c’est qu’on ne sait pas comment leur inculquer ce sens du raisonnement conceptuel abstrait dont dispose l’homme», résume Nick Bostrom. Ce philosophe n’est de loin pas un sceptique du domaine, puisqu’il dirige le Future of Humanity Institute à l’Université d’Oxford. Selon lui, pour espérer franchir ce pas, des percées doivent être réalisées dans un ou plusieurs des domaines suivants: la reconstruction électronique d’un cerveau, la simulation de son fonctionnement sur ordinateur, ou le développement d’algorithmes de «pensée informatique» inédits. Dans ces trois champs, les travaux avancent.

k Citadelle de l’informatique
San Jose, métropole étalée au fond de la baie de San Francisco. Dans les collines, IBM a construit son centre de recherche d’Almaden. Une citadelle où l’on pénètre après avoir montré patte blanche au vigile. «Nous sommes au milieu des prairies sèches, on voit des rennes, on entend des crotales», glisse le porte-parole Ari Entin, en nous guidant dans les couloirs de béton. C’est là que travaille Dharmendra Modha, l’un des scientifiques les plus médiatisés ces derniers mois. Fin août, son équipe a reconstruit une bribe de cerveau. Ou du moins son équivalent en silicium: «Nous avons fabriqué une pièce essentielle d’une architecture neuromorphique modulaire.» Traduction?

Les ordinateurs sont aujour­d’hui construits selon l’organigramme suivant: des éléments stockent l’information (les transistors), d’autres les traitent (les microprocesseurs), et entre ces entités, des circuits (le «bus») font circuler les données. Ce mode de fonctionnement, dit de «von Neumann» du nom du pionnier de l’informatique, est très énergivore – comme l’a encore montré l’exemple de Watson – et peu efficace du fait du trafic qu’il génère.

A l’inverse, le cerveau, lui, utilise une architecture décentralisée: les neurones servent à la fois de vecteurs et de réceptacles d’informations, au travers des connexions entre eux (synapses), siège supposé de la mémoire. «Tous les neurones travaillent en parallèle, ce qui rend ce type d’architecture plus efficiente, et qui explique aussi la plasticité du cerveau», résume Ton Engbersen, collègue du Dr Modha au centre de recherche d’IBM à Rüschlikon (ZH). C’est justement ce qu’ont pu reproduire les chercheurs américains.

Un des prototypes de micropuce en silicium contient 256 «nœuds électroniques» fonctionnant en parallèle et de manière distribuée, les neurones, et ils sont connectés à 65 536 modules de mémoire synaptique. L’ensemble consomme moins d’énergie. Un résultat impressionnant, mais qui reste bien en deçà des 100 milliards de neurones que compte le cerveau humain… Néanmoins, un ordinateur utilisant cette micropuce a pu apprendre à jouer à Pong, un jeu de tennis virtuel primitif. Reste à prouver que des milliers de ces entités peuvent être assemblées pour fonctionner efficacement ensemble.

Ce projet, nommé SyNAPSE, peut-être le plus avancé du genre, est soutenu à hauteur de 41 millions de dollars par la Darpa, l’agence militaire américaine de recherches. Les savants d’IBM admettent qu’ils sont encore loin de «reconstruire» un cerveau, tant son fonctionnement est mal connu, mais se disent contents d’avoir ouvert la porte sur une architecture informatique totalement inédite, loin du modèle «von Neumann».

k Simuler le cerveau
La deuxième voie évoquée par Nick Bostrom pour comprendre le cerveau est celle de sa simulation. C’est l’objectif que poursuit, entre autres, l’équipe du Blue Brain Project à l’EPF de Lausanne (lire en page 6). Cette démarche a commencé par l’étude aussi détaillée que possible du «connectome», l’ensemble des connexions de cette fantastique «boîte noire» cérébrale. Depuis peu, les techniques d’imagerie médicale, dont la résonance magnétique fonctionnelle (IRMf) ou la microscopie électronique, ont fait d’énormes progrès. A tel point que des chercheurs de l’Université Texas A&M ont pu cartographier le réseau de neurones du cerveau avec une précision de 160 milliardièmes de mètre (nanomètres).

Dès les années 1970 a été établi le connectome d’un organisme vivant, C. elegans , poursuit Nick Bostrom. Ce ver possède 302 neurones, connectés par 9000 synapses. «Malgré cela, nous restons aujourd’hui incapables de simuler sur un ordinateur le fonctionnement de son réseau de neurones, car nous savons encore très mal reproduire les différents types de signaux qui le font osciller», électriques ou chimiques, locaux ou plus globaux. Ce qui fait craindre au chercheur qu’une simulation complète du cerveau humain ne reste lointaine, même si des avancées ont été réalisées. Telle la reproduction du connectome général du macaque, toujours par l’équipe d’IBM, qui a esquissé 6602 «autoroutes d’informations» entre 383 régions du cerveau de ce singe.

La plupart des spécialistes sont ainsi d’accord sur un point: comme un ordinateur ne fonctionne pas sans logiciel, il ne sert pas à grand-chose d’imaginer reproduire artificiellement l’architecture d’un cerveau humain sans tenter de comprendre le «code neural» qui le fait évoluer, à savoir le programme, le paquet de règles et d’«algorithmes biologiques», qui commandent aux neurones et transforment leurs interactions en perceptions, en souvenirs furtifs ou permanents, en significations, en intentions, etc. «Et là, il est difficile d’affirmer que les recherches avancent de manière exponentielle, comme le prétend Ray Kurzweil», assène Paul Allen, cofondateur de Microsoft, dans un article paru dans la Technology Review .

k Apprendre le langage
Noah Goodman aborde justement ce problème par la troisième lorgnette avancée par Nick Bostrom, celle d’une approche purement théorique, mathématique. Sur le paisible campus de l’Université Stanford, il nous reçoit dans son bureau sous les toits d’un bâtiment de pierre ocre, où le vent fait claquer les persiennes. Du sol au plafond, l’un des murs blancs est couvert de formules, symboles, schémas. Le psychologue, chevelure bouclée noire et humide tombant sur un col chinois, est un des fers de lance d’une classe de scientifiques qui développent des langages d’apprentissage probabilistes. Des codes qui pourraient permettre aux machines de développer une forme supérieure d’intelligence, en suivant des règles qui donnent du sens aux informations.

Un exemple, classique? «Si l’on a les deux données suivantes: «un oiseau peut voler» et «une autruche est un oiseau», un simple ordinateur va conclure qu’une autruche peut voler. Mais si son logiciel peut acquérir davantage d’informations sur les autruches, et découvrir leur poids, il va accorder une probabilité plus faible à l’info selon laquelle «une autruche peut voler». Au final, toutes les probabilités attribuées à diverses informations similaires – ici la capacité de différents oiseaux à voler – représentent toutes les distinctions conceptuelles que les premiers chercheurs en intelligence artificielle devaient coder à la main dans leur programme. Là, le système apprend par lui-même, un peu comme l’homme emmagasine des concepts mais les révise au fil de sa vie. Avec les mêmes informations de base, deux programmes probabilistes peuvent livrer des résultats différents.»

La réflexion probabiliste est donc un élément essentiel dans l’écriture des codes de base des systèmes d’IA du futur, mais pas le seul. Noah Goodman y adjoint d’une part ce qu’il nomme en anglais compositionality: «La pensée humaine est productive. Nous pouvons imaginer des quantités de choses auxquelles nous n’avions pas pensé avant. Et même comprendre des idées qui n’ont vraiment aucun sens. Cela s’explique par la syntaxe de notre langage, qui permet de faire des phrases qui ont du sens avec des mots qui ont différents sens.» Et Neil Jacobstein d’abonder: «Si je vous dis que «telle équipe de football a écrasé telle autre», l’homme comprend qu’il s’agit d’une large victoire à un jeu. La machine, elle, y verra probablement une destruction physique. Car pour l’heure, ces logiciels ont encore du mal à comprendre les concepts généraux qui lient des éléments a priori disparates. Toutefois, on fait de plus en plus de progrès dans ce domaine.» Pour preuve, à nouveau, Watson, qui a «réfléchi» avec ce genre d’algorithmes: le superordinateur a répondu à nombre de questions correctement, mais s’est aussi bêtement trompé sur d’autres, montrant ainsi ses limites.

A la Carnegie Mellon University de Pittsburgh (Etats-Unis), des chercheurs ont créé NELL (pour Never Ending Learning Language). Il s’agit d’un ordinateur qui, depuis fin 2010, lit Internet et apprend automatiquement des faits en les inférant à partir de mots qu’il repère dans diverses pages, puis en les classant par catégories. Par exemple: «San Francisco est une ville» ou «les tournesols sont des plantes». En janvier 2012, il devrait atteindre le million de tels faits inscrits dans sa mémoire, avisent ses concepteurs.

«C’est une initiative très intéressante, juge Noah Goodman. Mais cela ne suffit pas. L’homme apprend aussi grâce aux contacts sensoriels avec son environnement. C’est à mon avis indispensable.» Mais là aussi, d’immenses progrès sont réalisés avec des robots qui, justement, parviennent à apprendre à travers leur sens, l’ouïe et la vue artificielle bien sûr, mais aussi l’odorat voire surtout le toucher (lire ci-dessus).

La troisième composante indispensable, pour Noah Goodman, est la «générativité»: «Ce facteur décrit la manière d’appréhender une masse d’informations. Une machine fonctionne par discrimination, en inférant un output à partir d’un input. L’homme, lui, organise son savoir par paquets, par distributions. Cette connaissance permet de générer des données pertinentes sans qu’il y ait forcément inférence entre deux informations. Observez à quel point les enfants apprennent des généralités à partir d’exemples isolés!»

Le psychologue en est convaincu: on touchera au but de l’intelligence artificielle dite «générale» lorsqu’on parviendra à fondre ces trois concepts – probabilités, compositionalité et générativité – dans un programme guidant une machine. «Quand y arrivera-t-on? Dans une trentaine d’années. Pour l’heure, c’est difficile. Peu de gens s’y attellent, et les savoirs nécessaires pour avancer proviennent de divers domaines des sciences, difficiles à maîtriser par une seule personne.»

k Emergence d’intelligence
D’autres vont plus loin, dans la même veine. Ils estiment que regrouper dans une seule machine, par exemple dotée des nouvelles micropuces d’IBM, toutes les capacités développées unilatéralement pour les robots (reconnaissance faciale, vocale, déplacements, etc.), et lier le tout avec un langage d’apprentissage probabiliste permettra de faire émerger – à l’image de Frankenstein sur sa table de laboratoire – une certaine conscience, ou pour le moins la superintelligence tant attendue. «Si vous atteignez un certain niveau de complexité, alors apparaît la conscience», assure Ray Kurzweil dans son livre. C’est la stratégie que suit le consortium virtuel OpenCog qui, à travers Internet, a pour but de créer un kit de composants logiciels gratuits d’utilisation, destinés à donner naissance à une telle intelligence artificielle.

«L’idée de l’émergence spontanée est un scénario. Mais pour l’heure seulement un scénario par défaut, tant que personne n’a établi une théorie générale de l’intelligence», commente Michael Anissimov, jeune trentenaire et l’un des responsables du Singularity Institute. Cette institution, cofondée par Ray Kurzweil, regroupe des penseurs en intelligence artificielle étudiant les conditions qui définiront l’avènement des machines plus intelligentes que l’homme, la Singularité donc; ils se réunissent chaque automne lors d’un sommet pour faire le point, dans une suite de shows mêlant réalité scientifique et futurisme décidé. Dans son récent plan stratégique, cet institut s’est donné pour objectif d’«assurer que la Singularité aura des retours positifs et bénéfiques pour la société».

Le Singularity Institute possède des bureaux au centre-ville de San Francisco, mais ses membres passent beaucoup de temps dans une banale maison en bois des faubourgs de Berkeley, de l’autre côté de la baie, non loin de la fameuse université, au cœur d’un quartier résidentiel typique des Etats-Unis. Semblant sortir du lit, Michael Anissimov nous accueille à l’heure du rendez-vous, en fin d’après-midi, en short bleu, T-shirt blanc et sandalettes en plastique. Dans le logis, un bazar digne d’une colocation estudiantine. Sur les étagères, une collection d’ouvrages sur l’IA, les statistiques, les théories de la décision, enserrant la bible de Ray Kurzweil. Avec une tasse de café délavé à la main, son esprit, pourtant, s’avère brillant.

k Symbiose «bio» et «silico»
«A mon avis, cette superintelligence ne naîtra pas spontanément dans une machine. Elle sera plutôt générée par un cerveau augmenté», lance Michael Anissimov. Car un des domaines d’étude de son institut est aussi celui de la symbiose entre le «bio» et le «silico», entre du matériel cérébral et des composants électroniques (lire ci-contre).

Moult expériences permettent déjà de lire les zones qui s’allument dans le cortex et d’exploiter ces données, pour guider un véhicule. Les neuroscientifiques parviennent aussi à soigner des affections neurologiques en glissant des électrodes dans le cerveau. Mais la majorité reconnaissent qu’on est encore très loin de pouvoir télécharger sa mémoire sur des micropuces.

«Cela poserait d’ailleurs des questions intéressantes, ironisait David Chalmers, philosophe à l’Université d’Arizona, lors du Singularity Summit. Car si l’on imagine que je puisse remplacer chacun de mes neurones, l’un après l’autre, par une puce, au final, ma conscience se serait-elle aussi déplacée dans ce lot de circuits électroniques?»

Michael Anissimov, lui, mise sur une autre technique récente: l’optogénétique. Elle permet de commander le cerveau avec de la lumière, à travers une fibre optique, après avoir génétiquement modifié les neurones pour les rendre photosensibles. L’optogénétique a fourni des preuves époustouflantes de son fonctionnement sur des souris (LT du 25.01.2011). «On peut imaginer que cette technique serve d’interface entre le cerveau humain et un ordinateur, et permette au premier de recourir à la phénoménale puissance de calcul du second pour résoudre des problèmes trop complexes sinon», explique le visionnaire.

L’amplification artificielle de l’intelligence humaine comme étincelle à la création d’une superintelligence robotisée: c’est aussi l’un des scénarios envisagés par Vernor Vinge, le «père» de la Singularité. Le mathématicien de l’Université de San Diego relève, au téléphone: «Il y a un paradoxe: on sentira peut-être poindre l’avènement de cette intelligence supérieure. Mais saura-t-on seulement si et quand elle se sera développée? Car une fois ce seuil franchi, il y aura des choses que nous ne pourrons plus comprendre. De même, on peut expliquer le fonctionnement d’une TV à un humain, pas à un chien…»

k Superintelligence
L’événement, pas anodin, pourrait entraîner une cascade de conséquences, prédisent certains: «Une fois qu’une machine aura atteint le niveau d’intelligence de l’homme, il y a de fortes chances qu’elle développe une forme d’intelligence beaucoup plus pertinente encore, dit Nick Bostrom, le philosophe d’Oxford. Et cela en quelques heures, au plus en quelques jours.»

Noah Goodman est loin d’adhérer à cette idée: «Cela fait des décennies que des gens essaient de créer quelque chose de plus intelligent qu’eux, sans y parvenir. Dès lors, pourquoi une entité aussi futée que l’homme en générerait-elle automatiquement une autre, plus intelligente encore? L’affirmer est avant tout une question de foi.»

On touche là au cœur du débat entre ceux que guide un réalisme forgé au bon sens (d’aujourd’hui?) et les «singularitariens», comme les adeptes de la théorie de la Singularité aiment parfois à s’appeler. «Les machines vont peut-être développer des formes d’intelligence qui leur seront propres. De même, une fois que les frères Wright eurent compris les lois principales de l’aérodynamique, il n’y a pas eu besoin de recréer le battement d’ailes d’un pigeon pour faire voler un avion», rétorque Michael Anissimov.

Devant ces perspectives vertigineuses d’un futur mécanisé, rien de tel que de se pencher sur le passé pour évaluer ce que l’avenir figuré jadis est devenu aujourd’hui. C’est exactement ce que fait Yoav Shoham, un des professeurs d’intelligence artificielle de l’Université Stanford. Pour trouver son bureau, il faut traverser un hall où s’ébattent des dizaines d’appareils, dont le célèbre petit androïde japonais Asimo, ou PR2, l’un des robots autonomes les plus perfectionnés au monde, fabriqué par l’équipe de Willow Garage, l’une de ces start-up qui éclosent comme des pâquerettes dans la Silicon Valley.

«L’histoire nous montre que, oui, nous construisons des machines de plus en plus perfectionnées, dit-il. Celles-ci peuvent faire des dégâts si elles sont utilisées à mauvais escient. De manière générale, toutes ces technologies auront un impact énorme sur notre société, à la manière du téléphone portable. Mais strictement rien, à ce stade, ne pointe vers une ère où les machines «prendront le contrôle», comme on l’entend parfois.» Son chef à Stanford, Sebastian Thrun, abonde: «Tous ces outils dotés d’intelligence artificielle vont surtout nous rendre plus puissants, plus efficaces.» Et conduire à la suppression de milliers d’emplois, vite remplacés par des robots? «Souvenez-vous de l’arrivée de la mécanisation dans l’agriculture, ou de la révolution industrielle… L’humanité n’a pas perdu au change. Et cette tendance va continuer, il faut rester optimiste. L’humain ne sera jamais obsolète.»

Le problème, rétorque-t-on, c’est justement que les machines ne pensent pas comme les humains, mais de manière – disons – plus obtuse. «Les machines sont programmées pour effectuer des tâches ciblées, explique Nick Bostrom. Imaginons qu’une tâche soit de fabriquer… des agrafes. On peut déduire que le robot va considérer que tous les objets de son entourage, y compris l’homme, constituent potentiellement de la matière brute pour fabriquer ses agrafes. Rien n’empêche alors de penser qu’un tel automate, extrêmement intelligent, développe toutes les stratégies pour atteindre l’objectif qu’on lui a fixé. Autrement dit qu’il ait peu de considération pour l’homme…»

Michael Anissimov, lui, fait appel à des références cinématographiques: «Dans 2001, l’Odyssée de l’espace , l’ordinateur HAL n’avait pas pour intention de se débarrasser des occupants du vaisseau spatial, comme on le dit souvent. HAL était programmé pour que la mission soit remplie de succès. Et il a conclu que cet objectif serait mieux atteint s’il se passait de l’homme…»

k Pouvoir tirer la prise
Parmi ceux qui cogitent sur ces questions, les plus impertinents imaginent même comment ces robots acquerraient une capacité de se dupliquer. Ray Kurzweil, toujours dans son téléprompteur: «Le marché des imprimantes en trois dimensions (3D) est en plein essor. Bientôt, il sera possible à chacun de commander le plan d’un objet sur Internet, et de l’imprimer en 3D dans son salon. Aujourd’hui, ces imprimantes en 3D sont capables de reproduire 70% des pièces qui les composent, dans différentes matières. On peut donc imaginer que des machines superintelligentes détournent cette faculté à leur profit.»

Nick Bostrom se veut plus fin: «Il n’est pas exclu qu’une superintelligence, dépourvue de mobilité ou d’un organe préhensile, parvienne subtilement à convaincre un être humain, ou un autre robot, d’agir à sa place, contre due récompense…»

Au Singularity Institute, on se targue de se soucier de cette question de la plus haute importance: «Il faut réfléchir aujourd’hui déjà à se prémunir contre le fait que des machines intelligentes tournent mal», souligne Michael Anissimov. Neil Jacobstein: «Si nous développons de tels robots, il faudra qu’on leur inculque le «respect de la vie» sous toutes ses formes – comme le souhaitait le philosophe Albert Schweitzer – et donc de notre civilisation.» Même Ton Engbersen, à IBM Rüschlikon, estime qu’il faut inclure dans les ordinateurs qui seront équipés de l’architecture neuromorphique «un module de police», pour les empêcher de prendre trop de libertés. «Mais nous ne savons pas encore comment faire.»

Une autre solution ne serait-elle pas, plus candidement, de s’assurer de pouvoir «tirer la prise»? «Croyez bien que si l’homme postule cette éventualité, une superintelligence y aura pensé aussi, et que l’une des premières choses qu’elle fera sera d’élaborer une stratégie pour y ­pallier», répond Nick Bostrom.

«Qui plus est, on ne peut déjà plus tirer la prise, avise Frédéric Kaplan, ingénieur de l’EPF de Lausanne, sans catastrophisme, puisqu’il ne croit pas à l’éclosion de machines toutes-puissantes. Les virus informatiques qui se propagent sur le Web ne peuvent plus être éradiqués; il faudrait éteindre voire détruire l’entier du parc informatique mondial. Cela montre à quel point nous sommes déjà interdépendants des systèmes artificiels plus ou moins intelligents qui nous entourent.»

A l’EPFL, ce chercheur s’est beaucoup intéressé à la question sous l’angle sociologique. Il est même arrivé à la conclusion que les humains sont les «organes sexuels des machines»: «Les hommes fabriquent en grande quantité des objets mécaniques ou électroniques qui leur sont utiles, mais abandonnent vite ceux qui montrent leurs limites.» Comme si les lois de la sélection naturelle s’appliquaient aussi au monde de la cybernétique.

k Irresponsables prophéties
Tout en trouvant l’idée réductionniste, et en pourfendant les «visions catastrophistes irresponsables» des singularitariens, Yoav Shoham estime aussi que réfléchir aux liens évidents ou plus inavoués qui unissent l’homme et la machine peut être utile: «Cela va nous en apprendre beaucoup sur nous-mêmes, nos valeurs, et sur les traits qui seraient propres à l’homme, comme la conscience, le libre arbitre, etc. Ce que je veux montrer à mes étudiants, c’est qu’on peut être plus charitable avec les machines.»

Prenez l’idée de «souffrance», poursuit-il. «Selon notre échelle, on s’accorde pour dire qu’un homme ou un chien souffre. Mais plus on remonte le fil de la complexité des êtres vivants, plus notre jugement se floute: dira-t-on qu’une amibe souffre? De même, personne n’avancera qu’un thermostat «intelligent», qui enregistre vos préférences, est conscient. Votre ordinateur, probablement pas non plus. Concernant Watson maintenant: en est-on si certain? On dit souvent que ce genre de machine n’est qu’une simulation de la réalité. Or parfois, ce qui semble être un modèle EST la réalité. Car, crûment dit, notre cerveau n’est aussi qu’un «instrument» qui traite diverses informations.»

Réalité et science-fiction, où poser la frontière? «La science-fiction a longtemps été l’un des seuls champs dans lequel des idées sur la convergence entre les intelligences humaine et artificielle ont pu être largement explorées, dit Nick Bostrom. Récemment, des chercheurs académiques, comme nous, y ont accordé leur attention avec sérieux. Cette révolution numérique et l’avènement d’une intelligence artificielle générale, qui surviendront avec certitude, seront plus importants que les révolutions agricole et industrielle. Se poser sérieusement la question des risques et des bénéfices pour l’humanité est crucial. Plus on le fait tôt, plus on aura de temps pour permettre à l’homme d’y réfléchir et de se préparer.»

Source : Le Temps

Aucun commentaire:

Enregistrer un commentaire

Related Posts Plugin for WordPress, Blogger...