dimanche 13 octobre 2013

L'Homme sera-t-il victime de sa création ?


Alors que l'humanité doit aujourd'hui faire face à des menaces bien réelles (changement climatique, désarmement nucléaire, armes chimiques, biotechnologie, nanotechnologie, pour n'en citer que quelques unes), une poignée de scientifiques pense que le danger que représente l'émergence d'une Intelligence Artificielle les dépasse toutes.

Longtemps confinée à la science fiction et à un cercle d'initiés, cette émergence vient d'être vulgarisée dans l'ouvrage de JAMES BARRAT, OUR FINAL INVENTION, paru le 1er octobre dernier chez Thomas Dunne Books. Son propos est limpide : l'intelligence est ce qui sépare l'Homme des autres espèces (ça et notre pouce :D). Mais cette hégémonie est aujourd'hui battue en brèche par nos propres créatures. Ces "superintelligences" que nous mettons au point pourrait bien devenir une véritable menace. Et cela dépend entièrement de nous....

Comme dans les pires romans d'anticipation fantastiques, l'Homme pourrait s'éteindre tout simplement parce qu'il a relâché sa vigilance, tout absorbé qu'il est par la course aux FLOPS [FLoating point Operations Per Second]. Car un superordinateur fait exactement ce qu'on lui demande de faire et c'est nous qui l'avons programmé pour le faire ! Nous aspirons au bonheur ? Il va nous barder d'électrodes et stimuler les zones de notre cerveau liées au plaisir. Nous lui demandons de gagner une partie d'échec ? Le monde entier pourrait devenir son plateau de jeu.... En un mot, mieux vaut faire attention à ce qu'on souhaite réaliser, car cela pourrait bien se concrétiser, qu'on le veuille ou non !

Il existe deux types d'I.A.. L'Intelligence Artificielle Faible (Narrow A.I.) qui agit comme si elle était intelligente. C'est ce dont nous faisons l'expérience au quotidien avec les moteurs de recherche sur Internet, par exemple. Si le système crashe, il n'endommage que le programme lui-même sans conséquence réelle pour son utilisateur si ce n'est un désagrément passager. En revanche, si une Intelligence Artificielle Forte (Strong A.I.) plante, elle remet en question tout ce qui n'est pas garanti par la preuve mathématique ou quelques lignes de code qui l'empêcheraient de balayer nos valeurs. Elle continue à fonctionner de façon optimale, de façon surhumaine, sans se soucier de notre système de pensée. Elle n'aura aucun état d'âme et détruira ce que nous avons construit par souci d'efficacité. Elle sera capable de s'améliorer et de se doter de capacités qui nous rendront impuissants à répondre à ses actions de façon rapide et adéquate. Pire encore, sa construction la pousse à dépasser les limites de la puissance qu'on lui alloue pour poursuivre un but connu d'elle seule.

Le superordinateur Cray Titan du Oak Ridge National Laboratory

OUR FINAL INVENTION explique bien mieux que moi et de manière accessible ce qu'est l'I.A. mais c'est surtout un contrepoint bienvenu au très optimiste HUMANITÉ 2.0 (The Singularity is Near) de RAYMOND KURZWEIL qui exposait la vision d'un monde où humanité et technologie s'interpénètreraient et feraient reculer les limites de l'intelligence. Il encourage à la prudence car l'intelligence artificielle est pour demain même si elle ne fait pas (encore) les gros titres dans les journaux. Mais dans les années 70, qui, mis à part quelques excentriques, parlaient déjà de réchauffement climatique ?

La 2e Loi de MOORE (l'un des fondateurs d'INTEL) se base sur le postulat que la puissance de calcul double tous les 2 ans. Plus de puissance = plus d' "intelligence" ? En tout cas, un pas (rapide) de plus vers l'émergence d'une Intelligence Artificielle. Car si les changements climatiques sont quasiment imperceptibles à l'échelle humaine, ce n'est pas le cas en informatique. D'ici 10 ans, le monde tel que nous le connaissons pourrait changer drastiquement et nous pourrions être confrontés à un événement de portée majeure. Or, les scientifiques se déchirent toujours sur le sujet. Alors qui croire ? Les éternels optimistes ou les oiseaux de mauvais augure ?

Qu'il existe un risque, même infime, devrait nous inciter à la prudence et nous obliger à y réfléchir, --vite. La probabilité d'une catastrophe existe, nous ne sommes pas dans le cas de figure où la Terre rencontrerait un astéroïde [une chance sur 74.817.414 !] et pourtant des milliards de dollars sont injectés dans l'observation du ciel. Pour l'heure, personne ne semble s'en préoccuper.

Existe-t-il une solution préventive, peut-on mettre au point des I.A. sûres ? Une gageure technologique et philosophique. Mais ne pas s'en préoccuper est plus simple. Des raisons à la fois économiques et militaires encouragent à ne pas se soucier de mettre en place des garde-fous. Au lieu de laisser la Bourse tenir les manettes, on pourrait justement utiliser cette puissance informatique à la résolution de problèmes cruciaux comme le climat. Après tout, ce n'est dans l'intérêt de personne de précipiter l'extinction de l'Homme.

Quand on en sera au stade des campagnes anti-I.A., ce sera déjà trop tard... I, ROBOT, c'est cool au cinéma,  moins quand on va acheter le pain. Et de toute façon, ce n'est pas une vision réaliste du problème. Les Intelligences Artificielles seraient bien trop futées pour nous laisser une seule chance, si mince soit-elle. Il faut s'en préoccuper aujourd'hui, avant qu'il ne soit trop tard. Et pendant ce temps, la course aux superordinateurs continue :
  • 2011 Fujitsu K computer 10.51 PFLOPS RIKEN, Kobe, Japan 
  • 2012 IBM Sequoia 16.32 PFLOPS Lawrence Livermore National Laboratory, California, USA
  • 2012 Cray Titan 17.59 PFLOPS Oak Ridge National Laboratory, Tennessee, USA 
  • 2013 NUDT Tianhe-2 33.86 PFLOPS Guangzhou, China 
Au final, la balle est dans le camp des décideurs, de ceux qui dessinent ces superordinateurs, de ceux qui les financent et tous ceux qui ont une influence quelconque. Le livre de BARRAT humanise le propos et explique clairement ce qui sera ou ne sera pas un problème pour l'humanité. En tout cas, pour qui a un cerveau entre les deux oreilles, c'est à lire !


SOURCE  :  Scientificamerican, Alexander Kruel, Ben Goertzel, James Barrat, Singularity Weblog,

Aucun commentaire:

Enregistrer un commentaire