La communauté scientifique s'accorde à dire qu'émergera dans les années voire dans les mois à venir la première véritable intelligence artificielle. Face à quelqu'un de plus intelligent, de plus rapide et de bien plus puissant que l'Homme, comment se préparer à cette transition ?
En dépit des œuvres de science fiction qui décrivent, dans leur grande majorité, des I.A. qui détruisent l'humanité ou la réduise en esclavage, comme par exemple 2001, l'Odyssée de l'espace ou DUNE de FRANK HERBERT, les scientifiques ne se sont pas jusqu'à aujourd'hui préoccupés de créer des entités "amies".
Un problème qu'avait pourtant soulevé I.J GOOD (qui travaillait avec le chantre du transhumanisme ALAN TURING) dès 1965.
Laissons une machine ultra-intelligente, mais qu'on définit quand même comme étant une machine, dépasser les facultés de n'importe quel homme, le plus intelligent soit-il. Puisqu'on crée ces machines pour qu'elles occupent le terrain de l'intelligence, une machine ultra-intelligente voudra créer d'autres machines encore plus performantes. Sans aucune doute, on assistera à une "explosion de l'intelligence" qui laissera l'humanité loin derrière. En conséquence, cette machine sera la dernière que l'Homme aura besoin de fabriquer.Un problème auquel s'est attelé le Machine Intelligence Research Institute de Berkeley depuis 2011. Car cette machine n'a rien de magique, elle n'est que le résultat d'algorithmes cognitifs. Or, si le développement de ces I.A. occupe des milliers de scientifiques dans le monde et bénéficie des fonds quasiment inépuisables, seule une poignée de chercheurs sans ressources ont compris que cette "explosion de l'intelligence", un événement plus déterminant que la maîtrise du feu ou l'invention de la roue ou de l'imprimerie, probablement l'événement le plus important qui aura jamais marqué l'humanité, doit être maîtrisé.
Comment maîtriser le comportement d'une machine dont l'intelligence vous dépasse ? Plus important encore, pouvons-nous nous permettre le luxe de travailler pendant les cinquante ans à venir à la création d'une machine qui n'aurait plus besoin de l'Homme au risque qu'elle le considère comme un vecteur de destruction devant être éliminé ? Or, nous n'avons plus ces cinquante ans devant nous, pour la bonne et simple raison que des super-ordinateurs se chargent déjà du contrôle de la Terre à notre place. LUKE MUELHAUSER du MIRI :
Si la puissance de calcul des ordinateurs continue d'être multipliée par deux comme le théorise la loi de Moore, notre intelligence ne nous permet pas de mettre en place des algorithmes qui empêcheraient la machine de devenir malveillante. En outre, une fois que le programme sera fonctionnel, il se répandra à tous les ordinateurs et dépassera rapidement la population mondiale. Quand on demande à un ordinateur de travailler sur la création d'une I.A., il comprendra que s'il veut la rendre plus performante, il vaut mieux qu'il s'en occupe sans l'intervention d'une intelligence inférieure.D'une façon générale, l'erreur serait de considérer qu'un être supérieur, fut-il artificiel, sera forcément bon ou qu'il aura à cœur le respect des valeurs morales. D'ailleurs comment définirait-on ces valeurs qui sont loin de faire l'unanimité sur l'ensemble du globe. De la même manière, essayer de confiner l'I.A. préventivement s'avère dangereux, voire impraticable. S'il existe quelque part une machine capable d'enrichir encore plus une multinationale, elle ne restera pas longtemps dans sa boîte. Dans tous les cas, la machine parviendra à s'extraire de ces contraintes par elle-même. Plutôt que penser isolement, il vaudrait mieux trouver une autre solution.
Cette solution est hors de notre portée aujourd'hui. Les scientifiques avancent en territoire inconnu et s'attendent à tout. Ce qui est plutôt positif : si la Machine Ultime fait disparaître l'Humanité, nous n'aurons plus à nous soucier du réchauffement climatique ou des conflits armés, dont la maîtrise nous échappe tout autant.
billet inspiré par io9
Aucun commentaire:
Enregistrer un commentaire