Selon Stuart Armstrong, ce n’est qu’une question de temps avant que les pdg soient remplacés par des ordinateurs capables de prendre des décisions stratégiques. Si son assertion étonne à première vue, les arguments du chercheur du Future of Humanity Institute, de l’Université Oxford, ne manquent pas d’être convaincants.
Dans Smarter Than Us: The Rise of Machine Intelligence, un petit livre qui explore les risques de l’intelligence artificielle, il fait plusieurs constats. D’abord, il y la multiplication exponentielle des données dont on doit tenir compte avant de prendre une décision. Dans un premier temps, l’intelligence artificielle ne manquera pas de soutenir les dirigeants dans l'analyse de ces données, en bonifiant les logiciels d’aide à la décision dont les pdg sont déjà dépendants.
Selon Stuart Armstrong, toutefois, viendra un temps où la complexité des données à analyser sera telle qu’un pdg pourra difficilement les comprendre. Si des pdg très intelligents peuvent les comprendre, le temps qu’il leur faudra pour assimiler les enjeux sera tel qu’ils constitueront un obstacle à la performance de l’entreprise. Déjà, les sociétés de transactions à haute fréquence (HFT) ont confié le volant à leurs algorithmes, qui sont responsables des décisions d’achat et de vente qui représentent la majorité des transactions réalisés sur les marchés boursiers américains.
Par conséquent, les entreprises qui donneront le volant à un robot plutôt qu’à un pdg en chair et en os devraient mieux performer, accélérant ainsi l’adoption des pdg artificiels. Pour suivre la tendance, les conseils d’administration n’auront pas besoin de renvoyer leur pdg, mais tout au plus de le convaincre d’avoir une confiance plus ou moins aveugle dans la technologie.
Dans les faits, selon Armstrong, même si on ne lui donne pas le volant, un ordinateur plus intelligent que l’homme pourrait aisément manipuler un pdg afin qu’il applique ses décisions, puisqu’il serait amené à le percevoir comme un obstacle à l’atteinte des objectifs de l’organisation.
Si Stuart Armstrong ne doute pas que les machines feront des pdg performants, son livre met en lumière les risques de donner le pouvoir aux machines. Dans les faits, inculquer une éthique à des machines pourrait être un plus grand défi que de concevoir des machines capables d’écrire des discours touchants ou de formuler des hypothèses scientifiques.
Dans les faits, le deuxième cas ne relève pas de la science-fiction. En 2009, un robot baptisé ADAM a fait une découverte en génétique, après avoir formulé une vingtaine d’hypothèses et procédé à des expériences pour vérifier la validité de chacune d’entre elles.
Selon Stuart Armstrong, aucune des solutions pour s’assurer de la bonne conduite des robots mise de l’avant par des chercheurs en intelligence artificielle n’est satisfaisante. Selon lui, les philosophes eux-mêmes ne s’étant jamais entendus sur ce que sont les valeurs humaines et l’éthique, il sera difficile de programmer un ensemble de règles définissant l’application de ces notions.
Si de nombreux dirigeants humains ont déjà des comportements peu éthiques, les dommages qu’ils peuvent causer sont limités. Ce ne serait toutefois pas le cas d’un robot capable d’analyser en une seconde une masse d’information qu’un humain ne pourrait pas assimiler en un an.
Si vous pensez que les enjeux traités ici relèvent d’un futur lointain, détrompez-vous. Selon le directeur de l'ingénierie de Google, Ray Kurzweil, l’intelligence des robots dépassera celle des humains dès 2029.
Bref, si l’action de Google continue à aussi bien performer, je ne pourrai m’empêcher de me demander si c’est bel et bien Larry Page qui est aux commandes du géant techno.