L’astrophysicien a multiplié les prises de parole sur l’intelligence artificielle, qu’il considérait comme un danger, mais aussi une source d’opportunités.
LE MONDE | 14.03.2018
L’intelligence artificielle n’était pas la spécialité de Stephen Hawking, plutôt célèbre pour ses travaux sur les trous noirs et les secrets de l’univers. Mais ces dernières années, la voix de cet éminent astrophysicien britannique, mort mercredi 14 mars, était devenue l’une des plus puissantes pour alerter l’opinion publique sur les implications des technologies d’intelligence artificielle (IA).
« Je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité », avait-il déclaré en décembre 2014 dans un entretien à la BBC. « Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite, avait-il déclaré. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. »
Ces propos avaient connu un fort écho, alors que les technologies d’intelligence artificielle connaissent, depuis le début des années 2010, d’importants progrès – notamment grâce aux avancées du deep learning, liées à la puissance de calcul et les masses de données désormais accessibles.
Lire nos explications : Comment le « deep learning » révolutionne l’intelligence artificielle
« Course à l’armement »
Quelques mois plus tard, Stephen Hawking avait été, aux côtés du patron de Tesla, Elon Musk, l’un des plus prestigieux signataires d’une lettre ouverte réclamant l’interdiction des « robots tueurs ». Plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, avaient exprimé leur crainte d’une« course à l’armement doté d’IA », évoquant des technologies capables « de sélectionner et de combattre des cibles sans intervention humaine ». Les auteurs de cette lettre redoutaient également que ces technologies ne tombent entre les mains de terroristes, de dictateurs et de seigneurs de guerre.
Plus récemment, lors du Web Summit de Lisbonne en novembre, l’astrophysicien, également conseiller de l’institut Future of Life chargé d’étudier les risques de l’IA, avait appelé à l’adoption urgente de « règles » pour encadrer les recherches sur l’intelligence artificielle. « Nous devons être conscients des dangers, les identifier, et employer les meilleures pratiques et cadres pour nous préparer à ses conséquences bien en avance, avait-il déclaré lors d’une conférence. La montée de l’IA pourrait être la pire ou la meilleure chose qui soit jamais arrivée à l’humanité. »
« Eradiquer enfin la maladie et la pauvreté »
Car si les craintes de Stephen Hawking sur l’IA ont souvent été mises en avant, régulièrement associées aux déclarations alarmistes d’Elon Musk, le chercheur britannique avait un avis nuancé sur ces technologies, qu’il jugeait également porteuses d’espoir.
En octobre 2016, il avait déclaré, à l’occasion de l’ouverture d’un centre de recherche sur la place de l’IA dans la société à l’université de Cambridge, que les bénéfices potentiels de l’IA étaient « énormes ».
« Nous ne pouvons pas prédire ce que nous pourrions réussir quand nos esprits seront amplifiés par l’IA. Peut-être qu’avec les outils de cette nouvelle révolution technologique, nous serons capables de défaire certains dégâts sur la nature de la précédente – l’industrialisation. Et nous pouvons espérer éradiquer enfin la maladie et la pauvreté. »
« L’IA pourrait être le plus important événement de l’histoire de notre civilisation », avait-il ajouté. L’astrophysicien avait alors salué la création de ce centre de recherche, avec son célèbre sens de l’humour : « Nous passons beaucoup de temps à étudier l’histoire, à savoir, admettons-le, principalement l’histoire de la stupidité. C’est un changement bienvenu que des personnes étudient à la place le futur de l’intelligence. »