Course à l’IA
Une course à l’IA est une compétition entre équipes rivales pour développer en premier une intelligence artificielle avancée.
L’expression « course à l’IA » peut être utilisée dans un sens un peu plus étroit pour décrire une compétition visant à atteindre la supériorité militaire via l’IA. Les expressions course aux armements de l’IA,1 , et sont parfois employées pour désigner ce type spécifique de course à l’IA.
Une course à l’IA est un exemple du phénomène plus large de course technologique, caractérisé par une structure « winner-take-all » où l’équipe qui développe la technologie en premier obtient tous (ou la plupart) de ses avantages. Cela pourrait se produire en raison de divers types de boucles de rétroaction qui amplifient les avantages associés. Dans le cas de l’IA, on estime généralement que ces avantages sont très importants, peut-être suffisants pour conférer à l’équipe gagnante un avantage stratégique décisif.
Les courses à l’IA sont importantes principalement en raison de leurs effets sur le risque de l’IA : une équipe peut plausiblement améliorer ses chances de gagner la course en relâchant les précautions de sécurité, et les gains liés à la victoire de la course peuvent être suffisamment importants pour inciter fortement à ce relâchement. En outre, une course qui se déroule entre des gouvernements nationaux — plutôt qu’entre des entreprises privées — pourrait accroître l’instabilité mondiale et rendre les conflits entre grandes puissances plus probables.
Stuart Armstrong, Nick Bostrom et Carl Shulman ont développé un modèle de course à IA4 (Bien que le modèle se concentre sur l’intelligence artificielle, il est applicable à toute technologie pour laquelle la première équipe à la développer obtient une part disproportionnée de ses bénéfices et où chaque équipe peut accélérer son développement en relâchant les mesures de sûreté nécessaires pour réduire les dangers associés à la technologie).
Le modèle implique n équipes différentes engagées dans une course à l’IA. Chaque équipe dispose d’une capacité de construction d’IA donnée c, ainsi que d’un niveau de sûreté de l’IA choisi s allant de 0 (aucune précaution) à 1 (précaution maximale). L’équipe pour laquelle c — s est le plus élevé gagne la course, et la probabilité de désastres causés par l’IA est de 1 — s.
L’utilité est normalisée de sorte que, pour chaque équipe, une utilité de 0 correspond à un désastre causé par l’IA et une utilité de 1 correspond à une course à l’IA gagnée. En outre, chaque équipe a un degré d’inimitié e envers les autres équipes, compris entre 0 et 1, de sorte qu’elle obtient une utilité de 1 — e si une autre équipe gagne la course. Le modèle suppose une valeur constante de e pour toutes les équipes.
La capacité de chaque équipe est tirée au hasard d’une distribution uniforme sur l’intervalle [0, μ], pour un seul μ donné, les valeurs inférieures représentant une capacité plus faible.
Un certain nombre de conséquences découlent de ce modèle :
Les courses à l’IA sont parfois citées comme un exemple de danger informationnel, c’est-à-dire un risque découlant de la diffusion d’informations véridiques. Il existe en fait un certain nombre de risques différents associés aux courses à l’IA. L’un de ces dangers est le risque identifié par Armstrong, Bostrom et Shulman : passer d’une situation d’absence d’information à une situation d’information privée ou publique augmente les risques. Un autre danger informationnel, plus subtil, concerne le partage d’informations sur le modèle lui-même : la prise de conscience généralisée que l’absence d’informations est plus sûre pourrait encourager les équipes à adopter une culture du secret susceptible d’entraver l’instauration de la confiance entre les équipes rivales6. De manière plus générale, le fait de présenter le développement de l’IA comme impliquant une dynamique où tout le monde gagne dans les discussions menées par les dirigeants publics et les intellectuels peut lui-même être considéré comme dangereux, dans la mesure où il est susceptible d’entraver la coopération et d’exacerber les conflits7.
Stuart Armstrong, Nick Bostrom & Carl Shulman (2016) Racing to the precipice: a model of artificial intelligence development, AI and Society, vol. 31, p. 201–206.
risque de l’IA • intelligence artificielle • conflit entre grandes puissances • course technologique