Course à l’IA
Une course à l’IA est une compétition entre équipes rivales pour développer en premier une intelligence artificielle avancée.
Terminologie
L’expression « course à l’IA » peut être utilisée dans un sens un peu plus étroit pour décrire une compétition visant à atteindre la supériorité militaire via l’IA. Les expressions course aux armements de l’IA,1 course aux armements de l’IA,2 et course aux armements de l’IA militaire3 sont parfois employées pour désigner ce type spécifique de course à l’IA.
Courses à l’IA et courses technologiques
Une course à l’IA est un exemple du phénomène plus large de course technologique, caractérisé par une structure « winner-take-all » où l’équipe qui développe la technologie en premier obtient tous (ou la plupart) de ses avantages. Cela pourrait se produire en raison de divers types de boucles de rétroaction qui amplifient les avantages associés. Dans le cas de l’IA, on estime généralement que ces avantages sont très importants, peut-être suffisants pour conférer à l’équipe gagnante un avantage stratégique décisif.
Importance des courses à l’IA
Les courses à l’IA sont importantes principalement en raison de leurs effets sur le risque de l’IA : une équipe peut plausiblement améliorer ses chances de gagner la course en relâchant les précautions de sécurité, et les gains liés à la victoire de la course peuvent être suffisamment importants pour inciter fortement à ce relâchement. En outre, une course qui se déroule entre des gouvernements nationaux — plutôt qu’entre des entreprises privées — pourrait accroître l’instabilité mondiale et rendre les conflits entre grandes puissances plus probables.
Un modèle de course à l’IA
Stuart Armstrong, Nick Bostrom et Carl Shulman ont développé un modèle de course à IA4 (Bien que le modèle se concentre sur l’intelligence artificielle, il est applicable à toute technologie pour laquelle la première équipe à la développer obtient une part disproportionnée de ses bénéfices et où chaque équipe peut accélérer son développement en relâchant les mesures de sûreté nécessaires pour réduire les dangers associés à la technologie).
Le modèle implique n équipes différentes engagées dans une course à l’IA. Chaque équipe dispose d’une capacité de construction d’IA donnée c, ainsi que d’un niveau de sûreté de l’IA choisi s allant de 0 (aucune précaution) à 1 (précaution maximale). L’équipe pour laquelle c — s est le plus élevé gagne la course, et la probabilité de désastres causés par l’IA est de 1 — s.
L’utilité est normalisée de sorte que, pour chaque équipe, une utilité de 0 correspond à un désastre causé par l’IA et une utilité de 1 correspond à une course à l’IA gagnée. En outre, chaque équipe a un degré d’inimitié e envers les autres équipes, compris entre 0 et 1, de sorte qu’elle obtient une utilité de 1 — e si une autre équipe gagne la course. Le modèle suppose une valeur constante de e pour toutes les équipes.
La capacité de chaque équipe est tirée au hasard d’une distribution uniforme sur l’intervalle [0, μ], pour un seul μ donné, les valeurs inférieures représentant une capacité plus faible.
Un certain nombre de conséquences découlent de ce modèle :
- Au fur et à mesure que μ augmente, la capacité devient de plus en plus importante par rapport à la sécurité pour déterminer le résultat de la course, et les équipes deviennent en conséquence moins enclines à lésiner sur les précautions de sécurité. Inversement, des valeurs plus faibles de μ sont associées à moins de précautions ; dans le cas limite de μ = 0, les équipes ne prendront aucune précaution.
- À mesure que l’inimitié augmente, le coût de la perte de la course pour chaque équipe s’accroît, et les équipes sont donc plus enclines à lésiner sur les mesures de sécurité. Mais alors que l’importance relative des capacités est largement déterminée par la technologie, et est en tant que telle largement insoluble, il existe diverses interventions dont on peut raisonnablement s’attendre à ce qu’elles diminuent l’inimitié, telles que « l’établissement de la confiance entre les nations et les groupes, le partage des technologies ou des découvertes, la fusion dans des projets conjoints ou l’accord sur des objectifs communs »5.
- Une conclusion moins intuitive du modèle concerne la manière dont la capacité et l’inimitié sont liées à des scénarios impliquant (1) aucune information ; (2) des informations privées (chaque équipe connaît sa propre capacité) ; et (3) des informations publiques (chaque équipe connaît la capacité de toutes les autres équipes). L’absence d’information est toujours plus sûre que l’information privée ou privée. Mais si l’information publique peut diminuer le risque, par rapport à l’information privée, lorsque les capacités et l’hostilité sont faibles, c’est l’inverse qui se produit lorsque les capacités ou l’hostilité sont suffisamment élevées.
- Un autre résultat surprenant concerne l’impact du nombre d’équipes dans différents scénarios d’information. Lorsqu’il n’y a pas d’information ou que l’information est publique, le risque augmente strictement avec le nombre d’équipes. Bien que cet effet soit également observé pour les informations privées lorsque la capacité est faible, il finit par s’inverser au fur et à mesure que la capacité augmente.
Courses à l’IA et dangers informationnels
Les courses à l’IA sont parfois citées comme un exemple de danger informationnel, c’est-à-dire un risque découlant de la diffusion d’informations véridiques. Il existe en fait un certain nombre de risques différents associés aux courses à l’IA. L’un de ces dangers est le risque identifié par Armstrong, Bostrom et Shulman : passer d’une situation d’absence d’information à une situation d’information privée ou publique augmente les risques. Un autre danger informationnel, plus subtil, concerne le partage d’informations sur le modèle lui-même : la prise de conscience généralisée que l’absence d’informations est plus sûre pourrait encourager les équipes à adopter une culture du secret susceptible d’entraver l’instauration de la confiance entre les équipes rivales6. De manière plus générale, le fait de présenter le développement de l’IA comme impliquant une dynamique où tout le monde gagne dans les discussions menées par les dirigeants publics et les intellectuels peut lui-même être considéré comme dangereux, dans la mesure où il est susceptible d’entraver la coopération et d’exacerber les conflits7.
Pour en savoir plus
Stuart Armstrong, Nick Bostrom & Carl Shulman (2016) Racing to the precipice: a model of artificial intelligence development, AI and Society, vol. 31, p. 201–206.
Entrées associées
risque de l’IA • intelligence artificielle • conflit entre grandes puissances • course technologique