Sûreté de l’IA
La sûreté de l’IA est l’étude des moyens de réduire les risques posés par l’intelligence artificielle.
Au sein de la sûreté de l’IA, une distinction est généralement faite entre la recherche technique et la recherche conceptuelle. La première, appelée sécurité technique de l’IA, consiste à appliquer des techniques dans des domaines tels que l’apprentissage automatique et l’apprentissage profond pour résoudre le problème de l’alignement. La recherche conceptuelle, quant à elle, cherche à s’inspirer des idées de plusieurs disciplines —comme la philosophie, l’ingénierie de la sécurité et l’analyse des systèmes complexes — pour mieux comprendre les risques de l’IA et les différentes stratégies qui pourraient contribuer à les atténuer.
La gouvernance de l’IA est également parfois vue comme un sous-domaine de la sûreté de l’IA, bien qu’elle soit généralement considérée comme un domaine de recherche autonome, ce qui n’est pas le cas de la sécurité de l’IA.
L’enquête de moyenne profondeur menée par 80 000 Hours considère la recherche technique sur la sûreté de l’IA comme un « chemin prioritaire » — parmi les carrières les plus prometteuses que l’organisation a identifiées jusqu’à présent1.
La sûreté de l’IA et la réduction des risques liés à l’IA sont parfois qualifiées de braquage de Pascal,a ce qui implique que les risques sont infimes et que pour tout niveau de risque associé à l’IA, les bénéfices pourraient être exagérés afin d’en faire une priorité absolue. Une réponse à cela est que dans une enquête menée auprès de 700 chercheurs en apprentissage automatique, la réponse médiane à la question « la probabilité que l’effet à long terme de l’IA avancée sur l’humanité soit « extrêmement mauvais (par exemple, l’extinction humaine) » était de 5 %, avec 48 % des répondants donnant 10 % ou plus2. Ces probabilités sont trop élevées (d’au moins 5 ordres de grandeur) pour être considérées comme pascaliennes.
Vael Gates (2023) Resources I send to AI researchers about AI safety, Effective Altruism Forum, 11 janvier.
Victoria Krakovna (2017) Introductory resources on AI safety research, Victoria Krakovna’s Blog, 19 octobre.
Richard Ngo (2019) Disentangling arguments for the importance of AI safety, Effective Altruism Forum, 21 janvier.