Alignement de l’IA
L’alignement de l’IA est la recherche sur la manière d’aligner les systèmes d’IA avec des objectifs humains ou moraux.
80 000 Hours considère l’alignement de l’IA comme un « domaine de priorité absolue » : un problème en tête de leur classement des problèmes mondiaux évalués en fonction de l’importance, le potentiel d’amélioration et le caractère négligé1.
Paul Christiano (2020) Current work in AI alignment, Effective Altruism Global, 3 avril.
Rohin Shah (2020) What’s been happening in AI alignment?, Effective Altruism Forum, 29 juillet.