Alignement de l’IA
L’alignement de l’IA est la recherche sur la manière d’aligner les systèmes d’IA avec des objectifs humains ou moraux.
Évaluation
80 000 Hours considère l’alignement de l’IA comme un « domaine de priorité absolue » : un problème en tête de leur classement des problèmes mondiaux évalués en fonction de l’importance, le potentiel d’amélioration et le caractère négligé1.
Pour en savoir plus
Paul Christiano (2020) Current work in AI alignment, Effective Altruism Global, 3 avril.
Rohin Shah (2020) What’s been happening in AI alignment?, Effective Altruism Forum, 29 juillet.
Liens externes
Entrées associées
prévision de l’IA • gouvernance de l’IA • utilisation malveillante de l’IA • coût d’alignement • communauté rationaliste