Alignement de l’IA

L’alignement de l’IA est la recherche sur la manière d’aligner les systèmes d’IA avec des objectifs humains ou moraux.

Évaluation

80 000 Hours considère l’alignement de l’IA comme un « domaine de priorité absolue » : un problème en tête de leur classement des problèmes mondiaux évalués en fonction de l’importance, le potentiel d’amélioration et le caractère négligé⁠1.

Pour en savoir plus

Paul Christiano (2020) Current work in AI alignment, Effective Altruism Global, 3 avril.

Rohin Shah (2020) What’s been happening in AI alignment?, Effective Altruism Forum, 29 juillet.

Liens externes

AI Alignment Forum.

Entrées associées

prévision de l’IA • gouvernance de l’IA • utilisation malveillante de l’IA • coût d’alignement • communauté rationaliste

Articles sur alignement de l'IA