Gouvernance de l’IA et politique
Alors que le progrès des capacités de l’IA a reçu beaucoup d’attention en fin d’année 2022 et en 2023, l’intérêt porté à la gouvernance et à la réglementation de ces systèmes s’est accru. Le débat autour des risques catastrophiques potentiels d’une IA désalignée ou incontrôlable a pris de l’ampleur, ouvrant potentiellement la voie à des mesures politiques susceptibles d’atténuer les menaces.
Un grand nombre d’incertitudes subsistent quant à savoir quelles seraient les meilleures stratégies de gouvernance de l’IA. Beaucoup ont proposé des politiques et des stratégies visant à réduire les risques les plus importants, que nous examinons ci-dessous.
Cependant, il est impossible de s’appuyer sur des repères établis. Le débat sur les mesures à prendre est loin d’être clos et il se peut que nous n’ayons pas encore trouvé les meilleures idées dans ce domaine. Quoi qu’il en soit, il reste encore beaucoup à faire pour déterminer la manière dont les politiques et les stratégies prometteuses fonctionneraient en pratique. Nous espérons voir davantage de personnes entrer dans ce domaine pour développer une expertise et des compétences qui contribueront à une gouvernance et à une politique de l’IA qui réduisent les risques.
En bref: Les systèmes d’IA avancés pourraient avoir des répercussions massives sur l’humanité et potentiellement causer des risques catastrophiques mondiaux. La gouvernance de l’IA, un vaste domaine, offre des opportunités de façonner favorablement la manière dont la société répond et se prépare aux défis posés par la technologie. Compte tenu de l’importance des enjeux, poursuivre cette carrière pourrait être l’option au plus fort impact pour beaucoup. Mais il convient de faire preuve d’une grande prudence afin de ne pas accidentellement accroître les menaces au lieu de les atténuer.
Si cette carrière est adaptée à votre profil, il pourrait s’agir de la meilleure façon pour vous d’avoir un impact social.
Sur la base d’une enquête approfondiea.
Ce que vous faites présente un gigantesque potentiel et un gigantesque danger. — Joe Biden, président des États-Unis, aux dirigeants des plus grandes entreprises d’IA
L’intelligence artificielle a progressé rapidement. En 2022 et 2023, de nouveaux modèles de langage et de génération d’images ont fortement attiré l’attention par leurs capacités, surpassant nettement ce qui se faisait jusqu’à présent.
Et leurs applications sont toutes récentes ; avec davantage d’ajustements et d’intégration dans la société, les systèmes d’IA existants pourraient devenir plus faciles à utiliser et plus omniprésents.
Nous ignorons où tous ces développements nous mèneront. Il y a des raisons d’être optimiste et de penser que l’IA finira par nous aider à résoudre de nombreux problèmes mondiaux en augmentant le niveau de vie et en nous aidant à construire une société plus florissante.
Mais il existe aussi des risques importants. L’IA avancée pourrait être utilisée pour causer beaucoup de tort. Et nous craignons qu’elle ne conduise accidentellement à une catastrophe majeure — et peut-être même qu’elle ne provoque un fort affaiblissement ou une extinction de l’humanité. Nous examinons les arguments en faveur de l’existence de ces risques dans notre profil de problème approfondi.
En raison de ces risques, nous encourageons les gens à s’efforcer de trouver des moyens de réduire le danger par la recherche technique et l’ingénierie.
Mais des stratégies variées sont nécessaires pour réduire les risques. En particulier, des politiques publiques et une gouvernance des entreprises pourraient être requises pour faire en sorte que l’IA avancée soit largement bénéfique et présente peu de risques.
La gouvernance renvoie en général aux processus, structures et systèmes qui assurent la prise de décision à un niveau élevé pour les organisations et les sociétés. Dans le cas de l’IA, les structures de gouvernance les plus importantes seront probablement les gouvernements nationaux et les organisations qui développent l’IA — ainsi que certaines organisations internationales et peut-être des gouvernements infranationaux.
Les objectifs de la gouvernance de l’IA pourraient être les suivants :
Il est nécessaire d’établir une communauté de spécialistes qui comprennent les systèmes d’IA modernes et le domaine politique, ainsi que les menaces graves et les solutions potentielles. Ce secteur est encore jeune ; de nombreuses pistes ne sont pas clairement définies et ne sont pas sûres d’aboutir. Mais il existe des parcours professionnels pertinents qui vous fourniront un capital professionnel précieux pour une variété de postes et de types de fonctions.
La suite de cet article explique en quoi consiste le travail dans ce domaine, comment vous pouvez développer votre capital professionnel et tester votre adéquation, et présente quelques lieux de travail prometteurs.
Il existe de nombreuses façons de poursuivre des stratégies de gouvernance de l’IA, et à mesure que le domaine gagnera en maturité, les voies devraient se clarifier et se consolider.
En règle générale, nous pensons que les personnes en début de carrière ne devraient pas chercher à obtenir un emploi spécifique à fort impact. Elles devraient plutôt chercher à développer des compétences, de l’expérience, des connaissances, une capacité de jugement, des réseaux et des qualifications — ce que nous appelons le capital professionnel — dont elles pourront se servir plus tard pour avoir un impact.
Cela peut impliquer de suivre un parcours de carrière standard ou d’évoluer dans différents types de fonctions. Parfois, il suffit de postuler à de nombreux postes différents et de tester son aptitude à effectuer différents types de missions avant de savoir ce que l’on sait faire. Plus important encore, vous devriez essayer d’exceller dans un domaine avec lequel vous avez une forte adéquation personnelle et qui vous permettra de contribuer à la résolution de problèmes pressants.
Dans le domaine de la gouvernance de l’IA, nous avons identifié au moins six grandes catégories d’activités que nous jugeons importantes :
Réfléchir aux différents types de capital professionnel qui sont utiles pour les catégories d’activités qui vous attirent peut vous indiquer les prochaines étapes de votre parcours. (Nous examinons ci-dessous comment évaluer votre aptitude et intégrer un domaine.)
Il se peut que vous souhaitiez passer d’une catégorie d’activité à l’autre à différents moments de votre carrière. Vous pouvez également tester votre aptitude à occuper différents postes en effectuant des stages, des missions, des contrats temporaires, en occupant des emplois de premier échelon, ou même en effectuant des recherches indépendantes, autant d’activités qui peuvent servir de capital professionnel pour toute une série de parcours.
Nous avons également examiné les possibilités de carrières dans la recherche et l’ingénierie en matière de sûreté technique de l’IA, la sécurité de l’information et l’expertise relative au hardware des IA, qui peuvent être cruciales pour réduire les risques liés à l’IA. Ces domaines peuvent également jouer un rôle important dans un programme de gouvernance efficace. Les personnes qui envisagent sérieusement de faire carrière dans la gouvernance de l’IA devraient également se familiariser avec ces domaines.
Occuper un poste au sein d’un gouvernement influent pourrait vous aider à jouer un rôle important dans l’élaboration, la promulgation et l’application de politiques en matière d’IA.
Il est généralement admis que le gouvernement fédéral américain est l’acteur le plus important de la gouvernance de l’IA dans un avenir proche. Cela est dû à son influence mondiale et à sa juridiction sur une grande partie de l’industrie de l’IA, y compris les entreprises d’IA les plus importantes telles que Anthropic, OpenAI et Google DeepMind. Les États-Unis ont également autorité sur des éléments clés de la chaîne d’approvisionnement en puces d’IA. Une grande partie de cet article se concentre donc sur la politique et le gouvernement des États-Unisb.
Mais d’autres gouvernements et institutions internationales sont également concernés. Par exemple, le gouvernement britannique, l’Union européenne, la Chine, et d’autres peuvent fournir des opportunités pour un travail de gouvernance de l’IA à fort impact. Certains gouvernements d’États américains, comme la Californie, peuvent offrir la possibilité d’avoir un fort impact et d’acquérir un capital professionnel.
En quoi consisterait ce travail ? Les sections ci-dessous examinent comment intégrer le secteur politique américain et quelles sphères du gouvernement pourraient s’avérer intéressantes.
En 2023, les gouvernements des États-Unis et du Royaume-Uni ont annoncé la création de nouveaux instituts pour la sûreté de l’IA — qui devraient tous deux fournir de précieuses opportunités en matière de capital professionnel et d’impact potentiel.
Mais plus généralement, les personnes souhaitant influencer positivement la politique de l’IA devraient acquérir des compétences et de l’expérience permettant d’accéder aux sphères du gouvernement ayant un lien avec la politique de l’IA ou des technologies émergentes.
Il peut s’agir de postes dans : les organes législatifs, la réglementation nationale, la sécurité nationale, la diplomatie, l’allocation et la planification budgétaire, ou d’autres domaines politiques.
Si vous pouvez obtenir un emploi qui traite déjà directement de ce sujet, par exemple dans l’un des instituts de sûreté de l’IA ou auprès d’un législateur qui s’intéresse à l’IA, cela pourrait être une excellente opportunité.
Sinon, vous devriez chercher à en apprendre le plus possible sur le fonctionnement des politiques et sur les postes gouvernementaux qui pourraient vous permettre d’avoir le plus fort impact. Essayez de vous établir comme quelqu’un qui connaît bien le paysage politique de l’IA. Occuper presque n’importe quel poste gouvernemental significatif qui touche à un aspect de l’IA, ou posséder des qualifications impressionnantes en lien avec l’IA, peut suffire pour aller assez loin.
L’une des façons de faire progresser votre carrière au sein du gouvernement sur un sujet spécifique consiste à « gagner en visibilité ». Il s’agit d’utiliser votre position pour vous renseigner sur le milieu et pour entrer en contact avec les protagonistes et les institutions du domaine politique. Il vous faudra établir des liens avec d’autres acteurs du monde politique, être invité à des rencontres avec d’autres fonctionnaires et organismes, et recevoir des sollicitations pour contribuer aux décisions. Si vous parvenez à vous imposer comme spécialiste reconnu sur un aspect important mais négligé de la question, vous aurez plus de chances de participer aux discussions et événements clés.
On peut schématiquement répartir les carrières au sein de l’administration publique comme suit :
Pour en savoir plus sur la manière d’évaluer votre adéquation et de commencer à développer un capital professionnel utile, consultez notre article sur les compétences politiques.
Il reste beaucoup de recherches à effectuer sur les stratégies de gouvernance de l’IA et leur mise en œuvre. Des mesures politiques plus concrètes sont nécessaires pour commencer à s’attaquer aux menaces les plus sérieuses. L’élaboration de telles politiques et l’approfondissement de notre compréhension des besoins stratégiques de la gouvernance de l’IA sont des priorités majeures.
D’autres recherches appropriées pourraient inclure des sondages d’opinion publique et de spécialistes, des recherches juridiques sur la faisabilité des politiques proposées, des recherches techniques sur des questions telles que la gouvernance du calcul, et même des recherches théoriques de plus haut niveau sur des questions relatives aux implications sociétales de l’IA avancée.
Certaines recherches, comme celles menées par Epoch AI, sont axées sur la prévision de l’évolution de l’IA, ce qui peut influencer les décisions en matière de gouvernance de l’IA.
Cependant, plusieurs spécialistes avec lesquels nous nous sommes entretenus nous ont averti qu’un grand nombre de recherches sur la gouvernance de l’IA pourraient s’avérer inutiles. Il est donc important de faire preuve de réflexion et de solliciter les opinions d’autres personnes du domaine pour savoir quel type de contribution vous pouvez apporter. Nous répertorions plusieurs organismes de recherche ci-dessous qui, selon nous, poursuivent des recherches prometteuses sur ce sujet et pourraient fournir un accompagnement utile.
Pour tester votre aptitude à ce travail — surtout au début —, vous pouvez par exemple rédiger des analyses et des réponses aux travaux existants sur la politique en matière d’IA ou étudier certaines questions dans ce domaine qui n’ont pas reçu beaucoup d’attention. Vous pouvez ensuite partager votre travail à grande échelle, le soumettre à l’avis de personnes travaillant dans ce domaine, et évaluer dans quelle mesure vous appréciez ce travail et comment vous pourriez contribuer à ce domaine.
Mais ne passez pas trop de temps à tester votre aptitude sans faire beaucoup de progrès, et notez que certaines personnes sont plus à même de contribuer lorsqu’elles travaillent en équipe. N’investissez donc pas trop dans le travail indépendant, surtout s’il y a peu de signes qu’il vous convient particulièrement bien. Ce type de projet peut se justifier pour un mois ou un peu plus, mais il est peu probable que ce soit une bonne idée d’y consacrer beaucoup plus de temps sans financement ou sans un retour d’information vraiment encourageant de la part des personnes travaillant dans ce domaine.
Si vous avez l’expérience nécessaire pour occuper un poste de recherche, vous pouvez travailler sur la gouvernance de l’IA dans les universités, les organisations à but non lucratif et les groupes de réflexion. Certaines agences et commissions gouvernementales effectuent également des recherches utiles.
Notez que les universités et les milieux académiques ont leurs propres priorités et incitations qui ne sont souvent pas alignées sur la production de travaux à fort impact. Si vous êtes un chercheur déjà établi et titularisé, il peut être très utile de vous tourner vers des travaux sur la gouvernance de l’IA — votre position peut même vous donner une plateforme crédible à partir de laquelle vous pouvez défendre des idées importantes.
Mais si vous commencez tout juste une carrière dans la recherche et que vous souhaitez vous concentrer sur ces questions, vous devriez évaluer attentivement si c’est au sein du monde académique que vous recevrez le meilleur soutien. Par exemple, si vous connaissez un programme spécifique avec des mentors particuliers qui vous aideront à trouver des réponses à des questions cruciales dans ce domaine, cela pourrait être intéressant. Nous sommes moins enclins à encourager les personnes qui suivent cette voie pour occuper des postes universitaires génériques sans avoir une idée claire de la manière dont elles peuvent mener des recherches importantes sur la gouvernance de l’IA.
Des diplômes d’études supérieures en politique ou dans des domaines techniques pertinents peuvent cependant s’avérer utiles — voir plus de détails à ce sujet dans la section comment évaluer votre adéquation et démarrer.
Vous pouvez également en apprendre davantage dans notre article sur comment faire carrière dans la recherche.
Les politiques internes et la gouvernance de l’IA au sein même des plus grandes entreprises d’IA sont également importantes pour atténuer les risques liés à l’IA.
Au plus haut niveau, décider qui siège aux conseils d’administration des entreprises, quel type d’influence ont ces conseils et quelles incitations orientent l’organisation peut avoir un fort impact sur les choix effectués par une entreprise. Nombre de ces postes sont occupés par des personnes ayant une grande expérience de gestion et de direction d’organisations, par exemple en ayant fondé et dirigé des entreprises.
Si vous rejoignez l’équipe décisionnelle d’une grande entreprise, vous pouvez modéliser les menaces et contribuer à l’élaboration, à la mise en œuvre et à l’évaluation de propositions visant à réduire les risques. De plus, vous pouvez établir un consensus autour des meilleures pratiques, telles qu’une sécurité de l’information solide, le recours à des évaluateurs externes pour trouver les vulnérabilités et les comportements dangereux dans les systèmes d’IA (simulation d’adversité), et l’expérimentation des dernières techniques issues du domaine de la sécurité de l’IA.
Et si, comme nous nous y attendons, les entreprises d’IA sont confrontées à une surveillance croissante de la part des gouvernements, assurer la conformité avec les lois et réglementations appropriées sera une priorité majeure. Communiquer avec les acteurs gouvernementaux et faciliter la coordination depuis l’intérieur des entreprises pourrait constituer un travail à fort impact.
En général, il semble préférable que les entreprises d’IA soient très coopératives entre ellesc et avec les groupes extérieurs qui cherchent à minimiser les risques. Et cela ne semble pas être un vœu pieux — de nombreux chefs de file de l’industrie ont exprimé leur inquiétude quant aux risques catastrophiques et ont même appelé à une réglementation de la technologie pionnière qu’ils sont en train de créer.
Cela dit, la coopération demandera probablement beaucoup d’efforts. Les entreprises qui fabriquent des systèmes d’IA puissants peuvent résister à certaines politiques de réduction des risques, car elles seront fortement incitées à commercialiser leurs produits. Il sera donc bénéfique d’obtenir l’adhésion des principaux acteurs du milieu, d’accroître la confiance et le partage d’informations, et de parvenir à un consensus autour de stratégies de sécurité de haut niveau.
Les personnes extérieures au gouvernement ou aux entreprises d’IA peuvent influencer les politiques publiques et la gouvernance des entreprises par des actions de plaidoyer et de lobbying.
Le plaidoyer est un terme général pour désigner les efforts visant à promouvoir certaines idées et à façonner le discours public, souvent autour de sujets liés à la politique. Le lobbying est un effort plus ciblé visant à influencer la législation et la réglementation, souvent en dialoguant avec des législateurs et d’autres fonctionnaires.
Si vous pensez que les entreprises d’IA seraient disposées à plaider en faveur d’une réglementation globalement bénéfique, une collaboration avec elles pourrait pousser les gouvernements à adopter des politiques spécifiques. Il est plausible que les entreprises d’IA soient celles qui comprennent le mieux la technologie, ainsi que les risques, les mécanismes de défaillance et les voies les plus sûres — et qu’elles soient donc les mieux placées pour informer les décideurs politiques.
D’un autre côté, les entreprises d’IA pourraient avoir trop d’intérêts directs dans le contenu des réglementations pour plaider de manière fiable en faveur de politiques bénéfiques au plus grand nombre. Dans ce cas, il peut être préférable de rejoindre ou de créer des organisations de défense des intérêts sans lien avec l’industrie — éventuellement soutenues par des dons — qui peuvent adopter des positionnements opposés aux intérêts commerciaux.
Par exemple, certaines personnes estiment qu’il serait préférable de ralentir ou de stopper délibérément le développement de modèles d’IA de plus en plus puissants. Les partisans de cette mesure pourraient l’exiger des entreprises elles-mêmes ou des pouvoirs publics. Mais promouvoir cette mesure pourrait être difficile pour les personnes impliquées dans les entreprises qui créent des systèmes d’IA avancés.
Il est également possible que ce soit l’équilibre entre les perspectives internes et externes à l’industrie qui aboutisse aux meilleurs résultats.
Le plaidoyer peut aussi :
Notez toutefois que le plaidoyer peut parfois avoir des effets contraires à ceux escomptés, car il n’est pas facile de prédire comment une information sera reçue. Sachez que :
Il est important de garder ces risques à l’esprit et de consulter d’autres personnes (en particulier celles que vous respectez mais avec lesquelles vous pourriez être en désaccord sur le plan tactique). Vous devez également vous informer en profondeur sur le sujet avant de le présenter au public.
Pour en savoir plus, consultez la section causer du tort ci-dessous. Nous vous recommandons également de lire notre article sur les façons dont les personnes qui essaient de faire le bien aggravent accidentellement les choses et comment éviter cela. Enfin, il peut être utile de lire notre article sur les compétences nécessaires pour communiquer sur des idées importantes.
Étude de cas : la déclaration du Center for AI Safety
En mai 2023, le Center for AI Safety (Centre pour la sûreté de l’IA) a publié une déclaration ne comportant qu’une seule phrase : « Atténuer le risque d’extinction par l’IA devrait constituer une priorité mondiale au même titre que d’autres risques pour nos sociétés, tels que les pandémies et la guerre nucléaire. ».
Fait notable, la déclaration a été soutenue par plus de 100 signataires, dont des responsables de grandes entreprises d’IA, notamment OpenAI, Google Deepmind et Anthropic, ainsi que des chercheurs de premier plan dans le domaine, Geoffrey Hinton et Yoshua Bengio. Y figurent également un membre du Congrès américain, d’autres fonctionnaires, des économistes, des philosophes, des responsables d’entreprises etc.
Cette déclaration a attiré l’attention des médias du moment, et le Premier ministre britannique Rishi Sunak et le secrétaire de presse de la Maison Blanche ont tous deux réagi à la déclaration en exprimant leur inquiétude. Le gouvernement britannique et le gouvernement américain ont depuis lors pris des mesures pour commencer à faire face à ces risques.
La déclaration a également contribué à clarifier et à éclairer le discours sur les risques de l’IA, en montrant que s’inquiéter de catastrophes de l’ampleur de l’extinction humaine n’est pas une préoccupation marginale.
Si des mesures réglementaires pour réduire les risques de l’IA avancée sont instaurées, certaines agences et organisations extérieures devront auditer les entreprises et les systèmes pour s’assurer que les réglementations sont respectées.
Les gouvernements s’appuient souvent sur des auditeurs tiers dans le cadre de la réglementation, car ils ne disposent pas d’une grande partie de l’expertise dont dispose le secteur privé. À notre connaissance, il n’existe pas beaucoup d’opportunités dans l’audit lié à l’IA, mais ces fonctions jouent un rôle essentiel dans le cadre d’une gouvernance de l’IA efficace.
Les entreprises d’IA et les systèmes d’IA qu’elles créent peuvent faire l’objet d’audits et d’évaluations par souci de sûreté.
Une organisation à but non lucratif, Model Evaluation and Threat Research (METR, anciennement ARC Evals), a été à l’avant-garde des travaux visant à évaluer les capacités des modèles d’IA avancés.d Début 2023, l’organisation s’est associée à deux entreprises d’IA de premier plan, OpenAI et Anthropic, pour évaluer les capacités des dernières versions de leurs modèles de chatbot avant leur mise en circulation. Ils ont cherché à déterminer si les modèles avaient des capacités potentiellement dangereuses dans un environnement contrôlé.
Les entreprises ont volontairement coopéré avec le METR pour ce projet, mais à l’avenir, ces évaluations pourraient être légalement requises.
D’autres types d’audit et d’évaluation pourraient également être exigés. Le METR a déclaré qu’il avait pour projet de développer des méthodes pour déterminer quels modèles sont correctement alignés — c’est-à-dire que leur comportement est conforme aux attentes des usagers — avant leur mise sur le marché.
Les gouvernements peuvent également faire appel à des auditeurs pour évaluer la puissance de calcul à laquelle les développeurs d’IA ont accès, leurs pratiques en matière de sécurité de l’information, l’utilisation des modèles, les données utilisées pour former les modèles, etc.
Acquérir les compétences techniques et les connaissances nécessaires pour réaliser ce type d’évaluations, et rejoindre les organisations qui seront chargées de les réaliser, pourrait être le point de départ d’une carrière à fort impact. Ce type de travail devra probablement être effectué par des personnes sachant faire face à des relations complexes entre l’industrie et les pouvoirs publics. Une personne ayant de l’expérience dans les deux secteurs pourrait avoir beaucoup à apporter.
Certaines de ces fonctions peuvent se recouper avec le travail dans la recherche sur la sûreté technique de l’IA.
Si vous avez le profil adéquat, travailler à développer la coordination avec la Chine sur le développement sûr de l’IA pourrait être une carrière particulièrement forte en impact.
Le gouvernement chinois joue un rôle majeur dans le financement de l’IA, et le pays compte des entreprises technologiques géantes qui pourraient potentiellement stimuler les avancées.
Compte tenu des tensions entre les États-Unis et la Chine, et des risques posés par l’IA avancée, il y a beaucoup à gagner à accroître la confiance, la compréhension et la coordination entre les deux pays. Le monde se portera probablement beaucoup mieux si nous pouvons éviter un conflit entre grandes puissances et si les acteurs les plus importants des technologies émergentes peuvent éviter d’aviver tout risque mondial.
Nous avons écrit une revue de carrière distincte qui explore plus en profondeur les voies liées à la sûreté et la gouvernance de l’IA en relation avec la Chine.
Comme indiqué précédemment, notre attention porte principalement sur la politique des États-Unis et les rôles des gouvernements. Cela s’explique en grande partie par le fait que nous pensons que les États-Unis sont aujourd’hui l’acteur le plus important en matière de réglementation de l’IA et qu’ils continueront probablement à l’être, quoique la Chine puisse faire exception, comme évoqué dans la section précédente.
Mais de nombreuses personnes souhaitant travailler sur cette question ne peuvent pas ou ne veulent pas travailler sur la politique américaine — peut-être parce qu’elles vivent dans un autre pays et n’ont pas l’intention de déménager.
Une grande partie des conseils ci-dessus reste valable pour ces personnes, car il est possible de jouer un rôle dans la recherche et la défense de la gouvernance de l’IA en dehors des États-Unise. Et bien que nous ne pensions pas que cela ait généralement un impact attendu aussi élevé que le fait de travailler pour le gouvernement américain, les opportunités offertes par d’autres gouvernements et organisations internationales peuvent être complémentaires au travail à effectuer aux États-Unis.
Le Royaume-Uni, par exemple, pourrait receler d’excellentes possibilités de travailler sur la politique de l’IA en complément du travail mené aux États-Unis. De hauts responsables britanniques ont exprimé leur intérêt pour l’élaboration d’une politique de l’IA, une nouvelle agence internationale et la réduction des risques existentiels. Et le gouvernement britannique a annoncé en 2023 la création d’un groupe de travail sur les modèles d’IA de fondation pour faire avancer la recherche sur la sûreté.
L’Union européenne a démontré que ses normes de protection des données — le Règlement général sur la protection des données (RGPD) — affectent le comportement des entreprises bien au-delà de ses frontières géographiques. Les responsables de l’UE ont également fait avancer la réglementation de l’IA, et certaines recherches ont exploré l’hypothèse selon laquelle l’impact des réglementations de l’UE en matière d’IA s’étendra bien au-delà du continent — ce que l’on appelle l’« effet Bruxelles ».
En outre, tout pays relativement riche pourrait financer une partie de la recherche en sûreté de l’IA, bien qu’une grande partie de cette recherche nécessite de disposer des meilleures compétences et d’une technologie de pointe. Toute avancée significative dans la recherche en sûreté de l’IA pourrait orienter la recherche portant sur les modèles les plus puissants.
D’autres pays pourraient également élaborer des critères de responsabilité pour les concepteurs de systèmes d’IA, ce qui inciterait les entreprises à faire preuve de prudence avant de mettre des modèles sur le marché.
Enfin, à terme, des traités sur l’IA et des réglementations internationales pourraient voir le jour, tout comme la communauté internationale a créé l’Agence internationale de l’énergie atomique, la Convention sur les armes biologiques et le Groupe d’experts intergouvernemental sur l’évolution du climat afin de coordonner et d’atténuer d’autres menaces planétaires catastrophiques.
Les efforts visant à inciter les gouvernements du monde entier à appréhender et à partager les informations relatives aux menaces posées par l’IA pourraient s’avérer extrêmement importants dans certains scénarios futurs. L’Organisation de coopération et de développement économiques, par exemple, a déjà créé l’Observatoire des politiques d’IA.
Des pays tiers pourraient également être en mesure de faciliter la coopération et de réduire les tensions entre les États-Unis et la Chine, tant au niveau de l’IA que d’autres sujets sensibles potentiels.
Les personnes travaillant dans la politique de l’IA ont proposé une série d’approches visant à réduire les risques à mesure que les systèmes d’IA deviennent plus puissants.
Nous n’approuvons pas nécessairement toutes les idées présentées ci-dessous, mais voici une liste d’approches politiques importantes qui pourraient viser à réduire les plus grands dangers liés à l’IA :f
Les détails, les avantages et les inconvénients de bon nombre de ces idées n’ont pas encore été entièrement définis. Il est donc essentiel que nous poursuivions nos recherches et que nous obtenions davantage de contributions de la part de parties prenantes bien informées. Et cette liste n’est pas exhaustive — il existe probablement d’autres interventions politiques et stratégies de gouvernance importantes qui méritent d’être poursuivies.
Vous pouvez également consulter une liste d’idées politiques potentielles de Luke Muehlhauser d’Open Philanthropy,i un article sur les propositions politiques en matière d’IAG de Dylan Matthews de Vox, et une enquête d’opinion d’experts sur les meilleures pratiques en matière de sûreté de l’IA et de gouvernance.

Helen a suivi des études d’ingénieur avant d’obtenir un poste de chercheur à GiveWell, puis à Open Philanthropy. Elle a ensuite exploré quelques domaines d’action et a finalement déménagé à Pékin pour se former sur les intersections entre la Chine et l’IA. Lorsque le Center for Security and Emerging Technology (CSET) a été fondé, elle a été recrutée pour participer à la mise en place de l’organisation. Depuis, le CSET est devenu un groupe de réflexion de premier plan à Washington au sujet de l’intersection des technologies émergentes et de la sécurité nationale.

Ben a été diplômé de Yale en 2016, où il s’est spécialisé dans la physique, les mathématiques et la philosophie. Après avoir obtenu son diplôme, Ben est devenu chercheur au Centre for Effective Altruism, puis a rejoint le Centre for the Governance of AI, dont il est devenu le directeur. Vous pouvez regarder ici si GovAI recrute.
Si vous êtes en début de carrière, vous devriez d’abord vous concentrer sur l’obtention de compétences et d’un capital professionnel pour contribuer avec succès à une bonne gouvernance et réglementation de l’IA.
Il existe plusieurs manières d’acquérir du capital professionnel. D’une manière générale, travailler ou étudier dans des domaines tels que la politique, le droit, les relations internationales, la communication et l’économie peut être un atout pour intégrer le secteur politique.
Une expertise dans le domaine de l’IA elle-même, acquise en étudiant et en travaillant dans l’apprentissage automatique et la sûreté technique de l’IA, ou dans des domaines potentiellement connexes tels que le matériel informatique et la sécurité de l’information, devrait également vous conférer un avantage considérable.
Essayez de trouver des tests qui soient relativement « peu coûteux » pour évaluer votre adéquation avec différentes voies. Vous pourriez, par exemple, suivre un stage en politique, postuler à une bourse, effectuer une courte période de recherche indépendante ou suivre des cours sur l’apprentissage automatique ou l’ingénierie informatique.
Vous pourriez également vous entretenir avec des personnes exerçant un certain emploi et découvrir l’expérience quotidienne du travail et les compétences requises.
Tous ces facteurs peuvent être difficiles à prévoir à l’avance. Bien que nous ayons regroupé le « travail gouvernemental » dans une seule catégorie ci-dessus, cette étiquette couvre un large éventail de rôles. Trouver le bon poste peut prendre des années, et cela peut dépendre de facteurs indépendants de votre volonté, tels que les collègues avec lesquels vous travaillez en étroite collaboration. C’est l’une des raisons pour lesquelles il est utile de se constituer un capital professionnel de bonne qualité qui vous offre davantage d’options.
Ne sous-estimez pas l’intérêt de postuler à de nombreux postes pertinents dans le domaine et le secteur que vous visez pour évaluer les résultats. Cette stratégie vous exposera probablement à de nombreux rejets, mais vous serez en mesure de mieux évaluer votre adéquation aux postes en voyant votre progression dans les processus de recrutement. Cela peut vous apporter plus d’informations que d’essayer de deviner si vous avez l’expérience requise.
Essayez d’exclure certains types d’emplois si vous avez la preuve que vous ne correspondez pas bien à la situation. Par exemple, si vous investissez beaucoup d’efforts pour essayer d’entrer dans des universités réputées ou des organismes à but non lucratif pour faire de la recherche sur la gouvernance de l’IA, mais que vous ne recevez aucune offre prometteuse et peu d’encouragements, cela pourrait être un signal important que vous avez peu de chances de réussir et de vous épanouir dans cette voie.
Cela ne signifie pas que vous n’avez rien à apporter, mais que votre avantage comparatif peut se situer ailleurs.
La gouvernance de l’IA nécessite un mélange de personnes ayant une expertise technique et politique — et certaines personnes qui possèdent les deux.
Bien que toute personne impliquée dans ce domaine doive entretenir une compréhension des détails techniques et politiques, vous commencerez probablement par vous concentrer sur les compétences soit politiques soit techniques afin d’obtenir un capital professionnel.
Cette section couvre :
La plupart de ces conseils sont axés sur les emplois aux États-Unis, mais ils peuvent s’avérer pertinents dans d’autres contextes.
Le chapitre du Guide Carrière de 80 000 Hours consacré au capital professionnel énumère cinq éléments clés qui seront utiles dans n’importe quel parcours : les compétences et connaissances, le réseau, les diplômes, la personnalité et le matelas de sécurité.
Pour la plupart des emplois liés à la politique, les compétences sociales, le réseau et les compétences — faute d’un meilleur terme — politiques seront un atout majeur. Ce sont des choses qu’on peut probablement acquérir dans une certaine mesure, mais certaines personnes risquent de découvrir qu’elles ne possèdent pas ce type de compétences et qu’elles ne peuvent pas ou ne veulent pas les acquérir.
Ce n’est pas grave : il existe de nombreuses autres voies pour mener une carrière épanouissante et ayant un fort impact, et certains postes au sein de cette voie peuvent nécessiter ces compétences dans une bien moindre mesure. C’est pourquoi il est important de tester votre adéquation.
Pour acquérir des compétences en matière de politique, vous pouvez vous former dans de nombreux domaines pertinents, tels que les sciences politiques, l’économie et le droit.
De nombreux cursus de master proposent des cours spécifiques sur les politiques publiques, la science et la société, la sécurité, les relations internationales et autres ; le fait d’être titulaire d’un diplôme d’études supérieures ou d’un diplôme de droit vous donnera une longueur d’avance pour de nombreux postes.
Aux États-Unis, un master, un diplôme de droit ou un doctorat sont particulièrement utiles pour gravir les échelons de la bureaucratie fédérale. Notre article sur les masters en politique américaine fournit des informations détaillées sur la manière d’évaluer ces nombreuses options.
Les stages à Washington sont intéressants pour tester votre adéquation avec la politique et obtenir un capital professionnel. De nombreux établissements d’enseignement supérieur proposent désormais un programme stratégique de « Semestre à Washington », qui vous permet d’explorer les possibilités de stages au Congrès, dans les agences fédérales ou dans les groupes de réflexion.
Le Virtual Student Federal Service (VSFS) propose également des stages gouvernementaux à distance et à temps partiel. Ce programme permet aux élèves de travailler parallèlement à leurs études.
Une fois que vous aurez acquis une formation adéquate, vous pourrez occuper des emplois de premier échelon dans certains secteurs du gouvernement et vous constituer un réseau professionnel tout en développant des compétences clés. Aux États-Unis, vous pouvez devenir membre du personnel du Congrès ou occuper un poste dans un service fédéral compétent, tel que le ministère du commerce, le ministère de l’énergie ou le ministère des affaires étrangères. Vous pouvez également acquérir de l’expérience au sein de groupes de réflexion(une option particulièrement prometteuse si vous avez des aptitudes pour la recherche). Certaines entreprises publiques peuvent également constituer une option intéressante.
On dit souvent que Washington a une culture particulière, notamment pour les personnes qui travaillent au sein ou autour du gouvernement fédéral. Le réseautage, la politique bureaucratique, la recherche de statut et le trafic d’influence y tiennent une place prépondérante. Nous avons aussi entendu dire que si le mérite compte dans une certaine mesure dans la fonction publique américaine, il n’est pas le principal déterminant de la réussite. Les personnes qui pensent ne pas pouvoir être dans ce type d’environnement à long terme ou ne pas s’y sentir à l’aise devraient se demander si d’autres voies ne seraient pas préférables.
Si vous aimez le travail gouvernemental et politique, que vous impressionnez vos collègues et que vous progressez dans votre carrière, il se peut que vous soyez un bon candidat. Le simple fait de réussir et de s’épanouir dans le travail gouvernemental peut constituer un avantage comparatif précieux. **Citoyenneté américaine
La citoyenneté américaine Votre citoyenneté peut influencer les possibilités qui vous sont offertes. Bon nombre des fonctions de gouvernance de l’IA les plus importantes aux États-Unis — en particulier au sein de l’exécutif et du Congrès — ne sont ouvertes qu’aux ressortissants américains, ou du moins les favorisent fortement. Tous les postes clés en matière de sécurité nationale qui pourraient être particulièrement importants seront réservés aux personnes disposant de la nationalité américaine, qui est requise pour obtenir une habilitation de sécurité.
Cela signifie que les personnes qui n’ont pas la nationalité américaine devront envisager de ne pas occuper les postes qui l’exigent. Elles peuvent aussi envisager de s’installer aux États-Unis et de poursuivre le long processus d’acquisition de la citoyenneté. Pour plus de détails sur les voies d’immigration et les types de travail politique accessibles aux personnes n’ayant pas la nationalité américaine, voir cet article sur travailler dans la politique américaine en tant que ressortissant étranger. Vous pouvez également envisager de participer à la loterie annuelle des visas de diversité si vous êtes originaire d’un pays éligible : cela ne demande que peu d’efforts et peut vous permettre, si vous avez de la chance, de décrocher une carte verte américaine.
L’expérience technique en matière d’apprentissage automatique, de matériel d’IA et de domaines connexes peut constituer un atout précieux pour une carrière dans la gouvernance de l’IA. Il sera donc très utile d’avoir étudié dans un domaine pertinent dans le cadre d’un diplôme de premier ou de deuxième cycle, ou d’avoir suivi un programme d’études indépendant particulièrement productif.
Nous proposons un guide des carrières en sûreté technique de l’IA, qui explique comment apprendre les bases de l’apprentissage automatique.
Travailler dans une entreprise ou un laboratoire d’IA dans des postes techniques, ou dans d’autres entreprises qui utilisent des systèmes et du matériel d’IA avancés, peut également fournir un capital professionnel conséquent pour le travail politique en lien avec l’IA. Lisez notre étude de carrière qui discute des avantages et des inconvénients de travailler dans une entreprise d’IA de premier plan.
Nous avons également publié une revue de carrière qui affirme que devenir spécialiste en matériel d’IA pourrait s’avérer très utile dans le domaine de la gouvernance de l’IA.
De nombreux responsables politiques et législateurs sont des généralistes, car leurs fonctions les amènent à travailler dans de nombreux domaines et sur différents types de problèmes. Cela signifie qu’ils devront s’appuyer sur des connaissances spécialisées lorsqu’ils élaboreront et mettront en œuvre des politiques relatives à des technologies d’IA qu’ils ne comprennent pas entièrement. Par conséquent, si vous pouvez leur fournir ces informations, en particulier si vous êtes capable de les communiquer clairement, vous pouvez potentiellement jouer un rôle influent.
Certaines personnes qui étaient initialement intéressées par une carrière dans la sûreté technique de l’IA, mais qui ont constaté qu’elles n’étaient plus intéressées par cette voie ou qui ont trouvé des opportunités politiques plus prometteuses, pourraient également décider de se tourner vers une carrière politique.
Il est courant pour les personnes ayant une formation STIM de s’engager et de réussir dans des carrières politiques américaines. Les personnes ayant des diplômes techniques qu’elles peuvent considérer comme assez modestes — comme une licence en informatique ou une maîtrise en apprentissage automatique — trouvent souvent que leurs connaissances sont très appréciées à Washington.
La plupart des emplois à Washington n’exigent pas de diplôme spécifique. Il n’est donc pas indispensable d’ être titulaire d’un diplôme en politique pour travailler à Washington. Les postes portant spécifiquement sur la politique scientifique et technologique conviennent particulièrement bien aux personnes ayant une formation technique, et les personnes qui recrutent pour ces postes valoriseront des diplômes plus élevés tels qu’un master ou, mieux encore, un doctorat ou un diplôme de médecine.
Il existe de nombreux programmes de bourses visant spécifiquement à aider les personnes ayant une formation STIM à entrer dans des carrières politiques ; certains sont énumérés ci-dessous.
Le travail politique ne convient pas à tout le monde — de nombreux experts techniques peuvent ne pas avoir la bonne prédisposition ou les bonnes compétences. Les personnes qui s’engagent dans la voie de la politique ont souvent intérêt à posséder de solides compétences rédactionnelles et sociales, à être à l’aise dans la bureaucratie et à travailler avec des personnes ayant des motivations et des visions du monde très différentes.

Ernest Moniz a commencé sa carrière en tant que physicien, devenant professeur au MIT dans les années 1970. Il a acquis de l’expérience de gestion en tant que chef de département et dirigeant du conseil de recherche du MIT. Dans les années 1990, il a occupé le poste de directeur associé pour la science au sein du bureau de la politique scientifique et technologique de la Maison-Blanche.
Il est ensuite devenu sous-secrétaire au ministère de l’Énergie, ce qui lui a permis d’accéder au poste de secrétaire à l’Énergie sous la présidence de Barack Obama — un poste très influent où il a mis à profit son expertise technique dans les négociations internationales sur les armes nucléaires.
L’exemple de Moniz montre à quel point une personne ayant une formation technique peut influencer le secteur politique — mais bien sûr, il n’est pas nécessaire d’être professeur au MIT ou de diriger une agence fédérale pour avoir un fort impact.
Il existe d’autres façons d’acquérir un capital professionnel utile qui pourrait s’appliquer à ce plan de carrière.
Puisqu’il s’agit de l’un de nos parcours prioritaires, si vous pensez qu’il s’agit d’une option intéressante pour vous, nous apprécierions particulièrement de pouvoir vous conseiller individuellement sur les prochaines étapes. Nous pouvons vous aider à examiner vos options, à établir des liens avec d’autres personnes travaillant dans le même domaine, et peut-être même vous aider à trouver un emploi ou des possibilités de financement.
Étant donné qu’une gouvernance de l’IA réussie nécessitera des efforts de la part des gouvernements, de l’industrie et d’autres parties, de nombreux emplois potentiels et lieux de travail s’offrent aux personnes qui s’engagent sur cette voie. Le paysage évoluera probablement au fil du temps, de sorte que si vous débutez dans ce domaine, les sites qui semblent les plus importants pourraient avoir changé au moment où vous commencerez à utiliser votre capital professionnel pour contribuer à faire avancer les choses.
Au sein du gouvernement américain, par exemple, on ne sait pas exactement quels organismes auront le plus fort impact en matière de politique de l’IA dans cinq ans. Cela dépendra probablement des choix qui seront faits d’ici là.
Cela dit, il semble pertinent de présenter notre point de vue sur les organes gouvernementaux les plus influents en matière de gouvernance technologique et les plus impliqués à l’heure actuelle, afin de vous aider à vous orienter. L’acquisition d’expérience en matière d’IA au sein du gouvernement devrait vous être utile si vous souhaitez accéder à un rôle à plus fort impact lorsque les domaines à impact seront mieux identifiés.
Nous partagerons également notre opinion sur les sites importants en dehors du gouvernement où vous pourriez être en mesure de développer votre capital professionnel et d’avoir un fort impact.
Notez que cette liste donne beaucoup plus de détails sur les lieux de travail situés au sein du gouvernement américain. Nous aimerions l’élargir pour y inclure davantage d’options au fil du temps. (Remarque : le fait qu’une option ne figure pas sur cette liste ne signifie pas que nous la déconseillons, ni même qu’elle aurait nécessairement un impact moins fort que les autres.)
Vous trouverez plus de détails sur d’autres options dans des revues de carrière distinctes (et plus anciennes), notamment les suivantes :
Voici quelques-uns des endroits où il est possible d’effectuer un travail prometteur ou d’acquérir un capital professionnel précieux :
Au Congrès, vous pouvez travailler soit directement pour les législateurs eux-mêmes, soit en tant que membre du personnel des commissions législatives. Les postes d’assistant au sein des commissions ont généralement plus d’influence sur la législation et sont plus prestigieux, mais pour cette raison, ils sont plus compétitifs. Si vous n’avez pas beaucoup d’expérience, vous pouvez débuter par un emploi de premier échelon auprès d’un législateur, puis essayer d’obtenir un poste au sein d’une commission.
Certaines personnes à qui nous avons parlé estiment que les commissions suivantes — et certaines de leurs sous-commissions — de la Chambre des représentants et du Sénat soient celles qui ont le plus d’impact dans le domaine de l’IA. Vous pourriez chercher à travailler au sein de ces commissions ou pour des législateurs qui ont une influence significative sur elles.
Chambre des représentants
Sénat
Le Congressional Research Service, une agence législative non partisane, offre également la possibilité de mener des recherches qui peuvent avoir un fort impact sur l’élaboration des politiques dans tous les domaines.
En général, il est déconseillé d’accepter des postes subalternes au sein de l’exécutif pour ce parcours, car il est très difficile de faire progresser sa carrière dans la bureaucratie à ce niveau. Il est préférable d’obtenir un diplôme de droit ou un diplôme d’études supérieures adéquat, qui vous permettra de commencer à un poste plus avancé.
L’influence des différentes agences sur la réglementation de l’IA peut évoluer au fil du temps. Par exemple, fin 2023, le gouvernement fédéral a annoncé la création de l’Institut américain de sécurité de l’intelligence artificielle, qui pourrait être un lieu de travail particulièrement prometteur.
Quelle que soit l’agence la plus influente à l’avenir, il sera utile d’accumuler du capital professionnel en travaillant efficacement au sein du gouvernement, en tissant un réseau professionnel, en se familiarisant avec le travail politique quotidien et en approfondissant ses connaissances sur tout ce qui touche à l’IA.
Nous avons beaucoup d’incertitudes sur ce sujet, mais voici quelques-unes des agences qui pourraient avoir une influence significative sur au moins une dimension clé de la politique de l’IA à l’heure où nous écrivons ces lignes :
Vous pouvez consulter les offres d’emploi de ces ministères et agences sur le site du gouvernement fédéral, USAJOBS ; une liste plus détaillée des postes à fort impact et fort capital professionnel se trouve sur le tableau d’offres d’emploi de 80 000 Hours.
Nous ne recommandons pas pour le moment d’essayer de rejoindre le gouvernement américain via l’armée si vous visez une carrière dans la politique de l’IA. Il y a de nombreux niveaux d’ancienneté à gravir, les places sont disputées, et au départ, vous devez passer tout votre temps à faire un travail qui n’a rien à voir avec l’IA.
Toutefois, le fait d’avoir déjà une expérience militaire peut offrir un capital professionnel précieux pour d’autres postes importants au sein du gouvernement, en particulier pour les postes liés à la sécurité nationale. Nous pensons que ce parcours est plus intéressant pour le personnel militaire qui a fréquenté une académie militaire d’élite, telle que West Point, ou pour les officiers brevetés de grade O-3 ou supérieur.
Les bourses d’études politiques sont l’une des meilleures voies d’accès au travail politique. Elles offrent de nombreux avantages, tels qu’une expérience directe de la politique, un financement, une formation, une supervision et un réseau. Si nombre d’entre elles requièrent de hauts diplômes, certaines sont ouvertes aux personnes disposant d’un diplôme de premier cycle.
(Lisez notre revue de carrière sur les avantages et les inconvénients de travailler dans une entreprise d’IA de premier plan.)
Notre tableau d’offres d’emploi propose des opportunités dans le domaine de la sûreté de l’IA:
Comme nous l’expliquons dans notre article sur les dommages involontaires, il existe de multiples manières de nuire à un nouveau domaine dans lequel vous travaillez alors que vous essayez de faire le bien, et cela peut signifier que votre impact est négatif plutôt que positif. (Vous pouvez également lire notre article sur les carrières nocives.)
Il est très possible de causer du tort par inadvertance dans le domaine émergent de la gouvernance de l’IA. Nous avons évoqué certaines possibilités dans la section plaidoyer et lobbying. Voici d’autres possibilités :
Nous devons agir avec des informations incomplètes, et il se peut donc que l’on ne sache jamais très bien quand ou si les personnes chargées de la gouvernance de l’IA tombent dans ces pièges. Le fait d’avoir conscience qu’il s’agit de moyens potentiels de causer du tort vous aidera cependant à faire attention à ces possibilités, et vous devriez rester ouvert à un éventuel changement de cap si vous trouvez des preuves que vos actions peuvent être préjudiciables.
Nous recommandons aussi de garder à l’esprit les conseils généraux suivants, tirés de notre article sur les dommages involontaires :
Nous pensons que ce travail est exceptionnellement urgent et précieux, et nous encourageons donc les personnes qui pourraient être intéressées à tester leur adéquation avec le domaine de la gouvernance. Mais il peut être particulièrement difficile d’entrer dans l’administration publique. Certaines personnes que nous avons conseillées se sont lancées dans la politique avec l’espoir d’avoir un fort impact, avant de finir par s’épuiser et de passer à autre chose.
En même temps, de nombreux décideurs politiques trouvent leur travail très utile, intéressant et varié.
Certaines fonctions au sein du gouvernement peuvent être particulièrement exigeantes pour les raisons suivantes :
Nous vous recommandons donc de parler à des personnes qui occupent le type de postes que vous pourriez viser afin de vous faire une idée de la pertinence de cette carrière pour vous. Et si vous décidez de poursuivre dans cette voie, soyez attentif aux signes indiquant que ce travail peut avoir un impact négatif sur vous et cherchez le soutien de personnes qui comprennent ce qui vous tient à cœur.
Si vous finissez par vouloir ou devoir quitter votre travail et vous engager dans une nouvelle voie, ce n’est pas nécessairement une perte ou un motif de regret. Vous établirez probablement des liens importants et obtiendrez beaucoup d’informations et de compétences utiles. Ce capital professionnel peut vous être utile lors de votre transition vers un autre poste, peut-être en poursuivant une approche complémentaire de la gouvernance de l’IA.
Les risques posés par l’IA nous préoccupent depuis des années. En nous appuyant sur les arguments selon lesquels cette technologie pourrait potentiellement provoquer une catastrophe planétaire, et avoir par ailleurs un impact dramatique sur les générations futures, nous avons conseillé à de nombreuses personnes de s’efforcer d’atténuer ces risques.
Nous pensons que les arguments en faveur du risque ne sont pas totalement concluants. Mais ils méritent d’être pris au sérieux et, compte tenu du fait que peu de personnes dans le monde semblaient consacrer beaucoup de temps à déterminer l’ampleur de la menace ou les moyens de l’atténuer (alors que, dans le même temps, les progrès réalisés pour rendre les systèmes d’IA plus puissants s’accéléraient), nous avons conclu qu’il valait la peine de classer cette question parmi nos priorités principales.
Maintenant que l’IA fait l’objet d’une attention accrue, certains pourraient en conclure qu’elle est moins négligée et qu’il est donc moins urgent de s’y intéresser. Toutefois, l’attention accrue portée à l’IA augmente le potentiel d’amélioration de nombreuses interventions, car les décideurs politiques et d’autres acteurs sont plus ouverts à l’idée d’élaborer des réglementations en matière d’IA.
Et si l’on accorde désormais plus d’attention à l’IA, il n’est pas certain que cette attention se concentre sur les risques les plus importants. Il y a donc probablement encore une large marge de manœuvre pour que des travaux importants et urgents façonnent positivement l’élaboration de la politique en matière d’IA.
Si cette carrière vous intéresse, nous vous recommandons de consulter les articles suivants.
US policy master’s degrees (Les diplômes de master en politique américaine)
Ces qualifications sont très précieuses pour les personnes qui espèrent occuper des postes importants au sein du gouvernement fédéral américain.
Working in US AI policy (Travailler dans la politique de l’IA américaine)
Le gouvernement américain est susceptible d’être un acteur clé dans la façon dont l’IA avancée est développée et utilisée dans la société, que ce soit directement ou indirectement.
Should you work at a frontier AI company? - Career review (Devriez-vous travailler dans une entreprise d’IA de pointe ?)
Travailler dans une entreprise d’IA de pointe est une option de carrière importante à envisager, mais l’impact d’un poste donné est complexe à évaluer.
Prévenir une catastrophe liée à l’intelligence artificielle (Prévenir une catastrophe liée à l’IA)
L’IA pourrait être source d’énormes bienfaits — à condition d’en éviter les risques.
Vous envisagez d’autres voies ? Consultez notre liste des carrières à fort impact selon nos recherches.