Pour aller plus loin sur « Les risques de l’intelligence artificielle »

par Centre for Effective Altruism
Risque de l'IA

Le développement de l’intelligence artificielle

  • AlphaGo — Un documentaire explorant ce que l’intelligence artificielle peut révéler sur le jeu de Go, vieux de 3000 ans, et ce que cela peut nous apprendre sur le potentiel futur de l’intelligence artificielle. (Vidéo — 1 heure 30 mins.)
  • The artificial intelligence revolution: Part 1 — Une exploration amusante et intéressante de l’intelligence artificielle par le célèbre blogueur Tim Urban. (45 mins.)

Autres ressources sur l’alignement de l’intelligence artificielle

  • AI Safety Fundamentals Curricula
  • My personal cruxes for working on AI safety (65 mins.)
  • Resources I send to AI researchers about AI safety (13 min)
  • Stuart Russell on the flaws that make today’s AI architecture unsafe and a new approach that could fix it (Podcast — 2 heures 15 mins.)
  • Some background on our views regarding advanced artificial intelligence — Une explication des raisons pour lesquelles il existe une sérieuse possibilité que les progrès de l’intelligence artificielle précipitent une transition comparable aux révolutions néolithique et industrielle. (1 heure)
  • How might we align transformative AI if it’s developed very soon? (53 mins.)
  • The Precipice, chap. 5 — Intelligence artificielle non alignée (25 mins.)
  • What failure looks like (12 mins.) — Deux scénarios spécifiques sur ce que pourrait être un échec très grave de l’alignement de l’IA à l’échelle de la société, qui diffèrent considérablement du scénario classique de « l’explosion de l’intelligence ».
  • AGI safety from first principles (1 heure 15 mins.) — le point de vue d’un chercheur en IA sur les facteurs spécifiques au problème de l’alignement de l’IA générale
  • Human Compatible (Livre)
  • The Alignment Problem (Livre)

Gouvernance de l’intelligence artificielle

  • The new 30-Person research group in DC investigating how emerging technologies could affect national security — Comment la sécurité internationale pourrait-elle être modifiée si l’impact de l’apprentissage automatique est similaire à celui de l’électricité ? (Podcast — 2 heures)
  • Technology Roulette — Un argument sur la façon dont les progrès de la technologie militaire (y compris, mais sans s’y limiter, l’IA) peuvent entraver la prise de décisions pertinentes et créer des risques, exigeant ainsi une plus grande attention de la part de l’establishment de la sécurité nationale. (60 mins.)

Travail technique sur l’alignement de l’IA

  • Current work in AI alignment (Vidéo — 30 mins.)
  • AI safety starter pack (7 mins.)
  • How to pursue a career in technical AI alignment (59 mins.)
  • Technical Alignment Curriculum (lectures pour un cours de 7 semaines)
  • L’Alignment Forum, notamment les core sequences

Critiques des inquiétudes liées aux risques de l’IA

  • How sure are we about this AI stuff? (26 minutes)
  • A tale of 2.5 orthogonality theses (20 minutes)
  • Counterarguments to the basic AI x-risk case (41 minutes)
  • My highly personal skepticism braindump on existential risk from artificial intelligence (17 minutes)
  • New article from Oren Etzioni (résumé, 2 minutes)
  • The AI messiah (et le premier commentaire) (5 minutes)
  • How good is humanity at coordination? (4 minutes)

Publication originale : Centre for Effective Altruism (2022) More to explore on “Risks from artificial intelligence”, Effective Altruism Forum, 14 juillet.

Traduction de : Baptiste Roucau.