Grand Filtre
Le Grand Filtre est le mécanisme permettant d’expliquer pourquoi la matière insensible de l’univers évolue rarement vers une intelligence technologiquement avancée.
Le processus hypothétique qui mène de la matière primitive à la maturité technologique peut être perçu comme une série de transitions critiques. Notre incapacité à identifier une intelligence extraterrestre — parfois appelée le « Grand silence » — laisse supposer l’existence d’un Grand Filtre à un moment ou à un autre de la chaîne. Les théoriciens du Grand Filtre, tels que Robin Hanson, soulignent que l’emplacement du Filtre dans cette séquence a des implications pour les perspectives de survie à long terme de l’humanité. En particulier, si le Grand Filtre se situe dans le futur, notre espèce échouera presque certainement à coloniser une grande partie de l’univers. Pour reprendre les termes de Hanson, « plus il a été facile pour la vie d’évoluer jusqu’à notre stade, plus il est probable que nos chances futures soient faibles »1.
Les Grands Filtres suivants constituent de bons candidats :2
Notez que cette liste de filtres n’est pas nécessairement exhaustive. Les filtres ne s’excluent pas non plus mutuellement — il peut y avoir plusieurs Grands Filtres.
Les découvertes portant sur l’emplacement du Grand Filtre ont plusieurs implications distinctes pour la priorisation des causes, en particulier en relation avec la réduction du risque existentiel.
Conclure que le Grand Filtre se situe dans le futur peut laisser penser que les efforts de réduction du risque existentiel devraient être accrus. Comme l’écrit Hanson, « plus le filtre à venir est vaste, plus l’humanité devrait s’efforcer d’éviter les scénarios négatifs »3. Par ailleurs, la réduction des risques existentiels posés par le Grand Filtre peut être considérée comme insoluble, étant donné que, par hypothèse, aucune civilisation n’a réussi jusqu’à présent à éviter d’y succomber. Pour reprendre les termes de Nick Bostrom, « si le Grand Filtre reste à venir, nous devons abandonner tout espoir de coloniser un jour la galaxie ; et nous devons craindre que notre aventure se termine bientôt, ou en tout cas qu’elle touche à sa fin prématurément »4. Le plus surprenant serait de considérer un futur Grand Filtre -et une augmentation proportionnelle de la probabilité attribuée à une catastrophe existentielle- qui ne justifierait ni de prioriser ni de déprioriser les investissements marginaux visant à sécuriser le potentiel à long terme de notre espèce.
Supposons que nous accordions un certain crédit à l’hypothèse selon laquelle le Grand Filtre reste à venir. Une telle attribution devrait nous amener à donner la priorité non seulement à la réduction des risques existentiels, mais aussi à la réduction de certains risques existentiels par rapport à d’autres. En effet, toutes les causes potentielles d’une catastrophe existentielle ne sont pas également candidates à constituer un Grand Filtre.
Tout d’abord, le futur Grand Filtre en question doit être suffisamment puissant pour détruire non seulement l’humanité proprement dite, mais aussi toutes les autres civilisations atteignant un certain stade de développement. Comme l’écrit Bostrom, « les catastrophes naturelles telles que les impacts d’astéroïdes et les éruptions supervolcaniques sont de mauvais candidats au Grand Filtre, car même si elles détruisaient un nombre important de civilisations, nous nous attendrions à ce que certaines civilisations passent à travers les mailles du filet ; et certaines de ces civilisations pourraient alors continuer à coloniser l’univers. Les risques existentiels les plus susceptibles de constituer un Grand Filtre sont peut-être ceux qui découlent des découvertes technologiques »5 a.
Deuxièmement, le futur Grand Filtre doit être compatible avec les preuves observationnelles. Un événement catastrophique dont on s’attend à ce qu’il laisse des traces visibles depuis l’espace a peu de chances d’être un futur Grand Filtre, puisque nous ne semblons pas observer de telles traces. Ainsi, il semble qu’une explosion d’intelligence ne soit probablement pas le Grand Filtre, puisque l’univers (à l’exclusion de la Terre) semble être dépourvu non seulement de vie intelligente, mais aussi des signes d’une explosion antérieure qui aurait pu détruire une telle vieb.
Troisièmement, le futur Grand Filtre doit être compatible avec l’existence d’observateurs humains. Le Grand Filtre doit être suffisamment puissant pour empêcher des espèces intelligentes comme nous de se transformer en une civilisation spatiale. Mais il ne peut être assez puissant pour empêcher notre propre existence, puisque nous sommes vivants. Comme le note Katja Grace, « tout désastre qui détruirait en même temps tous les habitants de l’univers observable, ou qui détruirait l’espace lui-même, est exclu »6.
Il existe une deuxième raison pour laquelle le Grand Filtre devrait nous inciter à nous préoccuper tout particulièrement de certaines catastrophes existentielles. Hanson écrit que « en l’absence de telles découvertes, nous devons envisager la possibilité que nous n’ayons pas encore atteint une part substantielle du Grand Filtre. Si tel est le cas, nos perspectives sont sombres, mais connaître ce fait peut au moins nous aider à améliorer nos chances de survie »7. Le simple fait de savoir que le Grand Filtre reste à venir ne peut cependant pas augmenter substantiellement nos chances d’y survivre, puisqu’une fraction non négligeable de civilisations comme la nôtre ont probablement aussi développé cette conscience, sans pour autant parvenir à survivre. En règle générale, plus on s’attend à ce qu’une stratégie de réduction des risques soit répandue dans les civilisations, plus on doit être pessimiste quant à ses chances de réussite. La priorité doit donc être donnée aux stratégies dont on attend qu’elles soient très peu courantes. Comme l’écrit Carl Shulman, « le simple fait que nous adoptions une prétendue stratégie S d’évitement des filtres est une preuve solide que cette stratégie ne fonctionnera pas… Pour pouvoir s’attendre à ce que S fonctionne, il faudrait être très confiants dans le fait qu’il est très inhabituel d’adopter S (ou toute autre stratégie aussi bonne que S), et penser que S est très valable en soi. Ces conditions pourraient être remplies si c’était seulement par un hasard bizarre que S devenait possible, et une stratégie pourrait accroître nos chances même si nous serions toujours presque certains d’échouer ; mais des facteurs ordinaires, tels que la conscience du Grand Filtre, ne suffiraient pas à prévenir les filtres futurs. »8
Une dernière conséquence du Grand Filtre sur la priorisation des causes concerne la priorisation des différents types de recherche. En particulier, cette considération semble amener à favoriser la priorisation de la recherche ayant le potentiel de mieux localiser le Grand Filtre, étant donné la haute valeur informative de ce type de recherche. Les deux types de recherche les plus évidents sont (1) la recherche nous aidant à définir la sphère des candidats au Grand Filtre et (2) la recherche nous aidant à estimer la probabilité que l’un de ces candidats soit, de fait, le Grand Filtre. De manière plus générale, cette considération rehausse la valeur de disciplines telles que l’astrobiologie et de projets tels que le SETI9.
Nick Bostrom (2008) Where are they?, MIT Technology Review, 22 avril.
Robin Hanson (1998) The Great Filter—are we almost past it?, Robin Hanson’s Website, 15 septembre.