Pourquoi je ne suis probablement pas une long-termiste
En bref : ce qui m’intéresse, c’est de rendre l’avenir bon, plutôt que long ou grand, car je ne pense pas que le monde soit formidable aujourd’hui et je ne suis pas non plus convaincue qu’il le sera à l’avenir. Je ne sais pas s’il existe des scénarios qui nous enferment dans un monde au moins aussi mauvais qu’aujourd’hui et que nous pouvons éviter ou façonner dans un avenir proche. S’il n’y en a pas, je pense qu’il vaut mieux se concentrer sur les moyens « traditionnels à court terme » d’améliorer le monde.
J’ai pensé qu’il pourrait être intéressant pour d’autres AE de savoir pourquoi je ne me sens pas très à l’aise avec le long-termisme, étant donné que le long-termisme est important pour beaucoup de personnes dans la communauté.
Ce billet traite de la vision du monde appelée long-termisme. Il ne décrit pas une position sur la priorisation des causes. Il est tout à fait possible que des causes communément associées au long-termisme soient pertinentes au regard de considérations non long-termistes.
J’ai structuré ce billet en fonction des points essentiels et j’ai souligné le type de preuves ou d’arguments qui me convaincraient que j’ai tort, mais je suis curieuse d’en entendre d’autres que j’aurais pu oublier ! En général, je n’ai pas étudié mes points essentiels de manière approfondie. C’est pourquoi je ne suis « probablement » pas une long-termiste.
Il n’est pas nécessaire d’être utilitariste pour être long-termiste. Mais je pense qu’en fonction de la manière dont on s’écarte de l’utilitarisme total, on n’ira probablement pas « jusqu’au bout » du long-termisme.
Je tiens beaucoup à ce que le monde soit transmis en bon état aux générations futures. Je me soucie également du bien-être des gens, quel que soit le moment où cela se produit. Ce que je valorise moins qu’un utilitariste total, c’est de faire naître des gens heureux qui n’auraient pas existé autrement. Cela signifie que je ne m’inquiète pas trop de l’incapacité de l’humanité à devenir beaucoup plus grande et à se répandre dans les étoiles. S’il est vrai que créer des gens heureux a de la valeur, je considère que cela en a beaucoup moins que de s’assurer que les gens ne sont pas dans la misère. C’est pourquoi je ne suis pas extrêmement préoccupée par la perte de potentiel liée aux risques d’extinction (mais je me soucie beaucoup de son impact à court terme), bien que cela dépende de la qualité et de la durée que j’attends de l’avenir (voir ci-dessous).
Qu’est-ce qui me convaincrait du contraire ?
Je ne me soucie pas seulement de la poursuite de mes propres valeurs, mais j’aimerais m’assurer que les valeurs reflétées par d’autres personnes sont mises en œuvre. Par exemple, s’il s’avérait que la plupart des gens dans le monde se soucient réellement de l’augmentation de la population humaine à long terme, j’accorderais beaucoup plus d’importance à cette question. Cependant, je m’intéresse un peu moins à la somme des préférences individuelles qu’aux préférences d’une grande variété de groupes. Cela permet de donner plus de poids à des visions du monde plus rares et de ne pas récompenser un groupe qui dépasserait l’autre ou qui diffuserait ses valeurs de manière impérialiste.
Je souhaite également donner plus de poids aux valeurs des personnes qui souffrent le plus. S’ils pensent que l’avenir à long terme vaut la peine d’être privilégié par rapport à leur douleur actuelle, je prendrais cela très au sérieux.
Une autre solution consisterait à me convaincre du réalisme moral et de la justesse de l’utilitarisme dans ce cadre. Jusqu’à présent, je n’ai pas vu d’explication en langage clair des raisons pour lesquelles le réalisme moral a un sens, mais ce serait probablement un bon début.
Si le monde s’améliorait soudainement de manière radicale et que tout le monde avait une qualité de vie aussi bonne que la mienne, je serais heureuse de me concentrer sur la réalisation d’un avenir grand et long plutôt que sur l’amélioration de la vie des gens.
Un thème récurrent dans beaucoup de visions du monde long-termistes semble être que l’humanité est merveilleuse et devrait donc exister pendant longtemps. Je ne me considère pas comme une misanthrope, je pense que mon point de vue est dans la moyenne des Européens. L’humanité présente de nombreux aspects positifs que j’aimerais voir prospérer.
Mais l’enthousiasme manifeste pour l’humanité dont semblent faire preuve la plupart des long-termistes me déconcerte. Aujourd’hui encore, l’humanité commet des génocides, laisse des millions de personnes mourir de faim, réduit en esclavage et torture des personnes ainsi que des milliards d’animaux d’élevages industriels. Je trouve cela difficile à concilier avec une vision du monde selon laquelle « l’humanité est géniale ».
Un contre-argument courant semble être qu’il s’agit de problèmes, mais que nous n’avons pas encore pris le temps de les résoudre. Les humains sont paresseux, mais pas méchants. Cela ne me convainc pas. Je ne me soucie pas seulement que les gens mènent une bonne vie, mais aussi qu’ils soient de bonnes personnes. La paresse n’est pas une excuse.
À l’heure actuelle, nous avons la capacité de faire plus. La plupart du temps, nous ne le faisons pas. Peu de personnes qui entendent parler des organisations caritatives recommandées par GiveWell décident de faire don d’une part importante de leurs revenus. Les gens prennent des vols intercontinentaux touristiques bien qu’ils soient au courant du changement climatique. Nombreux sont ceux qui mangent de la viande bien qu’ils aient entendu parler des conditions de vie dans les élevages industriels. L’aide mondiale ne représente qu’une part infime du budget de la plupart des pays développés. Ces exemples sont assez cosmopolites, mais je ne les considère pas comme critiques.
Pris un par un, on peut contester ces exemples. Parfois, les gens manquent réellement d’informations. Ils peuvent avoir des désaccords empiriques ou des opinions morales différentes (par exemple, ne pas considérer les animaux comme des êtres sentients). Parfois, ils trient et privilégient d’autres façons de faire le bien. Je suis d’accord avec toutes ces raisons.
Mais en fin de compte, il me semble que de nombreuses personnes disposent de beaucoup de ressources pour faire mieux et qu’il reste encore d’énormes problèmes. C’est certainement une bonne chose si nous mettons en place de meilleurs systèmes à l’avenir pour réduire la misère et si nous disposons des bonnes carottes et des bons bâtons pour amener les gens à mieux se comporter. Mais je ne suis pas enthousiaste à l’idée d’une humanité qui a besoin de cela pour que les gens se comportent bien.
Cela me rend également réticente à l’idée d’accorder beaucoup d’importance au fait d’aider les gens à bien se comporter, quel que soit le moment où cela se produit. Cela n’est vrai que si les gens dans le futur sont aussi moralement méritants que les gens aujourd’hui.
En d’autres termes, si les humains étaient vraiment si géniaux, nous n’aurions pas besoin de nous préoccuper de tous ces risques pour l’avenir. Ils se résoudraient d’eux-mêmes.
Qu’est-ce qui me convaincrait du contraire ?
Je serais absolument ravie de me tromper sur la moralité des gens là où je vis ! Il est vrai que j’ai du mal à trouver des preuves plausibles, car elles semblent en contradiction directe avec le monde que j’observe. Peut-être que c’est vraiment un manque d’information qui empêche les gens d’agir mieux, comme semble le croire Max Roser de Our World in Data. Des campagnes d’information ayant des effets importants seraient persuasives.
Je ne connais pas le sérieux avec lequel les gens prennent leurs obligations morales dans d’autres lieux et à d’autres époques. Le manque d’investissement que je constate est peut-être une aberration locale.
Même si cela ne devrait pas avoir d’impact sur ma vision du monde, je me sentirais probablement plus à l’aise avec l’idée long-termiste si je constatais que la communauté long-termiste mettait davantage l’accent sur l’ingénierie sociale ou médicale pour produire des personnes (moralement) meilleures au sein de la communauté long-termiste.
À bien des égards, le monde s’est beaucoup amélioré. L’extrême pauvreté a diminué et l’espérance de vie a augmenté. Le nombre de personnes réduites en esclavage a diminué. Je suis optimiste quant à la poursuite de ces tendances positives.
Ce qui me laisse plus sceptique, c’est la mesure dans laquelle ces tendances sont révélatrices. Si la plupart des gens s’accordent probablement à dire qu’il est bon que moins de gens meurent de faim et meurent jeunes, il existe de nombreuses tendances qui sont louées par les long-termistes et que d’autres pourraient juger différemment, comme par exemple le déclin de la religiosité. Ils peuvent également accorder de l’importance à des aspects différents. Quelqu’un qui accorde une grande importance aux animaux d’élevages industriels peut ne pas penser que le monde s’est amélioré.
Je crains que le fait de considérer que le monde s’est amélioré ne dépende d’une vision du monde aux valeurs peu communes. En utilisant le prisme de la théorie des fondements moraux de Haidt, il semble que la plupart des améliorations se situent au niveau du fondement Soins / Préjudices, alors que le monde ne s’est peut-être pas amélioré selon d’autres fondements moraux comme Loyauté / Trahison ou Pureté / Dégradation.
De plus, je m’attends à ce que de nombreuses améliorations du monde s’amenuisent avant de devenir négatives. Mais je crains que certaines ne le fassent pas. Par exemple, je pense que l’augmentation de l’hédonisme et de l’individualisme a été une bonne force, mais si elle est excessive, je considère qu’elle rendra le monde pire, et il me semble que nous y sommes presque ou que nous y sommes déjà.
Je suis généralement préoccupée par les tendances à dépasser leur bon objectif initial par une optimisation trop étroite et excessive. L’optimisation pour le profit en est l’exemple le plus clair. J’ai écrit un peu plus à ce sujet ici.
Si le monde n’est pas meilleur qu’il ne l’était dans le passé, extrapoler en espérant un avenir encore meilleur ne fonctionne pas. Pour moi, il s’agit là d’un autre argument en faveur d’un bon avenir plutôt que d’un long ou d’un grand avenir.
Dans le même ordre d’idées, bien que cet argument ne me détourne pas du long-termisme, certains long-termistes qui se projettent dans un avenir que je considère sans valeur (par exemple, l’onde de choc de l’hédonium) me rebutent. Culturellement, de nombreux long-termistes semblent favoriser davantage l’hédonisme, l’individualisme et le techno-utopisme que je ne le souhaiterais.
Qu’est-ce qui pourrait me convaincre du contraire ?
Je suis bien consciente que de nombreuses personnes sont pessimistes quant à l’avenir parce qu’elles se trompent sur des faits simples concernant l’évolution du monde. Pourtant, j’aimerais en savoir plus sur la manière dont les différentes visions du monde conduisent à percevoir le monde comme s’améliorant ou non.
Je ne suis pas convaincue par les arguments selon lesquels l’avenir pourrait être très long. Je ne vois pas comment cela est possible sans un totalitarisme au moins doux, qui comporte ses propres risques de réduction de la valeur de l’avenir.
Ou, si l’on regarde les choses différemment, les personnes qui travaillent sur les risques existentiels ont passé quelques années à me convaincre que les risques existentiels sont assez importants. Passer de cet argument au travail sur les risques existentiels au long-termisme, qui exige d’atteindre la sécurité existentielle, me donne un sentiment de coup de fouet.
Voir également ce court billet sur le sujet. L’un des arguments avancés est la règle de Lindy, qui souligne que les systèmes autopropagés existent depuis des milliards d’années et que l’on peut donc s’attendre à ce qu’ils durent à nouveau aussi longtemps. Mais je ne vois pas pourquoi les systèmes autopropagés devraient être la référence, je suis seulement intéressé par l’application de la règle de Lindy à une civilisation humaine moralement digne d’intérêt qui a été plutôt courte en comparaison.
Je ne suis pas non plus favorable à l’idée de fonder des décisions sur des calculs approximatifs de valeur espérée dans lesquels l’évaluation de la faible probabilité est incertaine et la valeur espérée est l’argument principal (par opposition à une approche davantage basée sur la « pensée en grappes »). Je ne suis pas opposée en principe à de telles décisions, mais mes propres résultats en la matière sont très médiocres : la valeur espérée prédite à partir de calculs approximatifs ne se concrétise pas.
J’ai également des préoccupations traditionnelles du type « extorsion de Pascal » pour prioriser la probabilité potentiellement faible d’une très grande civilisation.
Qu’est-ce qui pourrait me convaincre du contraire ?
J’apprécierais des arguments solides sur la manière dont l’humanité pourrait atteindre la sécurité existentielle.
Je ne suis pas convaincu que l’on puisse avoir un impact positif fiable qui se dissipe dans un avenir plus lointain que 100 ans, peut-être avec un facteur de 3. Mais il y a une exception importante : si nous avons la capacité d’empêcher ou de façonner un scénario de « verrouillage » dans ce laps de temps. Par « verrouillage », j’entends tout ce à quoi l’humanité ne peut échapper. Les risques d’extinction sont un exemple évident, d’autres sont l’effondrement permanent des civilisations.
Je suis consciente que la définition canonique de Bostrom des risques existentiels inclut ces deux scénarios de verrouillage, mais elle inclut également des scénarios que je considère comme non pertinents (ne pas atteindre un avenir transhumaniste), c’est pourquoi je n’utilise pas ce terme dans cette section.
Pensant que nous ne pouvons pas avoir un impact fiable sur le monde pendant plus de plusieurs décennies, je ne trouve pas intéressant de travailler sur des causes telles que « l’amélioration de la prise de décision institutionnelle », si ce n’est pour leur capacité à façonner ou à prévenir un verrouillage dans ce laps de temps.
En outre, je ne m’intéresse qu’aux scénarios de verrouillage qui seraient aussi mauvais ou pires que le monde actuel, voire à peine meilleurs. Je ne souhaite pas empêcher un avenir dans lequel les humains se contenteraient de regarder Netflix toute la journée – ce serait assez décevant, mais au moins ce serait mieux qu’un monde dans lequel les gens meurent régulièrement de faim.
Pour l’instant, je n’en sais pas assez sur les probabilités d’une série de mauvais scénarios de verrouillage pour juger s’il est justifié de s’y intéresser dans le cadre de ma vision du monde. S’il s’avère que c’est le cas à la suite d’une enquête plus approfondie, je pourrais imaginer décrire ma vision du monde comme étant long-termiste si on m’y incitait, mais je pense que je ressentirais toujours un décalage culturel avec les autres long-termistes.
S’il n’y a pas d’options pour éviter ou façonner de mauvais scénarios de verrouillage dans les prochaines décennies, je pense qu’il est préférable d’améliorer le monde avec des approches « traditionnelles à court terme ». Mon point de vue est très proche de celui d’Alexander Berger, qu’il a exposé dans ce podcast de 80 000 hours.
Ce qui me convaincrait du contraire :
S’il y a eu des impacts intentionnels pendant plus de quelques centaines d’années, j’aimerais bien les connaître. Je connais les articles de Carl sur ce sujet.
J’espère consacrer bientôt un peu de temps à l’étude de ce point essentiel : s’il existe à l’horizon de mauvais scénarios de verrouillage que nous pouvons éviter ou façonner, cela modifierait probablement mon opinion sur le long-termisme.
Étant donné qu’il s’agit d’un point essentiel, on pourrait considérer qu’il est prématuré pour moi de tirer des conclusions sur ma vision du monde. Mais mes autres points de vue semblent suffisamment différents de la plupart des points de vue long-termistes que j’entends pour qu’ils méritent, je l’espère, d’être exposés de toute façon.
Si quelqu’un a des ressources à m’indiquer qui pourraient me faire changer d’avis, je suis curieuse de les connaître.
Merci à AGB et à Linch Zhang pour leurs commentaires sur une version préliminaire de ce billet.
Ce travail est placé sous une licence Creative Commons Attribution 4.0 Licence Internationale.