Rencontre avec Ludovic Orlando : « La paléogénétique nous montre que le passé ne se prête pas aux simplifications manichéennes »

Cette interview est la version longue d’un texte publié dans Sciences Humaines, n° 341, novembre 2021.

Ludovic Orlando est paléogénéticien, auteur de L’ADN fossile. Une machine à remonter le temps, Odile Jacob, 2020.

© DRFP

 

Pourquoi la paléogénétique a-t-elle fait tant de progrès ces dernières années ?

La paléogénétique est une discipline née en 1984. J’avais sept ans quand des chercheurs de Californie ont cherché à manipuler des extraits d’ADN du quagga, un zèbre éteint au début du 20e siècle. C’était la première fois qu’avec la génétique, on arrivait à traverser le temps. Pas beaucoup, cent ans environ.

Puis d’autres essais embrayent le pas, sur les momies égyptiennes d’abord. Car on pense alors que de beaux vestiges archéologiques riment avec une bonne préservation de l’ADN. On apprendra plus tard que cela n’est pas du tout le cas. Néanmoins, Svante Pääbo, en 1985, publie une séquence humaine d’un Égyptien enterré dans la nécropole de Thèbes il y a un peu plus de deux mille ans. Du siècle, on passe au millénaire.

La fureur s’empare de ce nouveau champ de recherche. Jusqu’à quand pourrait-on aller, avec quels vestiges ? Jusqu’au milieu des années 1990, les gens essayent à peu près tout, avec des techniques assez modestes. De 1984 à 1986, on commence avec le clonage d’ADN, qui consiste à récupérer de petits bouts d’ADN, à les mettre dans des bactéries, qui se reproduisent et photocopient pour nous l’ADN, jusqu’à ce qu’on en ait suffisamment pour le séquencer, le caractériser, le manipuler… C’était très anecdotique, on ne pouvait accéder qu’à quelques centaines de nucléotides, ces 4 lettres qui forment le message de l’ADN.

C’est alors qu’apparaît une technologie qui va révolutionner les sciences biomédicales. La PCR, ou réaction polymérase en chaîne, permet à partir d’une molécule d’ADN de la multiplier dans un tube à essai en millions d’exemplaires en quelques heures. Dès 1987, de premiers articles scientifiques sortent : S. Pääbo est un des pionniers de cette technologie, il va en caractériser les défauts et les avantages.

C’est vers 1990 que les premiers os d’humains puis de mammouths sont analysés par ADN. La technique va être alors appliquée tout azimut. Jusqu’en 1995, on assiste à la publication de travaux parfois fantaisistes, tels ceux qui évoquent des os de dinosaures de 80 millions d’années qui auraient donné de l’ADN. On s’apercevra bientôt qu’il faudra déchanter. Ce qui est séquencé dans ces recherches n’est pas de l’ADN ancien, mais de l’ADN contaminant moderne.

Heureusement, dans le même temps, les chercheurs auront su obtenir des résultats sérieux. Les années 1995 à 2000 voient la fin de la course au nécessairement plus vieux, et la méthodologie se standardise autour de protocoles très rigoureux. Les différents travaux effectués depuis le séquençage du couagga nous ont en effet appris que l’ADN a une certaine chimie, qu’il ne peut pas se manipuler sans précaution, et qu’on ne peut pas remonter infiniment le temps.

 

Et c’est en 2001 que le premier séquençage d’un génome humain rebat les cartes ?

Imaginez-vous le changement d’échelle que cela a représenté : des centaines de chercheurs du monde entier, et environ 3 milliards de dollars avaient été nécessaires pour en produire un premier brouillon. Pour nous, les paléogénéticiens, ces investissements-là étaient inaccessibles. Mais surtout l’ADN que l’on pouvait obtenir était trop abîmé pour même rêver un jour atteindre ce genre de prouesse. Nous séquencions alors à peine quelques centaines de nucléotides quand un génome entier peut en compter des milliards.

Prenons comme exemple Svante Pääbo, qui concentre à lui seul tous les progrès de la discipline. En 1997, il séquence un premier bout d’ADN de néandertalien. Il fait ça à partir de 800 milligrammes de matière fossile, qui lui permettent de récupérer 379 nucléotides. Avec la technologie de l’époque, s’il avait voulu séquencer les 3 milliards de nucléotides du génome de cette manière, il ne lui aurait fallu pas loin de sept tonnes de néandertalien fossile ! Sans compter qu’à ce moment-là, on ne travaillait encore essentiellement que l’ADN mitochondrial, à transmission uniquement maternelle, limité à 16 500 nucléotides chez l’humain, car il était plus facile à analyser. Longtemps, on a donc pensé que nous étions condamnés à ne pouvoir accéder à des fractions significatives du génome et à rester dans les domaines de l’anecdotique…

Mais en 2005, une autre technologie de séquençage à très haut débit est inventée, dont on va vite s’emparer – la paléogénétique, c’est une histoire de héros malins qui utilisent souvent à de nouvelles fins des technologies inventées par d’autres dans d’autres contextes. Avec le séquençage dit de nouvelle génération, le même microlitre que j’utilisais hier pour avoir un bout de gène me donne instantanément un demi-million de gènes ! C’est révolutionnaire : en janvier 2006, mon collègue Hendrick Poinar publie une étude dans laquelle il produit bien plus de séquences que tout ce que l’histoire préalable de la paléogénétique avait pu identifier. Elle comptait 13 millions de nucléotides du génome du mammouth !

La suite va être exponentielle. Aujourd’hui, une des machines les plus performantes peut analyser des milliards de séquences en moins de deux jours. Ce qui veut dire que des milliers de génomes anciens ont pu être entièrement séquencés. Le changement d’échelle a été vertigineux. Dans mon labo, on a ces dernières années réussi à séquencer près d’un millier de génomes de chevaux anciens.

Le record du monde du génome le plus vieux est même passé à 1,6 million d’années en février 2021, pour un mammouth extrait du permafrost. Dans des environnements très froids, rares sur la planète, on va friser les deux millions d’années. Dans un climat tempéré, où la dégradation de l’ADN sera ralentie, dans des cavernes au nord de l’Espagne par exemple, on est arrivé au demi-million d’années.

 

Le tournant est opéré en 2010, cinq ans plus tard, quand l’équipe de Svante Pääbo réalise le séquençage complet d’un néandertalien. Puis en 2011, à partir d’une minuscule phalange, la révélation d’une nouvelle humanité, celle des dénisoviens. Qu’apporte donc cette nouvelle paléogénétique que l’archéologie ne peut pas déceler, elle qui pourtant, dans cette même décennie, a exhumé de nouveaux Homo : luzonensis, naledi… ?

Depuis une décennie, c’est un champ de recherche inédit qui s’est ouvert à nous, auquel l’archéologie ne s’attendait pas. Si vous avez un génome entier, vous pouvez vous intéresser à certains endroits qui codent pour des caractères particuliers. Chez l’homme, on pourra ainsi déterminer la couleur de peau par exemple. Tout à coup, en l’absence de peau, de chair, vous pouvez, à partir de poudre d’os ou de dent, prédire la complexion d’une personne décédée depuis des milliers d’années. Vous savez aussi quelle était la couleur de ses yeux, sa propension à développer telle ou telle maladie, à qui elle est / était ou non apparentée, etc. Ces caractères n’étant pas fossilisables, ils n’étaient pas du domaine de l’archéologie jusqu’ici.

Cela fait de la paléogénétique un outil fabuleux naturellement au service de l’archéologie, et non une science concurrente. Elle nous donne des informations sur les individus défunts, les relations que ces individus entretenaient entre eux, toutes choses que l’archéologie ne peut pas voir par essence. Ce pourquoi je dis volontiers pratiquer l’archéologie moléculaire. De même, nous obtenons des informations sur les populations, leurs évolutions, leurs mélanges ou non-mélanges.

Enfin, la paléogénétique donne des informations sur les espèces. Ce qui en fait une science écologique. Elle permet de dresser un portrait robot des communautés végétales, animales, fongiques…, dans le passé, à partir des sédiments du sol. Parce que l’ADN se préserve aussi en l’absence de vestiges observables à l’œil nu, dans l’infiniment petit. Et quand on fait ça, ce n’est pas une seule espèce qu’on identifie à tel endroit, mais toute la communauté biotique. Et comme on peut forer le sol par carottage, on peut prendre le temps à rebrousse-poil – plus on s’enfonce, plus on va vers le passé – et suivre les changements dans la composition des écosystèmes au cours du temps.

Certains vont s’intéresser à des changements climatiques très importants, tel le dernier maximum glaciaire, il y a 26 000 à 19 000 ans de cela pour l’Europe, et le réchauffement qui a suivi. D’autres vont se pencher sur la pollution des sols, l’impact des activités minières sur la biodiversité…

Si c’est par contre un pathogène qui vous intéresse, et si son génome est aussi codé par l’ADN, comme c’est le cas pour la peste, la tuberculose ou la variole, vous pouvez aussi aller voir comment ces maladies ont hanté l’humanité dans le temps et par comparaison, voir en quoi elles étaient différentes jadis ; ou au contraire, si les mêmes souches sont encore parmi nous. Cette science, par nature tournée vers le passé, nous donne ainsi des informations précieuses pour le temps présent.

 

Que sait-on aujourd’hui des dénisoviens ?

En 2010, l’équipe de Svante Pääbo et Johannes Krause commence à séquencer ce qui se révèle être une espèce humaine inconnue, à partir d’un bout de phalange, gros comme une tête d’allumette, d’une adolescente ayant vécu, on le sait aujourd’hui, il y a à peu près 70 000 ans à Denisova, en Russie. Au début, ils ont cru avoir trouvé un Homo erectus. L’ADN mitochondrial étant très divergent de celui des néandertaliens, il faisait penser que les dénisoviens avaient divergé avant même que les rameaux conduisant aux néandertaliens et aux sapiens ne se soient formés. Quelques mois après, ils publient une première ébauche de son génome, qu’ils complèteront quelques années plus tard. Cette fois, ils sont certains d’avoir affaire à un groupe frère des néandertaliens. Ils l’appellent dénisoviens. Il n’est pas connu sur le plan génétique, pas attendu sur le plan morphologique…

On a baptisé cet humain dénisovien pour ne pas trancher : est-ce ou non une nouvelle espèce ? Je pense que c’est judicieux de ne pas avoir tranché. Une des définitions de l’espèce est de former un groupe ayant des descendants fertiles et viables. Or il se trouve qu’entre les dénisoviens et certaines populations de sapiens, il y a eu des échanges génétiques. On retrouve 4 à 6 % des variants dénisoviens chez les peuples papous de Nouvelle-Guinée. Au-delà de ça, on sait que les dénisoviens et les néandertaliens se sont reproduits entre eux. Dans un article publié en 2018 dans Nature, les auteurs ont trouvé l’enfant d’un papa néandertal et d’une maman dénisovienne. Et on sait déjà que nous nous sommes reproduits entre néandertaliens et sapiens. Dans votre génome, le mien, et à peu près tous les génomes des Européens et des Asiatiques à l’ouest de l’Himalaya, il y a entre 1,8 et 2,1 % de variants néandertaliens. Sur le plan biologique, ce ne sont pas des espèces distinctes, puisqu’elles ont des descendants viables et fertiles. Sur ce dernier critère, on serait tenté de mettre dénisoviens, néandertaliens et sapiens dans la même espèce. Mais répondre à la question « qu’est-ce que c’est ? » n’est pas si simple. Sur le plan paléontologique, il faudrait des formes suffisamment divergentes pour en faire des groupes séparés et postuler ainsi la présence d’espèces différentes.

Nouvelle espèce ou pas, le débat n’est pas tranché. Je dis plutôt que nous avons découvert une nouvelle forme d’humanité, que l’on ignorait jusqu’à présent, dont nous n’avons aujourd’hui qu’une phalange trouvée en Russie, plus une hémi-mandibule et quelques dents découvertes au Népal, pas grand-chose au final. L’ADN permet d’épaissir notre savoir.

 

Et une autre technologie apparaît, celle de l’ADN du sol. Comment fonctionne-t-elle ?

Effectivement, mais avant cela, il faut savoir que nous faisons aujourd’hui de l’ADN ancien populationnel. De « dis-moi quelle espèce tu étais ? » sur la base de l’ADN, on est passé à « dis-moi quelle population a habité ici, et comment elle a évolué dans le temps ». Pour ça, on multiplie simplement les analyses sur un grand nombre d’individus. Mais plus récemment, l’équipe de Svante Pääbo a appliqué ces techniques directement aux sédiments et a réussi à retrouver les traces des occupations par différents groupes néandertaliens dans une caverne d’Espagne et des dénisoviens dans la grotte de Denisova. Il semble que la source principale de l’ADN préservé dans le sol provienne de restes osseux microscopiques et de débris de coprolithes enfouis dans les sédiments ! De telles recherches vont permettre de mieux comprendre l’arbre de l’évolution humaine, mais aussi des aires de répartition des espèces et des mouvements des populations anciennes. On parle désormais d’ADN environnemental ancien.

 

A-t-on des raisons de penser pouvoir trouver à l’avenir d’autres rameaux humains par la seule analyse génétique ?

L’épisode Denisova nous a appris à ne surtout pas répondre non à cette question ! Il est tout à fait possible que cela arrive, quand même bien ce serait impensable. Plusieurs raisons à cela : d’abord, il y a encore des endroits du monde qui ont livré très peu de registres fossiles et/ou génétiques. L’Afrique a donné beaucoup de fossiles, mais c’est un environnement difficile pour la préservation de l’ADN ancien. Les rares fossiles analysés ont suggéré qu’il reste bien des choses à découvrir…

Ensuite, quand on a l’ADN, il y a des choses que l’on explique immédiatement à l’aune de ce que l’on connaît. On peut quantifier la proportion de variants néandertaliens dans votre génome, ou de variants dénisoviens par exemple… Mais on a des variants dont on ne sait rien ! Ce que l’on connaît ne suffit pas à expliquer la variation qu’on mesure. Ce reliquat-là, on l’associe dans nos interprétations à ce qu’on appelle une population fantôme. Ces mutations ne viennent pas de nulle part, elles ont forcément été transmises par des ancêtres, on ne sait simplement pas qui étaient ces ancêtres. Et dans les modèles actuels de l’humanité génétique, des fantômes, il y en a plusieurs. Ce n’est pas typique des hominidés, en travaillant sur le cheval, on prédit plusieurs fantômes chez les équidés alors qu’on a écumé un grand nombre de fossiles à travers l’Eurasie.

 

Que pensez-vous de ceux qui annoncent déjà la possibilité de ressusciter des espèces disparues, du mammouth à néandertal ?

Il faut s’entendre sur ce qu’on appelle ressusciter… Faire du Jurassic Park en vrai est absolument impossible, dans la mesure où les cellules ne survivent pas, même dans des environnements congelés. Les membranes se cassent, les brins d’ADN se fragmentent… Ce n’est pas parce que vous avez le texte d’un livre que vous avez son auteur vivant devant vous. Ce qui est raisonnable sur le plan technique (et je ne me prononce pas sur le plan éthique), avec la technologie des ciseaux génétiques Crispr-Cas-9, on peut éditer de manière chirurgicale des endroits du génome. On pourrait dès lors « mammouthiser » le génome de l’embryon d’un éléphant d’Asie, le plus proche parent du mammouth. Mais au vu du nombre de modifications à opérer, il faudra effacer et réécrire six millions d’années de divergence. Réécrire un génome à cette échelle-là est pour l’instant impossible.

À ce titre, on ne peut pas faire revivre des espèces du passé. On peut créer des chimères, des OGM qui n’ont jamais existé mais pourront ressembler extérieurement à ce qui a pu vivre dans le passé. On a des outils qui font ce qu’ont toujours fait les éleveurs, lorsqu’ils ont entrepris de domestiquer certaines espèces animales. La génétique nous permet de faire ça à des échelles de temps beaucoup plus courtes. Mais même en puisant des brins d’ADN de mammouth pour faire ces modifications, on aura un éléphant d’Asie relooké et non un mammouth. Ce n’est pas parce que j’ai 2 % de variants néandertaliens dans mon génome que je me considère comme néandertalien !

Sur le plan éthique, je ne juge pas, mais je pense que la société doit s’emparer de ces questions. Qu’est-ce que ça veut dire de vouloir créer des chimères ? On se donne la possibilité de changer le cours de l’évolution de certaines branches du vivant et cela n’est pas neutre… Ensuite, et c’est le plus important : on est en train de traverser une crise de la biodiversité suffisamment importante pour la qualifier de sixième extinction. Investir des fonds, publics comme privés, pour faire vivre des chimères sous le prétexte que ce serait ludique d’aller les observer dans un parc animalier, alors qu’on n’investit pas pour sauver les espèces qui demain auront disparu à coup sûr si on ne change pas nos modes de vie, me paraît matière à débat.

 

La paléogénétique dévoile des phénomènes de migrations, par exemple de néandertaliens à travers l’Eurasie, voire de dénisoviens vers l’Océanie. Où en sont les recherches sur ces questions ?

Quand vous avez un os à un endroit du monde, c’est l’endroit où la personne est morte. Ça ne veut pas nécessairement dire que la personne était née là. Elle pouvait être en voyage, ou en fuite. Il ne faut pas oublier non plus que certaines populations étaient nomades. Trouver un ADN quelque part, ce n’est pas nécessairement avoir trouvé l’ADN des populations d’origine de cet endroit. Mais aujourd’hui, on peut faire quelque chose d’inédit : prendre de l’ADN et le comparer à ce qui existe ou a existé ailleurs sur le planète, et déterminer à quel point cet ADN est proche de celui d’autres populations. Si deux ADN se révèlent très proches, alors on est tenté de mettre une flèche entre les deux. L’ADN peut nous dire si des gens de tel endroit, et/ou de telle époque, sont en relation directe d’ancêtre à descendant.

Ce faisant, on découvre non seulement des métissages entre formes d’humanités différentes, entre néandertaliens, dénisoviens et sapiens, mais aussi des métissages entre lignées de sapiens. Cette dernière décennie, la paléogénétique a montré qu’une partie significative du génome des Européens est héritée d’Anatolie, quand des peuples ont migré d’est en ouest et apporté le Néolithique en Europe. Un deuxième acquis, c’est qu’à la fin de l’âge du Bronze, les hommes et les femmes de la culture yamna, partis des steppes pontiques, sont venus en Europe se mélanger aux populations alors présentes. C’est dire si le passé est complexe, et ne se prête pas aux simplifications manichéennes.

 

Propos recueillis par Laurent Testot

Rencontre avec Paul Ariès : « La révolution commence dans l’assiette »

Version longue d’une interview publiée en introduction du dossier
« Bien manger », dans Sciences Humaines, en kiosques ce 16 juin 2021.

Paul Ariès est politologue, rédacteur en chef de la revue Les Z’Indigné(e)s, auteur notamment de Une Histoire politique de l’alimentation. Du Paléolithique à nos jours, Max Milo, 2016.  

Dans votre livre Une histoire politique de l’alimentation, vous faites du repas l’acte politique par excellence. Pourquoi ?

Parce que la table et le politique s’entremêlent de deux façons. D’abord parce que l’alimentation est affaire de partage, de définition des amis et des ennemis, de règles. Les stocks alimentaires et le feu pour la cuisson ont probablement été les premiers biens communs de l’humanité. La politique est née autour de et par l’alimentation.

Deuxième lien : le politique a toujours tenu un discours sur la table. J’appelle cela le séparatisme alimentaire. Les puissants n’ont jamais voulu manger ni la même chose, ni de la même façon que les gens ordinaires.

Si j’ai écrit cette histoire politique de l’alimentation, c’est à la fois pour démystifier le temps long, et pour montrer qu’il faut en finir avec une histoire misérabiliste de la table. Les pauvres n’ont pas toujours souffert de la faim, loin s’en faut !, grâce à des mesures politiques comme l’instauration de l’obligation de les nourrir à travers la figure du Roi nourricier.

Le grand enjeu de notre époque n’est pas tant la colonisation de l’espace que de savoir comment on va pouvoir nourrir 8 à 12 milliards d’humains. Pour cela, je suis convaincu qu’il faut redécouvrir ce que manger a pu vouloir dire au cours des millénaires. Nous sommes aujourd’hui à un carrefour : que mangera-t-on d’ici quelques décennies ? Le maître mot serait l’industrialisation ; soit la dénaturation des produits, avec les OGM, les alicaments, et surtout l’agriculture cellulaire. Celle-ci se définit comme l’exploitation des nouvelles possibilités offertes par les biotechnologies, de fabriquer des aliments à partir de cellules souches. On prélève quelques cellules et on va pouvoir les mettre en culture pour fabriquer des aliments à volonté.Avec 150 vaches, on pourrait produire en théorie toute la quantité de viande aujourd’hui consommée sur la planète, si on a foi en ces promesses des biotechnologies. De là découlera logiquement l’application de ces techniques au domaine végétal, donc les faux fruits, les faux légumes…  

 

Vous décrivez un univers évoqué par René Barjavel aux débuts de son roman Ravage… Mais cette agriculture cellulaire est-elle une option sérieuse ?

L’agriculture cellulaire prendra de plus en plus d’importance à l’avenir. Car elle offre la possibilité d’en finir avec la période ouverte avec le Néolithique, de rompre ce lien entre l’agriculture et l’alimentation. Depuis la révolution néolithique, nous tirons l’essentiel de notre alimentation de l’agriculture et de l’élevage, la chasse et la cueillette n’ayant plus qu’une part résiduelle. Au 19e siècle, avec les Académies des sciences et de médecine, puis au moment de la révolution bolchévique, on rêvait déjà de passer immédiatement à une alimentation synthétique. L’état des sciences et des techniques ne le permettait pas. Mais pour la première fois de l’histoire, nous allons peut-être pouvoir passer de certains de ces fantasmes à l’acte ! Et c’est un moment dangereux que celui-là…

Entre le Néolithique et aujourd’hui, il y a eu deux grandes ruptures dans l’histoire de l’humanité. D’abord lorsqu’une infime minorité a pu s’approprier les stocks alimentaires, ce qui explique le développement des inégalités au sein de notre espèce. On sait que durant le paléolithique, les stocks alimentaires étaient abondants. On estime même qu’ils représentaient plus d’une année de consommation. On dessicait, on enrobait dans de la sève, du miel, on salait, on congelait…

Or à un moment donné, une petite minorité a mis la main sur les stocks alimentaires. Des spécialistes comme Brian Hayden, dans L’Homme et l’Inégalité. L’invention de la hiérarchie durant la préhistoire, CNRS Éditions, 2008, estiment que cela s’est fait parallèlement au développement du phénomène religieux. Les premiers grands prêtres de l’histoire se sont appropriés le monopole des boissons enivrantes. À travers la découverte de l’ivresse, ils ont pu prétendre communiquer avec l’au-delà. En échange de ce service public, on leur a remis la clé du coffre.

Cette appropriation des stocks alimentaires va donner lieu, pendant très longtemps, à un échange, une sorte de contrat social. C’est ce qui explique ce qui va exister durant toute l’Antiquité, sur ce qu’on appelait le principe de la ration obligatoire. On le voit se développer à Sumer, Babylone, en Égypte, en Grèce, à Rome, y compris avec la fameuse devise sur la gratuité « du pain et des jeux ». Cela donnera lieu à cette figure essentielle du roi nourricier, le roi qui doit nourrir son peuple.

Cette figure du roi nourricier va finalement disparaître au temps de Charlemagne. À la fois pour des raisons économiques, on n’y arrive plus. Mais aussi pour des raisons théologiques. Tout simplement parce qu’on considère que si Dieu veut, il pourvoira à la nourriture de tout le monde. Ce n’est plus aux puissants de se substituer à la volonté divine.

Première rupture donc, dans l’histoire de l’alimentation, ce principe que les puissants s’approprient les stocks alimentaires, et en retour doivent nourrir le peuple. On retrouve derrière pleins de choses. Par exemple, quand les premières grèves éclatent en Égypte antique, elles concernent les ruptures de livraison de la ration quotidienne de « painbière », un terme symbolique qui rassemble en un seul mot ce qui est vital pour les gens. 

Paul Ariès.

 

Depuis quand le repas dévoile-t-il les inégalités ?

Au moins dès la naissance des premières cités-États. C’est la deuxième grande division dans l’histoire alimentaire de l’humanité, ce que j’appelle le séparatisme alimentaire. Les puissants ne veulent plus manger la même chose, ni de la même façon, que les gens ordinaires.

C’est le moment où va se développer la haute cuisine, masculine, par opposition à la cuisine quotidienne, ordinaire, féminine. On peut prendre l’exemple du choix des élites égyptiennes, qui abandonnent la viande de porc. Elle sera désormais réservée aux plus basses catégories sociales. La diabolisation du porc, que l’on retrouve dans beaucoup de religions, a été dès le départ un marqueur de différentiation sociale.

La table française actuelle me semble largement tributaire des tables de l’Antiquité, en trois étapes.

1) On doit à la table égyptienne une conception de la table comme langage. En vieil égyptien, un seul hiéroglyphe signifie manger et parler. Les anciens Égyptiens avaient saisi le lien entre les deux oralités des milliers d’années avant Freud. Ils ont inventé les premiers aliments symboliques. Je retiendrai les deux qui sont passés jusqu’à nous : le pain comme symbole de la vie éternelle, et le vin comme symbole de l’humanisation. Car les dieux égyptiens, contrairement aux dieux grecs et romains, étaient réputés ne pas boire de l’alcool. Boire de l’alcool, c’était rappeler aux humains leur place, entre les dieux qui n’en boivent pas, et les animaux qui n’en boivent pas non plus.

2) On doit à la table grecque une conception de la table comme partage. Il n’y a qu’un seul mot, en grec ancien, pour dire manger et partager. Notre langue a enregistré cette mémoire : les mots compagnon, copain, renvoient à celui avec qui je partage le pain. Ami, en vieil araméen, c’est celui avec qui je partage le sel, c’est-à-dire l’esprit. Un interdit est posé en Grèce antique sur le fait de manger seul. Manger seul, c’est transgresser sa dimension sociale, c’est violer sa dimension politique. Être surpris en train de manger seul, c’est le déshonneur. Mais parfois, on ne peut pas faire autrement que se nourrir seul. Les Grecs anciens ont alors établi la distinction entre la nutrition et l’alimentation. Si je suis obligé de manger seul, je peux le faire, mais je dois obligatoirement manger debout,obligatoirement manger des restes,obligatoirement manger froid. Pour un Grec ancien, ça, ce n’était pas manger, c’était satisfaire la dimension animale.

3) On doit à la table romaine ajoute une nouvelle dimension, la table comme plaisir. Jamais aucune civilisation n’a dépensé autant pour sa table que Rome. À tel point que l’on va devoir prendre des lois somptuaires, qui visent à limiter les dépenses en matière d’alimentation. Ces trois dimensions de la table, langage, partage et plaisir, font partie de l’équation à résoudre pour pouvoir avancer vers le bien manger. C’est-à-dire à la capacité de pouvoir nourrir demain toute l’humanité.  

Notre table serait héritière du monde méditerranéen ?

Pas seulement. Dans l’histoire antique, la Gaule fait exception. Parce que les Gaulois, qui sont probablement les meilleurs agriculteurs et éleveurs de l’époque, sont encore des chasseurs et des cueilleurs. Ils vivent deux périodes historiques à la fois. Cela procure une autonomie importante aux populations et notamment au petit peuple, et donne une plus grande sécurité alimentaire. Les Gaulois seront les inventeurs du repas familial. Les hommes mangent à la façon des femmes et des enfants, assis à table et non plus allongés, comme le faisaient les Grecs et les Romains. L’apport plus triste, c’est l’obligation du gaspillage, qui sert lors des grands banquets à montrer sa richesse, sa puissance. Puis les Mérovingiens vont être la période où la table aura le plus d’importance. Toute une part de l’identité passe alors par la défense de cet art de vivre.  

C’est quelque chose que l’on retrouvera plus tard, par exemple au 19e siècle… On ne peut bien comprendre le 19e siècle que par contraste avec les promesses de la Révolution française. Sachant que la table révolutionnaire prolonge la table de la monarchie absolue. On va, sous Louis XIV, s’ingénier à développer une table française. On a déjà une langue, une littérature, une musique, une danse, une architecture, des jardins « à la française »… Mais lorsqu’on doit bien manger, on mange italien, c’est-à-dire une cuisine de la volupté, du sucré, dont témoigne l’ouvrage attribué à Platine.

On va chercher à inventer une table française. C’est un coup politique. Pour simplifier, cette table nationale sera la cuisine italienne plus l’art des sauces, avec l’importance accordée à la pâtisserie. Car la pâtisserie est considérée comme une branche de la géométrie, car elle permet de faire des formes parfaites. Manger de la pâtisserie, c’est manger de la géométrie. C’est envoyer promener, d’une certaine façon, l’obscurantisme religieux, en référence à la devise antique, « que nul n’entre ici s’il n’est géomètre ».

La Révolution française reprend à son compte le discours de la philosophie des Lumières. Prenez l’Encyclopédie de Diderot. Ses nombreux articles sur la nourriture sont rédigés par le chevalier de Jaucourt. Et tous ses articles sur l’alimentation nous disent, pour la première fois dans l’histoire, que le bien manger c’est le manger populaire, parce que c’est le manger vrai, naturel. Il impose l’idée que l’homme de goût, au sens du bon citoyen, se forme à table. Si on apprend à bien différencier les saveurs, on apprendrait plus facilement à bien différencier les idées.

La Révolution française reprend tout ça, au moins un certain temps. Mais elle reprend aussi la face obscure de ce qui existait déjà sous la monarchie, dont la volonté d’en finir avec les cultures populaires. 

Et cette ambition, dites-vous, se focalise autour de la châtaigne, à laquelle on entend substituer la pomme de terre…

Exactement. Lors de la Révolution française, on va prolonger ce qui avait commencé sous l’Ancien Régime avec les dragonnades : lancer des plans d’arrachage systématique des châtaigniers. La littérature de l’époque fait de la châtaigne un aliment diabolique. D’abord parce qu’il entretient la fainéantise. Il n’y a pas besoin de trop travailler pour se nourrir de châtaignes. Cet aliment remet également en cause les distinctions naturelles, par exemple entre les hommes et les femmes. Ramasser des châtaignes ne nécessite pas de gros muscles. Par ailleurs, la châtaigne serait le berceau des révolutions. Puisque si on a du temps de libre, on va discuter, et on va contester le politique.

Les puissants développent donc une véritable haine de la châtaigne. Ils vont chercher à la remplacer par la pomme de terre. Mais la monarchie avait déjà essayé. Les réactions avaient été négatives. Ainsi de ces religieuses auxquelles on avait imposé de nourrir les malades des hospices avec des pommes de terre. Elles avaient manifesté à Paris, car elles considéraient qu’on voulait empoisonner les malades.

Considérer les pommes de terre comme des tubercules pour les pauvres, c’était une vision monarchique. La Révolution va faire des pommes de terre républicaines, consommée sous forme de pain. On va faire de la farine de pomme de terre, qu’on mélangera avec d’autres farines. On va avoir au 19e siècle la poursuite de ce qui avait existé avant, la volonté de dominer la population par les ventres. Ce sera à la fois le siècle de la bonne table, pour les bourgeois ; et pour les autres le siècle de la malbouffe – même si le mot n’existe pas encore.  

C’est un paradoxe : le 19e siècle serait à la fois l’âge d’or de la gastronomie et le commencement de la malbouffe ?

Quand je parle de malbouffe… Le terme utilisé à l’époque est falsification alimentaire. Tout le monde connaît le livre de Paul Lafargue, le gendre de Marx, sur Le Droit à la paresse. Mais il a aussi publié un petit opuscule sur les falsifications alimentaires. L’Académie de médecine et celle des sciences ont le même discours : nous n’arriverons pas à nourrir le peuple avec l’agriculture traditionnelle ! Et par ailleurs, ce serait gaspiller de bonnes terres. On multiplie alors les travaux, notamment à base d’osséine, cette substance que l’on peut tirer des os, pour arriver à faire des aliments de substitution. De la fausse viande, du faux vin, etc.

Je vous ai dit que la table française était héritière de trois traditions : égyptienne, grecque et romaine. Je la crois aussi tributaire de trois coups majeurs. Le premier a été donné au temps de Louis XIV, avec la volonté d’inventer une cuisine absolue pour la monarchie absolue. Le deuxième a été asséné par la philosophie des Lumières, quand Condorcet nous dit qu’il faut marier la République des ventres à la République du cœur, ce qui revient à associer les sentiments à la raison.

Le troisième coup vient de la Révolution française, qui va acter trois mutations :

1) C’est le moment où on va abandonner le papillonnage. Avant la Révolution, on papillonnait, c’est-à-dire qu’on apportait tous les plats en même temps. Après la Révolution, on va avoir le service ternaire : entrée, plat, dessert. Papillonner, c’est peut-être plaisant, mais ça ne se pense pas. On veut pouvoir structurer la table, pour pouvoir structurer le palais, le ventre et donc l’esprit.

2) C’est aussi le moment où on met fin à la cuisine des mélanges. Les mélanges, comme le sucré-salé, c’est sans doute très bon, mais ça ne se pense pas. On ne peut penser que des oppositions binaires. C’est pourquoi en France, bien plus que dans d’autres pays, s’est développée une cuisine où l’opposition sucré-salé est très forte.

3) Et on va abandonner la cuisine du tiède. Ce qui se servait autrefois était plus ou moins chaud, plus ou moins tiède. C’est toujours une question d’opposer fortement des contraires, pour mieux conceptualiser la nourriture. Lorsque la Révolution française transforme l’école, elle donne trois missions aux hussards noirs de la République : apprendre aux enfants à lire et à écrire, à compter, et à différencier les saveurs. Je me souviens de ma jeunesse, où à l’école, les yeux fermés ou bandés, on nous apprenait à différencier l’odeur du vinaigre de celle de la moutarde. Quand on savait faire ça, on différenciait des huiles différentes, etc., on faisait des gammes. Ce n’était pas pour fabriquer de bons petits gourmets, c’était pour développer la capacité de jugement, former de bons citoyens.  

Quels ont été les impacts de l’industrialisation sur l’alimentation ?

Le 20e siècle a été celui de la révolution verte. Et on dit que l’industrialisation a permis de nourrir l’Europe. C’est vrai, mais cela ne veut pas dire que l’on n’aurait pas pu nourrir autrement le monde.On a détruit la paysannerie, les terroirs, le vivant. Cela nous mène à une impasse. Aujourd’hui,un milliard d’humains sont en proie à la faim, et plusieurs milliards condamnés à la malbouffe.  

Que conviendrait-il de faire pour bien nourrir demain 10 milliards d’humains ?

Cela nous laisse deux scénarii possibles : sauter par-dessus le mur, c’est le bond des biotechnologies alimentaires ; ou multiplier les pas de côté, c’est l’agroécologie. Dans cette voie, la ferme du futur est une ferme polyvalente, qui produit des fruits, des légumes, des céréales et des légumineuses, ainsi que du lait et des œufs, et aussi des fumures animales et végétales, qui nourrissent l’humus. C’est une agriculture locale, orientée vers l’autonomie régionale. Ce n’est pas une agriculture autarcique, elle n’exclut pas le marché, elle est simplement plus respectueuse du travail des paysans et de l’environnement. Elle prend en compte les saisons, consomme moins d’eau, etc.

Notre problème est que nous avons perdu l’habitude de penser ce que pourraient être des politiques alimentaires. L’industrie a déstructuré la table. Cela est passé par la désymbolisation. On ne sait plus ce que manger veut dire, on a perdu la dimension de la table comme langage. Réussir une transition écologique implique de revisiter la conception de la table. Car la nourriture est le fait social total par excellence. La révolution commence dans l’assiette. Il faudrait commencer par servir de vrais repas dans les cantines scolaires. Les enfants y passent 14 minutes, quand 20 minutes sont un minimum officiel ! Si on veut réapprendre à bien manger, il faut redécouvrir le sens du partage. Faire des cantines scolaires gratuites, sur le modèle suédois.

Cela implique de multiples choix, et ils sont politiques : faut-il nourrir la planète avec un milliard et demi de petits paysans, ou avec 500 000 agromanagers ? Nous marchons aujourd’hui sur la tête : l’alimentation consomme dix fois plus de calories qu’elle n’en apporte, puisqu’il faut pléthore d’hydrocarbures pour fabriquer des engrais et des pesticides. Tout le monde sait que ce modèle est insoutenable. Il faut relocaliser, travailler autrement. On ne défendra pas la biodiversité sans restaurer la biodiversité dans les assiettes.  

Propos recueillis par Laurent Testot

 

Au sommaire du dossier :

Quand les fictions deviennent méthode – Rencontre avec Ivan Jablonka

BHG ITW Jablonka © Hermance Triay 1_CMJN basse déf

Ivan Jablonka est professeur d’histoire à l’Université Paris-13, auteur notamment de Histoire des grands-parents que je n’ai pas eus. Une enquête, Seuil, 2012, rééd. coll. « Points », 2013 ; L’histoire est une littérature contemporaine. Manifeste pour les sciences sociales, Seuil, 2014. Dernier ouvrage paru : Le Corps des autres, Seuil, 2015.

NB : La première partie de cet entretien est publiée dans le dossier « L’imagination au pouvoir » de Sciences Humaines spécial n° 273, en kiosques de la mi-juillet à la mi-septembre 2015 – un dossier s’inscrivant dans le thème du Festival international de géographie de cette année.

Vous avez écrit deux ouvrages en dialogue. D’abord un essai de biographie familiale, Histoire des grands-parents que je n’ai pas eu ; puis une analyse de l’écriture de l’histoire et des sciences sociales, L’histoire est une littérature contemporaine. Pouvez-vous résumer la démarche qui a sous-tendu cette aventure éditoriale ?

Mon Histoire des grands-parents provient d’une quête d’enfant, que j’ai mise en œuvre quand je suis devenu historien. Mais je ne voulais pas que mon livre soit lu seulement comme le témoignage émouvant d’un petit-fils parti sur les traces de ses grands-parents. Je propose aussi une autre manière de faire de l’histoire – enquête, rencontres, voyages, post-disciplinarité, jeu passé-présent, écriture. Pour mettre au clair ce que j’avais tenté de faire, j’ai rédigé une explicitation méthodologique, un second livre, une sorte de discours de la méthode.

Je l’ai écrit pour répondre à un sentiment aigu que j’éprouve, celui d’une crise des sciences sociales. Cette crise est multiforme : frappant l’université, l’édition, la librairie, elle menace d’expulser les sciences sociales de la cité. La réponse ne peut être que collective. Nous, chercheurs, pouvons offrir de nouveaux objets intellectuels, de nouvelles manières d’écrire les sciences sociales. Plus originales, plus justes, plus honnêtes, plus réflexives.

Vos grands-parents sont des anonymes broyés par la Shoah, parmi des millions d’autres. Comment l’historien que vous êtes peut retracer la vie de ces gens qui seraient restés de parfaits inconnus s’ils ne vous avaient eu pour descendant ?

Mes grands-parents ont disparu sans rien laisser derrière eux, excepté deux orphelins, quelques lettres et un passeport – pour ce qui est des archives familiales. En revanche, à leur insu, ils ont donné naissance à des centaines d’archives en Pologne et en France. Ces traces sont toutes liées à la répression multiforme qu’ils ont subie, en tant que communistes en Pologne, sans-papiers dans le Paris des années 1930, juifs pendant l’Occupation. Ces archives, publiques – c’est là quelque chose d’essentiel –, je les ai exhumées au cours d’une enquête, en un combat contre le silence et l’oubli. J’ai rencontré une vingtaine de témoins dans le monde entier, me rendant aussi dans les lieux qu’ont fréquentés les disparus, depuis leur shtetl de Pologne jusqu’à Auschwitz en passant par le Paris de Ménilmontant et les champs de bataille de Picardie.

Ce faisant, j’ai tenté de conjurer le néant où ont sombré mes grands-parents avec des millions d’autres, disparus dans un génocide qui visait à tuer les gens, mais aussi à effacer leur mémoire. Ce vide s’explique par une autre chose : mes grands-parents étaient des gens modestes, artisans de Pologne rurale, dans un milieu où le recours à l’écrit, à la parole publique, est rarissime. Ils font partie des 99,9 % de l’humanité qui ont passé sur cette Terre sans rien dire ni faire de mémorable.

Se confrontant à ce genre d’enquête, certains historiens n’hésitent pas à introduire une part de fiction, qu’ils présentent comme nécessaire à l’intelligibilité du récit, permettant d’en combler les vides. Avez-vous fait face à cette tentation de la fiction « plausible » ?

Votre question sous-entend qu’il existerait deux types de récit, selon une cartographie classique de l’écriture : il y aurait, d’un côté, les « faits », l’établi, l’avéré ; de l’autre, le « fictionnel », le romanesque, l’imaginaire. L’historien se situerait dans la première lignée, mais il aurait le droit de s’aventurer dans la seconde, en imaginant des faits qu’on ne connaît pas ou qu’on a du mal à mettre au jour.

Cette dichotomie me gêne. Je pense que les frontières sont ailleurs et que les sciences sociales recourent sans cesse à des « fictions de méthode ». Il ne s’agit pas de dire, comme les postmodernes, que l’histoire est une fiction verbale : ce serait tuer les sciences sociales. L’histoire n’est pas et ne sera jamais fiction ; la sociologie n’est pas et ne sera jamais roman, etc. Je me désolidarise de la formule de Paul Veyne selon laquelle l’histoire est un « roman vrai ». Si l’histoire est littérature, ce n’est pas par sa forme romanesque, comme si Stendhal nous donnait la matrice de l’intelligible.

En revanche, je pense que les sciences sociales pratiquent des fictions assumées, que j’appelle « fictions de méthode » et qui sont non seulement omniprésentes, mais nécessaires. Elles permettent de distinguer les sciences sociales du « factuel » plat, qu’on retrouve dans un bulletin météo, un bilan d’entreprise ou une fiche Wikipédia. Les sciences sociales, grâce à l’enquête, expliquent le réel au lieu de simplement le refléter. Comprendre n’est pas décalquer.

Quelques exemples ?

D’abord, en effet, le plausible. N’importe quel chercheur émet des hypothèses. Il ouvre les portes, puis il les referme. Il fait proliférer les hypothèses, avant de les détruire une à une. C’est ainsi que Karl Popper décrit le raisonnement scientifique.

La narration, en histoire comme dans les autres sciences sociales, est tissée de fictions de méthode. Le fait qu’il y ait un début et une fin est une fiction de méthode, car on sait bien que le temps ne s’arrête jamais. Pourtant, on prend la liberté, avec de grands ciseaux, de couper le temps de 1453 à 1789 ou de 1870 à 1940. Ce sont des décisions narratives, auxquelles on peut ajouter les variations de tempo, accélérations ou ralentissements.

Autre exemple, les concepts. De très nombreux concepts utilisés en sciences sociales sont des fictions de méthode. Max Weber le dit textuellement à propos de l’idéal-type, qui n’existe pas dans la réalité. C’est la même chose pour les « règles du jeu » chez Pierre Bourdieu, le « voile d’ignorance » chez John Rawls…

Et même les anachronismes ! Il ne s’agit pas d’affirmer que Cléopâtre avait un iPhone. Mais Georges Duby parle de Guillaume le Maréchal comme du « Platini du 12e siècle ». Jacques Le Goff évoque les « intellectuels » au Moyen Âge, alors qu’aucune affaire Dreyfus n’a encore permis de les identifier. Pour Lucette Valensi, les juifs et les musulmans de la péninsule ibérique ont été victimes, au 16e et au 17e siècle, d’un « nettoyage ethnique ». Tous ces anachronismes sont des fictions de méthode, conscientes d’elles-mêmes. Si nous parlions avec les termes d’époque, non seulement nous serions incompréhensibles, mais nous reproduirions le réel au lieu de l’expliquer.

Vous appelez à une « littérature du réel ». Quel aspect prendrait-elle ?

Dans la « littérature du réel », j’inclus tous les textes qui ont vocation à expliquer et à comprendre le réel, en mettant en œuvre des fictions de méthode et les autres outils des sciences sociales. Je pense aux témoignages, grands reportages, biographies, autobiographies, carnets de bord, récits de voyage, essais, et bien sûr aux sciences sociales elles-mêmes, quand elles acceptent de s’incarner dans un texte. On peut définir cette littérature du réel comme l’ensemble des écrits traversés par des raisonnements de sciences sociales. Et on comprendra mieux l’expérience cognitive irremplaçable que constituent les œuvres de Primo Levi, Varlam Chalamov, Alexandre Soljenitsyne, Annie Ernaux, Nicolas Bouvier, parmi d’autres. C’est une littérature qui, pour comprendre le réel, met en œuvre des raisonnements communs à l’histoire, la sociologie ou l’anthropologie.

Cette opposition entre littérature et histoire a bien une histoire ?

Oui, mais il est important de s’entendre sur les termes. Aujourd’hui, il existe une confusion totale entre trois mots : littérature, fiction, roman. Quand certains littéraires ou chercheurs en sciences sociales parlent de littérature, ils pensent à la fiction ou ils parlent du roman. La confusion est telle que, d’emblée, on ne sait pas de quoi on parle. J’ai assisté à des colloques qui s’intitulaient « Histoire et littérature » et je comprenais en cours de route que, pour leurs organisateurs, l’histoire se résumait à l’Histoire, aux « choses importantes du passé », Rome, Napoléon, la Seconde Guerre mondiale, etc. Pas un seul historien n’accepterait cette définition. L’histoire est une démarche intellectuelle qui vise à comprendre, au sens le plus large, toutes les actions des hommes, les actions de tous les hommes – et cela inclut la « préhistoire ».

Parlons maintenant de littérature. Le mot tel qu’on l’entend apparaît seulement à la fin du 18e siècle, donc deux millénaires après l’historia d’Hérodote. J’ai proposé dans mon livre un certain nombre de critères de littérarité : l’ambition esthétique, l’invention d’une forme neuve, le déploiement de l’imagination, la polysémie, le façonnement d’une voix singulière, sans oublier le travail des institutions qui font entrer un auteur dans le canon « littéraire ». Il y a donc plusieurs critères de littérarité, et la fiction est un élément parmi d’autres, non nécessaire.

Dès sa naissance et pendant toute l’Antiquité, l’histoire se considère comme une forme de « littérature ». À l’époque classique, l’histoire est liée aux belles-lettres, à la rhétorique, à la poésie. Donc, pendant 95 % de son histoire, l’histoire a été une littérature. Bien sûr, aujourd’hui, cette conception n’est plus acceptable, parce que l’histoire a un certain nombre d’exigences méthodologiques qui ne sont pas compatibles avec les belles-lettres, en particulier l’éloge et la mythologie.

Quand cette rupture a-t-elle eu lieu ?

À la fin du 19e siècle. C’est le moment de la révolution méthodique. Elle a lieu en histoire mais aussi en sociologie, avec Les Règles de la méthode sociologique de Durkheim. Cette révolution définit les règles de la méthode historienne, qui sont encore en vigueur aujourd’hui. On peut bien sûr remonter à Mabillon, mais nous sommes alors au moment où elles se cristallisent dans un corps de doctrine, dans un raisonnement intellectuel et aussi – ce qui est très important – dans un milieu professionnel. L’histoire devient non seulement une démarche intellectuelle rigoureuse, mais un milieu académique, institutionnalisé, à l’université.

Le problème, c’est que, depuis cette époque, on fait la confusion entre un milieu professionnel, une discipline académique, d’une part, et, de l’autre, une démarche intellectuelle. Or il est nécessaire de faire la distinction entre les deux. Aujourd’hui, on ne peut pas considérer que l’histoire se fait uniquement à l’université. L’histoire en tant que démarche intellectuelle n’est pas liée à un milieu professionnel. L’université n’est pas l’alpha et l’oméga des sciences sociales.

Pour revenir au 19e siècle, au moment où l’histoire s’invente comme discipline professionnalisée et académique, elle renonce aussi à un certain mode d’écriture. Elle cesse d’être littérature. Une méthode sans littérature a fait suite à une littérature sans méthode. Le littéraire devient quelque chose d’impossible, de ridicule, voire de scandaleux. Les sciences sociales considèrent avec mépris le chercheur qui écrit, comme Jules Michelet ou Élisée Reclus : il n’est qu’un « littérateur ».

C’est à ce moment-là que s’invente ce que j’appelle le non-texte, c’est-à-dire un texte qui ne cesse d’abjurer sa propre littérarité. Il proclame : « Attention, je ne suis surtout pas de la littérature ! » Le non-texte naît dans la période pasteurienne : il lutte contre les « microbes littéraires » – pour la génération de Langlois, Seignobos, Lanson, Durkheim, les sciences sociales doivent fuir leur littérarité. D’où l’invention du non-texte académique, pasteurisé, hygiénique.

Ce divorce entre les sciences sociales et la littérature était peut-être un passage obligé au 19e siècle, mais aujourd’hui, on peut parfaitement concevoir une histoire rigoureuse, solide épistémologiquement, qui soit pourtant une littérature. C’est ce que j’ai essayé de faire dans mon livre sur mes grands-parents. Naturellement, d’autres l’ont fait avant moi : Claude Lévi-Strauss dans Tristes Tropiques, William Vollmann dans Poor People, des historiennes comme Michelle Perrot ou Mona Ozouf. À aucun moment, ces œuvres profondément littéraires ne renient la méthode des sciences sociales.

Ne peut-on dire la même chose de Georges Duby ?

Bien entendu. Toute l’œuvre de Duby apporte la démonstration que l’histoire peut être littéraire sans renoncer aux réquisits épistémologiques et méthodologiques qui s’imposent à elle depuis la fin du 19e siècle. C’est donc une erreur de perspective de lier la méthode des sciences sociales et le non-texte pasteurisé. Cent ans après la révolution méthodique, les sciences sociales sont assez solides, épistémologiquement et institutionnellement, pour tenter de nouvelles expériences, pour hybrider les genres, pour inventer une nouvelle littérature, qui fasse partie des écrits du réel et qui ne soit pas tournée vers le 19e siècle et le roman social.

C’est là mon point de divergence avec Paul Veyne. Il soutient que l’histoire est littérature, parce que science fragile, faible, privée de méthode. C’est intéressant, mais c’est un renoncement. Ce faisant, Veyne se tourne vers les vieilles formes romanesques du 19e siècle, avec le problème de la fiction qu’il ne règle pas. Il faut aborder sereinement la question de la fiction, qui n’est ni un problème ni un danger, mais une ressource, si elle est assumée sous la forme de fictions de méthode. La forme que pourraient prendre les sciences sociales au 21e siècle, c’est la littérature du réel, une enquête qui incarne ses raisonnements dans un texte.

Les nouveaux médias, serious games, transmédia, etc., ne vont-ils pas opérer un bond encore plus important, brouiller totalement les frontières ? On entend aujourd’hui parler d’un jeu vidéo aussi anhistorique qu’Assassins’ Creed comme d’un moyen d’appréhender, en histoire, le contexte visuel de la Révolution française…

Ce sont des formulations polémiques dont je ne peux que me dissocier. Heureusement qu’il existe encore des écoles, des universités, des livres, des revues, des colloques, pour apprendre et discuter l’histoire. Cependant, quand on regarde les pratiques contemporaines et les mutations des industries culturelles, on constate que le public est en train de rompre avec l’histoire et la sociologie universitaires. Les gens lisent de moins en moins de livres, voient de plus en plus de films et de séries, consultent de plus en plus Internet. C’est un fait que, aujourd’hui, l’histoire se transmet et se vit à travers des formes non universitaires.

Nous, chercheurs, porteurs d’une méthode et d’une démarche, ne devons pas mépriser ces nouveaux médias. Il me paraît intéressant de proposer des formes hybrides, qui injecteraient des sciences sociales dans des supports autres que le texte et le non-texte. Des expériences très novatrices peuvent être entreprises. Quand il crée une pièce de théâtre sur la base de témoignages d’enfants rescapés du ghetto de Varsovie, le dramaturge David Lescot propose de nouvelles formes. Quand Jean-Pierre Azéma, spécialiste incontesté de la Seconde Guerre mondiale, travaille avec Frédéric Krivine au scénario d’Un village français, que fait-il sinon projeter des raisonnements historiques dans un nouveau média ?

J’ai publié dans La Vie des idées un article intitulé « Histoire et bande dessinée ». Les sciences sociales ne doivent pas avoir honte de rencontrer les arts graphiques. Le travail de Joe Sacco sur les massacres de Gaza en 1956, la biographie qu’Emmanuel Guibert a consacrée à Alan, un jeune soldat américain dans la Seconde Guerre mondiale, l’étude d’Étienne Davodeau sur la jeunesse ouvrière rurale des Mauges dans les années 1950 relèvent, à leur manière, des sciences sociales, par les raisonnements historiques, sociologiques et anthropologiques qu’ils mettent en œuvre. Au 21e siècle, les sciences sociales pourraient prendre la forme d’une expérimentation sur la forme – sans cesser d’être elles-mêmes, c’est-à-dire de rendre compte avec rigueur de réalités présentes ou passées.

Il ne faut pas opposer les historiens, chercheurs, universitaires, garants d’une pureté conceptuelle dans leur tour d’ivoire, et les profanes qui vulgarisent pour le « grand public ». C’est une vision injuste, et même catastrophique, du point de vue des sciences sociales. Ces médias permettent de tenter de nouvelles expériences et de proposer une nouvelle offre intellectuelle. Cela ne signifie pas qu’il faille arrêter de produire du non-texte académique ; les disciplines vivent de cela et j’y ai moi-même beaucoup contribué dans mes domaines de spécialité.

L’opposition entre sciences sociales et fiction, telle que posée au 19e siècle, avait pour but de distinguer le vrai du faux. Les formes hybrides que vous évoquez peuvent poser problème. On voit certes d’excellentes bandes dessinées essayant de coller au réel, de Joe Sacco à Étienne Davodeau. Mais il existe aussi des BD anhistoriques, ésotéristes voire complotistes sur les templiers ou l’histoire secrète. Comment continue-t-on alors à distinguer le vrai du faux ?

La raison d’être des sciences sociales n’est pas de décréter la Vérité, mais de produire des énoncés vrais, rigoureusement testés, étayés par des raisonnements et des preuves. Cela passe par une méthode, que je résumerai à l’aide de mots-clés et en distinguant les étapes pour les besoins de la cause : définition d’un problème ; prise de distance vis-à-vis de ce problème ; collecte de sources à travers une enquête ; administration de la preuve ; recherche de contre-exemples ; effort de comparatisme , etc.

À l’aide de cette méthode, on peut formuler des énoncés à visée de vérité, dont on attend qu’ils soient critiqués par la communauté des chercheurs. Je ne vois pas pourquoi cette méthode ne pourrait pas être appliquée en littérature, dans la bande dessinée, la photo, le théâtre, la vidéo… Beaucoup l’ont fait. Raymond Depardon et Annie Ernaux sont pour moi des quasi-sociologues, Joe Sacco et David Lescot des quasi-historiens, Nicolas Bouvier et Étienne Davodeau des quasi-anthropologues. Tous mettent en œuvre une démarche compatible avec les sciences sociales, et je ne crois pas qu’ils aient les agrégations ni les doctorats correspondants. Les Mauvaises Gens d’Étienne Davodeau raconte le parcours professionnel et syndical de la génération de ses parents. Regardons sa méthode : il délimite un problème, un espace, un groupe social ; il recherche des sources, qui plus est inédites ; il rencontre des témoins ; il porte un regard critique sur son objet. Il finirait, à ce compte-là, par être plus royaliste que le roi.

La question du vrai et du faux est fondamentale ; c’est d’ailleurs sans doute la seule qui nous importe. Notre métier est de faire des sciences sociales, c’est-à-dire de formuler un discours de vérité ouvert au débat et à la critique. Mais cela ouvre justement la question de la forme. On peut imaginer de nouvelles formes au service du vrai, pour mieux inscrire dans des récits l’expérience vécue des hommes.

Propos recueillis par Laurent Testot

Les outils peuvent-ils nous parler du passé ? Rencontre avec Éric Boëda

Eric BOEDA

Éric Boëda est professeur de préhistoire à l’université Paris-X–Nanterre, membre de l’Institut universitaire de France, auteur notamment de Techno-logique & Technologie. Une Paléo-histoire des objets lithiques tranchants, @rcheo-editions, 2013.

 

Vous êtes spécialiste des outils préhistoriques, un terme qui évoque souvent la pierre taillée. Mais qu’entend-on exactement par outil ?

Ce sont des objets que l’on interprète comme étant à l’interface entre nous et l’environnement. Le terme est donc extrêmement vague, puisque ces outils peuvent être des objets naturels sans modification, ou des objets que l’on a modifiés afin de pouvoir réaliser une action. Le statut d’outil est plus lié à la façon dont on le perçoit qu’à sa réalité même. Par exemple, on sait que les singes à l’état sauvage utilisent des objets naturels en pierre, sans les transformer, comme outils pour casser une noix. En revanche ils transforment la matière végétale, en la cassant avec les dents. C’est le cas des bâtons permettant de déloger un lézard ou d’attraper des termites. Quels que soient ces objets, quand on les retrouve hors contexte, on ne sait pas que ce sont des outils. Vus entre les mains des singes, ils deviennent les témoins de cultures.

Or, pour qualifier un objet préhistorique d’outil, il faut qu’il ait été transformé. Sans cela, rien n’atteste qu’il ait pu servir. Il faut aussi que cet objet ait été conservé. Des outils ou parties d’outils ont pu être en bois, en os, en fibres végétales, en tissus animaux… Mais tout ça est périssable. Seul reste le minéral, la pierre. Et plus on remonte dans le temps, plus cela devient flou.

 

Parce que les vestiges deviennent de plus en plus rares ?

Oui, mais pas seulement. C’est aussi lié à l’idée que l’on a de ce que doivent être les premiers outils. On va souvent dire que cet objet a été un outil parce qu’il a fait l’objet de transformations, et que ces transformations sont suffisamment complexes pour que nous soyons certains que ce n’est pas la nature qui les a faites. C’est toujours très subjectif. Mettez dix archéologues autour d’un objet, et vous pourrez avoir dix analyses différentes.

 

Mais jusqu’à quand peut-on remonter dans le temps avec les pierres taillées ?

En Afrique, on en est à peu près à 2,7 millions d’années (Ma). En Chine, entre 2,2 et 2,5 Ma. Le plus ancien reste en Afrique. Mais il faut savoir qu’en Afrique de l’Est, vous n’avez pas besoin de fouiller pour ramasser de très vieux outils, l’érosion des rivières et l’activité volcanique du Rift les déterrent pour vous. Cela explique pourquoi ce terrain est très documentée. Dans les sites asiatiques sur lesquels j’ai travaillé, on devait creuser des dizaines voire des centaines de mètres de sédiments, et c’est le hasard qui permet de découvrir un site, jamais la recherche systématique, qui en est rendue impossible.

 

Ce qui revient à chercher une aiguille dans une botte de foin, si on se rappelle que la densité humaine devait être alors très faible. Peut-on au moins deviner qui a fabriqué les premiers outil ?

Non. Car il n’existe aucun site associant des objets dont on soit assuré qu’il s’agit d’outils avec des restes d’homininés. À 2,7 Ma, en Afrique, on sait qu’on a plusieurs candidats possibles : Australopithèques, Paranthropes, Homo… Et le jour où vous trouverez les restes d’un homininé associés à des outils, qui vous dira qu’il n’a pas été mangé par les détenteurs de ces objets ? Cela me décourage que l’on pose toujours la question, parce qu’en l’état actuel de nos connaissances il ne peut y avoir de réponse. Il faut comprendre que plus on recule dans le temps, moins il y a de choses à dire. Ce qui n’empêche pas certains de vouloir retracer l’histoire du début de l’humanité à la manière d’une épopée.

 

Mais ne peut-on rien savoir de certain sur ces outils ? Après tout, l’archéologie expérimentale nous montre aujourd’hui comment ils pouvaient être taillés, utilisés…

Je suis moi-même expérimentateur depuis longtemps. On a beaucoup expérimenté, mais trop souvent sans réflexion. Nous n’avons généralement reproduit que des formes, réduisant ce qui est par ce qui « doit-être ». Il faut procéder à de vraies expérimentations…

 

Comme chasser le mammouth au milieu de la steppe ?

Non, pas du tout ! Une vraie expérimentation, c’est comme un test de médicament : vous définissez une opération, et vous en faites varier tous les paramètres, les uns après les autres. Prenez un caillou, et essayez de faire un tranchant. Dans le caillou, vous avez la partie qui va être travaillée, un tranchant, et la partie qui sera prise en main. Comment vous l’utilisez, comment vous le manipulez, et pour faire quoi ? Face à ces objets là, nous sommes dans la position du chimpanzé auquel on a donné un crayon en lui demandant d’écrire. Pour vraiment appréhender ces outils dans leur contexte, il faut les repenser totalement. Il faut comprendre comment ces objets ont évolué dans le temps. Ce qui nous permettra d’imaginer à quoi a pu ressembler le premier outil, et de comprendre la place qu’occupe celui qu’on a sous les yeux.

 

Ce pourquoi vous recourez à la notion de lignée…

Oui, tout à fait. Un objet peut avoir des fonctions différentes, et une même fonction peut être réalisée par différents objets. Un objet ne se définit pas par ce qu’il donne à voir, mais dans son devenir. Toute la difficulté est là. La notion de lignée fixe une échelle d’évolution d’objets successifs répondant au même principe de fonctionnement et ayant le même objectif. Vous faites une différence entre une 2 CV, une 4L, une DS, etc. Vous êtes capable de dire que ce sont des voitures, de parler de leurs caractéristiques techniques, de savoir que l’une a précédé l’autre. Un Martien qui voit une DS ne sait pas ce que c’est. La clé de voûte, c’est la mémoire. Vous, vous avez la mémoire de la lignée des voitures, vous savez à quoi ressemblait la première, et vous pouvez restituer l’action qui consiste à s’en servir, et vous pouvez anticiper les modèles des voitures du futur.

De la même façon, si je vous dis hache, vous savez que ça sert à couper le bois, qu’elle ait 10 000 ans ou qu’elle soit neuve. En revanche si je vous dis biface, là rien ne va plus. On n’en fait plus depuis 300 000 ans dans le bassin méditerranéen et sa périphérie, on en a perdu la mémoire. Et l’expérimentation nous permet de savoir comment les fabriquer, mais pas comment ils ont été utilisés.

 

Vous avez écrit que « les préhistoriens cataloguent des objets de pierre taillée, mais ce savoir cumulatif ne peut générer un savoir explicatif. Comment expliquer en effet qu’un même objet réalisé et utilisé de façon identique, soit produit en des lieux différents, sans contacts possibles, comme l’expose l’ethnologie, et en des périodes différentes, comme le montre l’archéologie ? » L’approche en termes de lignée vous permet-elle d’expliquer le paradoxe que vous soulignez ?

André Leroi-Gourhan a posé une grande œuvre à l’issue de la Seconde Guerre mondiale. Un des volets de sa recherche, concernant la notion de tendance, a été abandonné en préhistoire. Il n’a intéressé que les philosophes et certains historiens. Nous faisons des recherches multiples, produisons du savoir ponctuel. Ethnologue, linguiste, préhistorien, lui était capable d’aborder un problème sous de multiples facettes, ce qui nous fait défaut aujourd’hui. Nous ne voyons un objet, spécialisation oblige, qu’à travers un seul aspect. Leroi-Gourhan avait une vision globale, intégrée. Il a travaillé sur l’aspect diachronique des objets, leur évolution sur le long terme. Et il a effectivement observé que des inventions apparaissaient d’un continent à l’autre, suivaient une trajectoire parallèle, sans communication possible entre ces lieux.

C’est un problème qu’il reste à élucider, on ne peut pas se permettre de dire que ça n’existe pas. Ainsi, quand on compare la Chine, l’Afrique et le bassin méditerranéen, le démarrage est toujours le même, c’est l’utilisation d’un tranchant. Mais la partie préhensive diffère. En Afrique, on va fracturer des blocs et récupérer des éclats. Le tranchant se donne systématiquement puisque vous fracturez une matière minérale, mais la partie que vous aurez en main est aléatoire. En Asie, surprise : les premiers objets qu’on a sous les yeux, à 2,2 Ma, sont déjà façonnés. Les galets ont été sélectionnés pour leur préhension, façonnés pour aménager un tranchant. On en retire l’impression qu’en Asie, la partie préhensive a été un élément extrêmement important dès le départ.

 

Et là-dessus arrivent les bifaces, des pierres à deux tranchants souvent symétriques ?

Oui, beaucoup plus tard. 1,7 Ma en Afrique, et 0,8 Ma en Chine. Mais il faut savoir que ce qu’on appelle biface apparaît en plusieurs endroits, très décalés dans le temps. Ensuite que les densités varient. Les bifaces en Afrique de l’Est sont très communs. Ce sont les premiers objets façonnés, ils se substituent à ces premiers tranchants à la partie préhensive aléatoire et représentent au maximum 20 % de la boîte à outils – tout le reste continue à être fait d’éclats. En Chine les bifaces restent rarissimes, 0,1 %, donc 99,9 % d’outils restants faits à partir de galets. Et entre les deux, au Proche-Orient, il y a des endroits où les bifaces représentent 100 % des pièces. Et on voudrait que ce soient partout et toujours les mêmes bifaces, en négligeant ces contextes ! Sans compter que les matières varient : silex bien sûr, basalte, quartztite…

 

Certains font de la diffusion des bifaces l’indice de schémas migratoires, élaborant une théorie de peuplement qui verrait Homo erectus sortir d’Afrique et conquérir le monde…

Si on introduit le degré d’évolution de ces pièces, on se rend compte que pour une même temporalité entre l’Afrique ou le Proche-Orient et l’Europe, il existe un décalage des plus importants. Alors qu’en Afrique ou au Proche-Orient les bifaces sont à un stade de lignée avancée, en Europe à la même période les bifaces en sont à un stade technique de début de lignée. Ces données sont en faveur de la notion de convergence d’une idée technique, et non le fait de populations migratrices conquérantes générées par un nouveau type humain. Une idée technique peut très bien être empruntée par un groupe par simple contact, et être alors transformée selon des traditions techniques propres. En réalité, en ne prenant qu’un type d’objet, qui plus est fantasmé, nous sommes dans la fabrication d’une épopée et non dans une démarche scientifique rigoureuse.

 

Ce ne serait en tout cas pas une raison esthétique, comme le défendent certains de vos collègues, qui a poussé à tailler des bifaces ?

Quand on n’a rien à dire, c’est ce qu’on avance. Quand on ne comprend pas un objet, on le juge en termes esthétiques : est-il digne ou non de figurer dans une vitrine ? Maintenant, tous les objets façonnés par des artisans ont une plus-value. Sur un biface, qui nécessite plus de travail qu’un éclat, ça se voit mieux.

 

 

biface

Ces deux bifaces ont été fabriqués il y a 300 000 ans, en des lieux sans contact possible. Celui de gauche, de couleur jaune, a été trouvé sur le site d’Umm el Tlel (Syrie) – photo Éric Boëda. Celui de droite, bleu, provient du site de Petit Bost en Aquitaine – photo Laurence Bourguignon.

Selon vous, il n’est donc pas cohérent de reconstituer comme on le fait des mouvements migratoires de la lointaine préhistoire en suivant les schéma de diffusion de certains outils de pierre taillée ?

Le scénario des différentes sorties d’Afrique, de migrations d’Ouest en Est, est une histoire d’anthropologues et pas de préhistoriens. Il n’est pas innocent que les sorties d’Afrique sont toujours mises en parallèle avec l’apparition d’un nouveau bel objet, comme c’est le cas avec les bifaces et l’Homo erectus, et ainsi de suite. Les évolutions biologiques et technologiques sont supposées se confondre, et toute une évolution est alors ramenée à un seul objet.

Quand vous travaillez sur la matérialité des choses, vous voyez que c’est impossible. Dans chaque espace géographique, vous avez des identités complètement différentes. Encore plus étonnant : une même région va voir plusieurs identités se succéder, mais malgré tout, conserver un tronc commun, une identité géographique de base. Au niveau de la culture technique, nous voyons des innovations apparaître dans un groupe, puis parfois se diffuser vers un autre groupe, par contact. Mais là où des anthropologues verraient une population remplacer sa voisine en emmenant sa culture, je perçois plutôt qu’une idée technique a été captée et adaptée par la population voisine. Travailler sur la matérialité des vestiges ne confirme pas le grand récit anthropologique.

 

Votre discours n’est-il pas trop critique vis-à-vis des approches contemporaines de la préhistoire ?

J’ai participé longtemps à cette préhistoire là, mais j’en étais arrivé à m’ennuyer. Puis j’ai eu la chance de rencontrer des philosophes, des historiens, des ethnologues. Ils souhaitaient se confronter à la profondeur temporelle, à Néandertal. J’étais intéressé par leur façon de penser. Ça a été la découverte de Gilbert Simondon (1). Une voiture n’arrête pas de se transformer, tout en gardant le même principe de fonctionnement. À partir de là, je me devais d’analyser les objets différemment. Ma façon de travailler aujourd’hui est certainement mieux perçue à l’étranger qu’en France, là où il n’y a pas d’écoles constituées.

 

Comment procédez-vous ? En multipliant les points d’observations dans le monde, pour restituer les différentes lignées régionales, les mémoires oubliées d’objets dont nous supposons à tort qu’ils sont identiques ?

Il faut revenir à la sémiologie, essayer de retranscrire les intentions techniques qu’il y a derrière chaque objet. Et il faut avoir une analyse au niveau structural. Je suis comme un docteur devant un malade : je peux regarder les symptômes et les décrire ; je peux aussi les prendre en compte dans leur ensemble, et poser un diagnostic.

 

Si l’outil n’est pas, n’est plus le propre de l’homme, pourrait-on envisager néanmoins qu’il existe une coévolution de l’homme et de la technique ?

Oui, je le pense. Les chimpanzés transforment des bâtons, ils ont une certaine technicité, mais ils n’ont pas connu cette évolution. On n’a jamais vu de singe utiliser des tranchants. Ce qui est très surprenant chez l’homme, c’est la permanence des changements techniques : depuis 2,5 Ma, il n’a jamais arrêté d’innover, il a toujours cherché à modifier l’objet. C’est là à mon sens la grande spécificité humaine. L’homme a toujours cherché à modifier ses objets, les singes ne l’ont pas fait. Pourquoi ? Je n’en sais rien.

Et quand on prend un cycle d’évolution, que j’appelle une lignée d’objets, ces lignées, dans la lointaine préhistoire, font jusqu’à 0,5 ou 0,6 Ma. Et au fur et à mesure que l’on se rapproche du présent, le temps de réalisation de ces lignées devient de plus en plus court. Aujourd’hui, on a des objets qui naissent, évoluent et disparaissent en une génération, voire moins. Sur le temps long, force est de constater que les cycles de transformation des objets deviennent de plus en plus brefs. En revanche, les hommes ne se sont jamais satisfaits de ce qu’ils ont créés. D’où les lignées.

 

Propos recueillis par Laurent Testot

 

(1) Le philosophe Gilbert Simondon (1924-1989) a traité des rapports de l’homme au vivant et de l’histoire de la technique.

 

NB : une version courte de cet entretien est simultanément publiée dans le dossier « Préhistoire : quinze questions sur nos origines », dirigé par Laurent Testot, Sciences Humaines, n° 262, août-septembre 2014.

 

Le monde à venir sera multipolaire

 Voici un entretien avec Gérard Chaliand, auteur de nombreux livres, dont Anthologie mondiale de la stratégie (Robert Laffont, 1990, rééd. 2009) ; Guerres et Civilisations (Odile Jacob, 2005)… Mais surtout géostratège atypique, observateur de guérillas et historien de la stratégie, dont l’autobiographie vient d’être rééditée – La Pointe du couteau. Un apprentissage de la vie (Robert Laffont, 2 tomes, 2011-2012, Seuil, rééd. 2013). Cet entretien a été recueilli à l’occasion de la parution de Vers un nouvel ordre du monde, coécrit avec Michel Jan (Seuil, 2013), et il est simultanément publié dans Les Grands Dossiers des sciences humaines, n°33, titré « Vers un nouveau monde », en kiosque de décembre 2013 à février 2014.

GD

SH : En quoi l’ordre mondial change-t-il?

G.C. : Il se modifie d’une façon extrêmement visible. La crise financière, et par la suite économique, subie par les États-Unis en septembre 2008 en constitue le symbole et s’est répercutée en Europe. Nous, Européens tout particulièrement, n’en sommes toujours pas sortis. Cette crise s’est produite au moment même où la Chine dépassait le Japon, « réémergeant » au deuxième rang mondial, derrière les États-Unis. En d’autres termes, ce moment marque la fin de deux siècles et demi d’une domination absolue exercée par l’Europe puis les États-Unis sur le monde. Je dis bien deux siècles et demi, car je ne fais pas remonter cette hégémonie à la découverte des Amériques en 1492 comme on nous l’a enseigné. Dans le monde du début du 18e siècle, les puissances étaient la Chine des Mandchous, l’Inde moghole, la Perse safavide et l’Empire ottoman, ce dernier mettant en 1683 le siège devant Vienne. Chine, Inde, Iran, Turquie… Tous ces pays ne sont pas des émergents, mais des réémergents.

Le choc des civilisations a lieu au 19e siècle, avec l’irruption brutale de l’Europe dans le champ asiatique et africain, à l’étonnement absolu des dominés qui ne comprennent pas ce qui se passe. Ils vont mettre pour cela trois générations : la première résiste, idéologiquement (le néoconfucianisme en Chine) ou religieusement (l’islam en Asie occidentale ou en Afrique du Nord) ; la deuxième parle la langue du colonisateur, estime que c’est dans la supériorité de ses institutions que réside sa force – d’où la révolution des Jeunes Turcs, la proclamation de la République chinoise, la révolution constitutionnelle perse, la fondation du parti Wafd en Égypte… La troisième génération mesure l’avance technique de l’Europe mais, surtout, comprend la puissance du nationalisme moderne, l’assimile et le retourne contre l’oppresseur. Les mouvements de libération nationale triomphent au lendemain de la Seconde Guerre mondiale. À l’issue du conflit, le dynamisme économique des États-Unis, combiné à une puissance bien supérieure à celle de son rival soviétique, va faire perdurer l’hégémonie occidentale.

1979 marque une date charnière : Deng Xiaoping engage la Chine dans l’économie de marché sous contrôle de l’État ; l’ayatollah Roubollah Khomeiny instaure la République islamiste d’Iran, ressuscitant le chiisme politique et prétendant incarner l’anti-impérialisme au nom de l’islam militant ; la seconde crise pétrolière confirme, après la première (1973), qu’il serait urgent d’apprendre à ne pas vivre au-dessus de nos moyens ; les Soviétiques interviennent en Afghanistan, où ils se heurtent au jihad sunnite financé par l’Arabie Saoudite, appuyé par le Pakistan et encouragé par les États-Unis ; l’année suivante, Ronald Reagan et Margaret Thatcher initient une dérégulation économique mondiale, ponctuée par une nouvelle course aux armements qui va contribuer à faire sombrer une URSS déjà paralysée.

SH : Comment la réémergence de la Chine se manifeste-t-elle ?

G.C. : D’abord, par une croissance économique considérable sur une période prolongée. Ensuite, par la dictature absolue du Parti, qui a la ferme intention de continuer à guider le processus à sa façon. Enfin, par des politiques d’investissement tous azimuts, sur le plan de l’énergie, mais aussi des terres agricoles et des matières premières, en Afrique, Amérique du Sud, Asie centrale… Son objectif est avant tout de nourrir sa croissance. La réponse des États-Unis est de se poser en arbitre en Asie orientale et du Sud-Est, d’y renforcer leur présence économique et financière, de multiplier les alliances. Certaines sont anciennes, le Japon, la Corée du Sud ; d’autres nouvelles, le Viêtnam et surtout l’Inde. Celle-ci a toujours été non alignée, plutôt proche de l’URSS, mais elle se sent désormais en rivalité avec la Chine, et a besoin des États-Unis. Les Chinois perçoivent comme hostile le jeu d’alliances transpacifique que cherche à bâtir l’Amérique, mais leurs échanges avec les États-Unis sont cruciaux. Les relations Chine-États-Unis sont donc empreintes tant de rivalité que d’association.

SH : Quels autres grands bouleversements sont à l’œuvre ?

G.C. : La montée en puissance des autres émergents, l’Inde au premier chef, la majeure partie de l’Asie du Sud-Est et orientale, la Corée du Sud, Taïwan… En chiffres, 4 milliards d’individus. Au plan international, l’élargissement du G7 (États-Unis, Japon, Allemagne, France, Royaume-Uni, Italie, Canada), ex-club des riches, au profit du G20 (19 pays + l’Union européenne, représentant 90 % du produit mondial brut, PMB, soit la somme des PIB de tous les pays).

Le Brésil est le seul émergent parmi les Bric (Brésil, Russie, Inde, Chine). On disait de lui, depuis cinquante ans, qu’il était terre d’avenir, un avenir perpétuellement remis à plus tard. Aujourd’hui, avec le Mexique, il figure dans les 12 premières économies de la planète. La Turquie est en 17e position. C’est un État musulman, comme l’Indonésie et la Malaisie. Ces trois pays connaissent une croissance soutenue, prouvant que l’islam n’est nullement incompatible avec le développement.

Les Printemps arabes ont vu la société civile se manifester en ville, mais quand on est passé aux urnes, le poids des urbanisés récents et de la paysannerie, infiniment plus conservateurs que les élites urbaines, a entraîné l’élection de ceux qui depuis longtemps travaillaient le social à la base, par des actions caritatives, éducatives, etc. : les Frères musulmans. Leur victoire a été payée de plusieurs décennies de travail et de répression. Mais une fois élus, ils n’ont pas souhaité gouverner de façon démocratique et n’ont été capables de lancer aucune mesure dynamique. Les militaires ont repris le pouvoir en Égypte à la faveur des protestations populaires urbaines dans la mesure où ils sont la seule force organisée, mais la marginalisation brutale des Frères musulmans ne conforte nullement la démocratie. L’avenir de l’Égypte paraît mal assuré.

SH : En Syrie, le Printemps a débouché sur une guerre civile…

G.C. : La guerre en Syrie, d’un point de vue musulman, apparaît comme un nouvel épisode du bras de fer que se livrent l’Arabie Saoudite et l’Iran depuis que R. Khomeiny, pourtant chiite et perse, réussissait à créer un fort sentiment anti-impérialiste dans le monde musulman. Or les Saoudiens n’ont eu de cesse, depuis que le premier choc pétrolier leur en a conféré les moyens, d’intervenir de l’Afrique à l’Indonésie en finançant l’islamisme militant. Et depuis 1979, les chiites chassent sur leur terrain. Ce qui se cristallise aujourd’hui en Syrie, c’est l’affrontement de l’arc chiite (le régime alaouite de Bachar el-Assad, allié à l’Iran, au Hezbollah libanais et à l’Irak du Premier ministre chiite Nouri el-Maliki) et du jihad sunnite, l’Arabie Saoudite finançant les groupes islamistes radicaux, le Qatar faisant de même pour les Frères musulmans. Le processus a été marqué par l’affaiblissement, faute de soutien international, des manifestants plus ou moins modérés de la première heure, et par l’action de la Russie, qui a joué de sa position au Conseil de sécurité de l’Onu pour empêcher toute initiative en Syrie. Il est vrai que, comme la Chine, elle a été flouée en Libye où l’accord d’intervention consistait à protéger les populations, non à liquider un régime. Elle rappelle aussi qu’elle existe stratégiquement hors de son «proche étranger».

L’impuissance relative des États-Unis vient d’une erreur politique : en se concentrant sur l’invasion de l’Irak, ils ont négligé d’asseoir leur contrôle de l’Afghanistan. Leur allié pakistanais jouant double jeu, favorisant les Talibans qui profitaient du vide dans les campagnes pour en prendre le contrôle politique et administratif, la situation est devenue incontrôlable. En effet, ce sont les Talibans qui rendent qui rendent aujourd’hui la justice dans les régions pachtounes. L’objectif du remodelage du grand Moyen-Orient qui devait être le couronnement de la stratégie des néoconservateurs et de leurs alliés s’est révélé un fiasco, et le retrait d’Irak prélude à celui d’Afghanistan. Le succès tactique en Libye, où les aviations française et britannique ont appuyé les rebelles en 2011, ne doit pas faire oublier qu’il a fallu sept mois de bombardements pour renverser le dictateur d’un pays de 6 millions d’habitants, dont la moitié était en guerre contre lui. Par ailleurs, rien n’aurait été possible sans l’appui décisif des États-Unis en matière d’observation satellitaire ou de ravitaillement en vol. Ce succès tactique est stratégiquement un échec, compte tenu des conséquences aussi bien en Libye qu’au Sahel. De surcroît, avoir outrepassé le mandat onusien est un précédent dangereux. Qu’aurions-nous dit si cela avait été fait par la Russie ou la Chine?

Ce déclin relatif de la puissance américaine est entamé depuis 2008, avec la crise financière et l’affirmation croissante des réémergents. Il se manifeste en Syrie par l’indécision. Il serait certes possible d’affaiblir le régime en le frappant, mais cela reviendrait à favoriser, dans les conditions présentes, les islamistes radicaux. Sans doute eut-il fallu agir avant, mais il ne faut pas sous-estimer le poids mort de l’Irak, la poursuite de la guerre en Afghanistan, sans compter la lassitude des opinions publiques, aux États-Unis comme en Europe, et la crise économique qui éloigne des préoccupations étrangères. Enfin, dans le cas de Barack Obama, une partie importante des Républicains s’évertue à le paralyser.

SH : Ce nouvel ordre mondial va-t-il voir l’effacement de l’Europe ?

G.C. : La campagne aérienne sur la Libye n’aurait absolument pas été possible sans l’appui logistique des États-Unis, et aurait-elle duré quelques mois de plus, les aviations française et britannique se retrouvaient sans munition. Au Mali, en revanche, nous avions les moyens d’atteindre les objectifs que nous nous étions fixés. La puissance militaire de certains pays européens, pour être limitée, demeure. Mais sur le plan politique, l’Europe n’a jamais su accorder ses violons. Elle s’est alignée sans réflexion sur la politique étrangère des États-Unis, visant à une extension maximale de l’Otan et de la Communauté européenne, amenant dans le sein de ces organisations des pays issus du bloc de l’Est, rognant les marges de la Russie (Géorgie, Ukraine). L’irruption de Vladimir Poutine marque un retour, vu de Russie, à la dignité nationale.

SH : Les États-Unis risquent-ils de subir un sort comparable ?

G.C. : Non. Ils sont infiniment mieux armés que l’Europe, qui fédère pourtant 515 millions d’habitants, mais qui est handicapée par son bloc du Sud, latin, catholique, en perte de vitesse. Les atouts américains sont nombreux : dynamisme économique, capacité à rebondir, innovation technologique, démographie… Cette dernière est nourrie par l’immigration, elle en fait le troisième pays au monde (315 millions d’habitants) derrière les géants chinois (1,35 milliard) et indien (1,21 milliard). Et cette immigration est motrice, l’intégration est assurée par le travail, la promotion sociale, le patriotisme. L’Europe s’est enfermée dans sa culpabilité postcoloniale, elle veut imposer un modèle moral en luttant contre la xénophobie, pourtant plus présente presque partout ailleurs dans le monde. Si un Marocain, un Chinois ou un Japonais veut prendre une nationalité européenne, il le peut. L’inverse n’est pas possible.

Prenant acte du basculement du monde, les États-Unis se redéploient vers le Pacifique, délaissant l’Atlantique. Ils soulignent ainsi le changement d’épicentre stratégique et le nouveau rival.

SH : À quoi le monde à venir devrait-il ressembler ?

G.C. : Il sera multipolaire, marqué par l’apparition ou la réémergence de puissances régionales. il ne verra sûrement pas la fin des États, puisque les deux premières puissances d’aujourd’hui sont des nationalismes bien affirmés. Si la fin de l’hégémonie absolue des États-Unis est un fait, ceux-ci vont continuer à être prééminents. Et la Chine fera tout ce qu’elle peut pour les rattraper. Sur le plan économique, ce n’est qu’une question de temps. En matière militaire, les États-Unis devraient conserver leur phénoménale avance pour une durée imprévisible.

Propos recueillis par Laurent Testot