Comment déterminer la taille et l’équipage des vaisseaux spatiaux qui partiront coloniser l’espace

L'espace reste à coloniser. authorCC BY

Cet article est publié dans le cadre du colloque « Transmission » organisé par l’Université de Strasbourg et l’IUF, qui se tiendra les 28, 29 et 30 mai prochains, et dont nous sommes partenaires.


En 1995, les astrophysiciens Michel Mayor et Didier Quelozm découvraient la toute première exoplanète orbitant autour d’une étoile autre que notre Soleil : 51 Pegasi b. La découverte de ce monde extraterrestre inaugura dès lors la quête d’un monde habitable pouvant abriter la vie. Vingt-trois ans plus tard, le nombre d’exoplanètes à l’existence confirmée dépasse les 3700 : ainsi, la possibilité de trouver un monde semblable au nôtre se rapproche.

La détection récente de Proxima Centauri b, l’exoplanète la plus proche de la Terre que nous puissions trouver puisqu’elle orbite autour de l’étoile la plus limitrophe de notre Soleil, ouvre une autre possibilité intéressante, pour nous autres, habitants de la planète Terre… Ce corps céleste très probablement rocheux et ayant une masse proche de celle de notre planète, est d’un très grand intérêt car sa température d’équilibre implique que l’eau pourrait être liquide à sa surface. Située à 1 295 parsecs (40 000 milliards de kilomètres), Proxima Centauri b est donc une destination idéale. Un court voyage interstellaire ayant pour but l’exploration et la colonisation est théoriquement possible : nous pourrions ainsi implanter l’espèce humaine sur une autre planète.

Proxima Centauri b, vue d’artiste. ESO/M.CC BY-SA

Toutefois, même si une fusée pouvait se propulser à un pour cent de la vitesse de la lumière, vitesse bien plus rapide que celle de nos engins spatiaux habités actuels, le voyage vers Proxima Centauri b durerait tout de même plus de 423 ans… Dans ces conditions, pas de voyage vers les exoplanètes possibles dans le temps d’une vie humaine. Comment faire ? Les chercheurs doivent trouver une solution pour que l’équipage survive des centaines d’années dans l’espace lointain. Pourrait-on, par exemple, congeler les corps ? Malgré les avancées dans le domaine, les technologies de cryogénie ne sont pas encore viables car une fois les cellules congelées, des cristaux de glace se forment au niveau des parois cellulaires (vitrification), menant à la destruction du corps une fois qu’il est réchauffé.

Alors, une hibernation ? Des scénarios d’animation suspendue, où les fonctions physiologiques des membres d’équipage sont ralenties jusqu’à l’arrivée du vaisseau, doivent encore être explorées. Ou bien une maternité volante, où des embryons humains en phase précoce chouchoutés par des robots mûriraient tranquillement jusqu’à destination ? Le problème majeur est l’absence de parents humains pour élever les enfants. De plus, il n’y a jamais eu de population entièrement issue de la fécondation in vitro. Il n’est peut-être donc pas souhaitable que la mission s’appuie sur cette méthode…

La meilleure option pourrait être de compter sur des navires géants autonomes qui voyageraient dans l’espace pendant que leur population serait active. On vivrait et on mourrait à bord jusqu’à arriver à destination. Plusieurs idées de structures et de conceptions ont été présentées dans le recueil de textes Islands in the Sky : Bold New Ideas for Colonizing Space » en 1996 mais leurs hypothèses mathématiques et statistiques ne sont plus adaptées à notre technologie actuelle.

L’anthropologue John Moore a été le premier à utiliser un outil ethnographique dénommé Ethnopop pour estimer numériquement le nombre minimum de colons pour un voyage multi-générationnel. Ethnopop simule la situation matrimoniale et démographique de petits groupes de colons et utilise des modules externes pour créer épisodiquement des épidémies et des catastrophes. Mais ces modules n’ont jamais été utilisés dans le contexte d’un vol spatial puisque ce programme a été conçu pour calculer et analyser les migrations historiques des premiers groupes humains.

Eviter la consanguinité

Considérant un voyage spatial où l’immigration et l’émigration ne sont pas possibles, Moore a conclu qu’une mission de 200 ans devrait avoir un équipage initial de 150 à 180 personnes. Selon lui, l’équipage devrait être jeune et autorisé à ne procréer que tardivement durant le cycle de reproduction des femmes afin de retarder l’apparition de la première génération aussi longtemps que possible. Ces conditions permettent d’éviter une surpopulation ainsi qu’un taux élevé de consanguinité.

Des calculs plus récents réalisés par l’anthropologue Cameron Smith tendent à réviser ces chiffres à la hausse. Selon lui un équipage initial de 14 000 à 44 000 membres est bien mieux optimisé pour assurer une transmission saine du patrimoine génétique humain. Selon son étude, un équipage de 150 personnes serait toujours au bord de l’extinction dans le cas d’une catastrophe de grande ampleur. Smith préconise un échantillon génétique initial beaucoup plus important, ce qui se traduit par de plus grands équipages. La variation importante de l’estimation de la taille minimale est due aux hypothèses sous-jacentes utilisées par l’auteur, qui a calculé le nombre de colons arrivant à destination en utilisant une approche statistique simple. Ainsi, il semble que l’estimation d’un nombre optimal pour la population initiale est difficile, même si nous ne tenons pas compte des effets psychologiques que la perte de la planète mère peut avoir sur l’équipage.

Le projet Heritage

C’est dans ce contexte qu’en 2017, j’ai créé Heritage, qui est un nouvel outil statistique de simulation de type Monte-Carlo. La physicienne des particules Camille Beluffi, l’astrophysicien Rhys Taylor et l’ingénieur en R&D Loïc Grau sont aujourd’hui associés à cette initiative qui vise à fournir des simulations réalistes en vue de l’exploration spatiale future. Notre projet est multidisciplinaire, il utilise l’expertise de physiciens, astronomes, anthropologues, ingénieurs en aéronautique, sociologues, médecins et de bien d’autres. Heritage est le premier code entièrement dédié au calcul de l’évolution probabiliste d’un équipage à bord d’un navire interstellaire. Il doit permettre, entre autres, de savoir si un équipage avec une taille proposée peut survivre plusieurs générations sans aucun stock artificiel de matériel génétique supplémentaire.

La détermination de la taille minimale de l’équipage est, on l’a compris, une étape essentielle dans la préparation de toute mission multigénérationnelle, affectant les ressources et le budget requis pour une telle entreprise mais ayant aussi des implications sociologiques, éthiques et politiques. Ces éléments sont essentiels pour étudier la création d’une colonie autosuffisante afin que des humains puissent établir des implantations planétaires.

Stanford Torus : vue d’artiste d’un habitat spatial. Donald Davis/NASA

Les premiers résultats de notre collaboration ont été publiés dans le journal du British Interplanetary Society et un autre article est sous presse. Une présentation publique de nos travaux sera proposée durant le colloque Transmission : on y montrera que les chiffres d’équipages proposées par Moore et Smith ne peuvent être viables sur des voyages de très longue durée. Il s’agit de déterminer les principes et règles de vie nécessaires à ce qu’un équipage de la plus petite taille possible puisse assurer une mission multigénérationnelle viable et résistante à l’apparition de catastrophes et maladies graves. Le code est actuellement en train d’être développé pour pouvoir prédire les besoins nutritionnels de l’équipage et déterminer ainsi la surface nécessaire à réserver à une agriculture spatiale à l’intérieur même du vaisseau. Pour ce faire les serres hydroponiques sont probablement les meilleures options actuelles et de tels calculs donneront bientôt des contraintes sur la taille minimale d’un vaisseau.

Ainsi les premières études étayées d’exploration spatiale commencent à voir le jour. Le sujet est encore vaste et de nombreux facteurs humains, spatiaux, culturels, psychologiques ou sociaux doivent être inclus dans le code informatique. La minutie est indispensable si nous voulons que notre espèce puisse investir de nouveaux mondes extrasolaires.

Les écrivains, ces passeurs d’histoires

 

Miniature de Vincent of Beauvais rédigeant le manuscrit du Speculum Historiale en français, Bruges, c. 1478–1480. British Royal Library/WikipediaCC BY-SA

Cet article est publié dans le cadre du colloque « Transmission » organisé par l’Université de Strasbourg et l’IUF, qui se tiendra les 28, 29 et 30 mai prochains, et dont nous sommes partenaires.


Aux origines des littératures, on trouve toujours l’idée de sauver quelque monument de la pensée sur le point de se perdre. Les deux épopées d’Homère veulent transmettre à l’avenir non seulement une guerre de Troie remontant à environ quatre siècles plus tôt, mais le récit de cette guerre et de ses suites, comme on le voit dans cet étrange épisode de L’Odyssée où Ulysse, recueilli à la Cour du roi Alkinoos, entend un aède chanter déjà des exploits de cette guerre dont il a été lui-même le héros, ce qui lui tire des larmes. Il serait peut-être banal de dire que la littérature transmet, elle sauve, ce qui suppose une transmission vitale. Au cœur du Moyen Âge, les romans arthuriens (la « matière de Bretagne ») assurent la transmission et la survie à long terme des hauts faits des Chevaliers de la Table Ronde, et notamment de l’histoire sacrée du Graal. Le sort de la littérature antique s’est joué dans le scriptorium des abbayes médiévales ; nous ne la connaissons que grâce aux moines copistes. Transmission radicale, dans la mesure où la copie supposait la destruction du modèle antérieur.

À l’âge des œuvres sans auteurs – ou presque

La littérature transmet, et nous transmettons la littérature. Du moment que la littérature a commencé à se produire, et que cette production fait boule de neige, elle engendre de nécessaires passeurs. Et les écrivains sont les premiers à endosser ce rôle. La littérature est transmission de littérature. Nous connaissons les tragédies d’Ennius, le dramaturge de la république romaine, essentiellement parce que Cicéron aime à le citer : ces vers cités sont ce qui nous est transmis de son œuvre. L’orateur grec Hypéride est plus connu de nous par sa renommée, c’est-à-dire par ce que nous transmettent de lui ses contemporains, que par ce qui nous reste de ses discours, même si l’on ne cesse d’en retrouver, depuis le XIXe siècle, des morceaux.

Il a par ailleurs existé une très longue période, diamétralement opposée à la nôtre, où la notion d’auteur ne s’imposait pas. La matière était à tous, parce qu’elle n’appartenait à personne en particulier. Produire une œuvre, ce pouvait être en recopier une plus ancienne, plus souvent l’adapter à un contexte, à une époque, à un public (une Cour, un parvis, une foire). C’est ainsi que se transmet le roman de Tristan et Iseut, migrant d’œuvre en œuvre. Depuis les origines, le mythe incarne ce mode par excellence de transmission : un fonds narratif, avec ses épisodes, sa symbolique surtout (Œdipe, etc.), traverse les siècles et même, à beaucoup plus grande échelle, les civilisations, et vient déposer ses images dans un roman, une pièce, avant de poursuivre son chemin, dans une immense partie de furet. La légende est passée par ici, elle repartira par là. Jean Giraudoux, imaginant les prémisses du premier événement littéraire connu en Occident, précisément la guerre de Troie, dans une pièce de 1935 la fait pour finir advenir, bien que les personnages aient voulu croire jusqu’au bout qu’elle n’aurait pas lieu, et dans un ultime rebond fait annoncer (prédire, c’est son métier) par Cassandre, montrant Démokos mort à ses pieds, qui sera le casus belli : « Le poète troyen est mort. La parole est au poète grec ».

« Le philtre d’amour. Ms. français 112, fol. 239, BnF

Homère pourra alors entrer en scène, la littérature occidentale peut commencer, cette littérature qui dès lors ressemble moins à un symposium où un président de séance distribuerait les tours de parole qu’à une compétition olympique où le flambeau va passer de main en main, est de fait passé de main en main d’Homère… à nous aujourd’hui !

Plus ignorée, plus effacée a été l’image ou l’identité de l’auteur, plus la littérature a été pure transmission, de contenus et de formes. Le proverbe italien sur le traduttore traditore(traducteur traître) s’éclaire par là. L’essentiel n’est pas la fidélité à l’auteur, à une œuvre, mais de transmettre, d’être un passeur de littérature. Encore à la fin du XIXe siècle, pour donner à lire en France les romans de Dostoïevski, on retaille les chapitres, on supprime des passages parfois conséquents qui paraissent intraduisibles, non pas en mots, mais à l’âme française : l’essentiel est de faire sentir le souffle de l’âme russe, ce n’est pas une affaire d’exactitude philologique. Où l’on voit que la restitution de l’œuvre est renvoyée aux marges. Les œuvres même les plus récentes sont traitées un peu comme les mythes de toujours : il s’agit de les revivifier, non de les photographier.

L’écrivain éditeur

La reconnaissance de l’auteur en tant que tel consacrerait-elle l’âge de la transmission restreinte ? Non, bien évidemment. Qu’est-ce qui empêcherait le mythe (devenu avec Freud complexe) d’Œdipe de poursuivre sa vie et sa renaissance d’œuvre en œuvre, de l’Œdipe Roide Sophocle à La Machine infernale de Jean Cocteau ou aux Gommes d’Alain Robbe-Grillet ? La critique littéraire a forgé, dans la seconde moitié du XXe siècle, le concept d’intertextualité pour désigner cette nécessité, propre à la littérature, de se développer en récrivant les œuvres antérieures, en y renvoyant par toute une gamme allant de la plus voyante citation à la plus subtile allusion cachée. Le texte biblique se transmet, dans les œuvres littéraires, finalement un peu comme nous ont été transmises les pièces d’Ennius par Cicéron – sinon que nous possédons ici le modèle d’origine. Fabuleuse transmission que ce phénomène d’intertextualité, grâce auquel chaque œuvre littéraire entre dans une symphonie véritablement mondiale, où toutes les frontières se trouvent abaissées, et toutes les époques contemporaines les unes des autres.

« La Machine infernale » de Jean Cocteau revisite le mythe d’Oedipe. BIU Montpellier

Mais la question se resserre dans le cas, qui ne date pas d’aujourd’hui, où un auteur décide de se faire le passeur, l’éditeur d’un autre auteur ou contemporain, ou du passé. Beaucoup d’œuvres, on pourrait l’oublier, nous ont été transmises par des écrivains qui n’en étaient pas les auteurs. Pas de plagiat ici, pas d’adaptation anonyme : l’œuvre est identifiée, portera le nom de son auteur d’origine, qu’un autre auteur met tous ses soins à nous donner. Il y met tous ses soins parce que les auteurs estiment tacitement constituer une confrérie, exclusivement composée des gens de métier, qui ont en partage le privilège, au sens où l’octroyaient nos anciens rois, d’exhumer, de restaurer au besoin, et en tout cas de transmettre l’œuvre d’un confrère antérieur, qui a eu une postérité plus malheureuse, si bien que transmettre leurs écrits ainsi sauvés de la disparition et de l’oubli, c’est accomplir un acte de justice et, à travers cet auteur édité, venger la littérature contre les coups du sort et les revers de l’Histoire.

À l’aube du XXe siècle, un André Gide fondant, grâce à sa fortune familiale et avec un groupe d’amis, la Nouvelle Revue Française, qui fera école et d’où dérivera un comptoir d’édition que nous appelons aujourd’hui les éditions Gallimard, porte sur ses épaules – il n’est certes pas le seul – ni plus ni moins la responsabilité de la littérature.

 
Marie de Gournay. Wikipédia/Par Langlumé, Lithographe

Passeurs au sens le plus précis seront cependant Clément Marot éditeur non seulement de son père Jean Marot mais des Œuvres de François Villon, ou Érasme éditeur de Plutarque, ou Marie de Gournay fidèle éditrice des Essais de Montaigne (tout cela bénéficiant de ce que l’on a appelé la « révolution Gutenberg »), un peu plus tard Georges de Scudéry et Jean Mairet éditeurs de Théophile de Viau, plus tard encore Nerval éditeur de poètes du XVIe siècle, et Sainte-Beuve, et les Goncourt. Relève du même esprit cette critique d’auteur que les écrivains opposent, dans une altière fierté, à la critique journalistique – la critique vraie, de créateur à créateur, d’intuition à intuition, qui pénètre jusqu’au fond des œuvres, et la vraie transmission, une « lecture » qui restera (Balzac préfaçant La Chartreuse de Parme de Stendhal), et non la chronique du jour, par définition oubliée le lendemain. Proust surgit dans les colonnes de La Nouvelle Revue Française « À propos du “styleˮ de Flaubert », pour mettre si possible un terme à cette polémique accusant le solitaire de Croisset, en dépit de son "gueuloirˮ, de ne pas savoir écrire, et démontrer que ce que le journaliste académique prend pour des distorsions de la langue, c’est une vision unique et nouvelle portée sur le monde.

 
Le premier numéro de la NRF, en février 1909.Wikipédia

Rééditer les classiques

L’universitaire qui réédite les classiques est un passeur. S’il ne peut plus aujourd’hui, en raison d’une louable clause de scientificité, adapter les œuvres au goût ou aux capacités du public, il peut transmettre par morceaux choisis de grands ensembles qui risqueraient sans cela de n’être lus que par les érudits, telle l’immense Clélie de Madeleine de Scudéry (car tous les romanciers du XVIIe siècle ne composent pas leurs romans avec le classicisme ciselé de Mme de Lafayette) mise à la disposition du grand public à travers un choix d’épisodes dans la collection « Folio ». Rabelais est traduit en français moderne pour Presses Pocket, et un choix significatif de textes modernisés donnera à lire les Essais de Montaigne en respectant les trois couches successives de rédaction et d’édition originales.

De nos jours enfin, la révolution numérique permet à tous ceux qui le souhaitent, par le portail Gallica de la Bibliothèque nationale de France, de découvrir les éditions originales les plus anciennes, non seulement des Fleurs du Mal de Baudelaire mais d’œuvres de la Renaissance et du XVIIe siècle, les manuscrits des écrivains, la presse ancienne par grandes collections avec possibilité de recherche par sujets et mots clefs. C’est tout le patrimoine à portée d’écran, et tandis que le lecteur cultivé et curieux y trouve son bonheur et peut y fureter à loisir, la recherche la plus pointue accomplit ses pas de géant.

Une dédicace à Théophile Gauthier dans la première édition des « Fleurs du mal » de Baudelaire, en 1857. Gallica

La transmission de l’information, talon d’Achille de l’économie libérale


Le libéralisme économique repose sur une conception simple : lorsque chaque individu œuvre dans son propre intérêt, le résultat de ses actions concourt à l’intérêt général. Sous-entendu, le système socio-économique « s’auto-organise » d’une telle manière que l’ordre naturel de l’économie résulte des interactions entre des individus égoïstes.

Le libéralisme économique s’est donc attaché à offrir d’importantes libertés aux individus, afin de faciliter l’émergence de cet ordre économique. De ce point de vue, l’économie peut donc être considérée comme un grand ordinateur qui reçoit, coordonne et agrège toutes les informations transmises par les individus. Mais cette transmission n’est pas toujours optimale…

Le théorème de la « main invisible »

Pour donner corps à cette idée, depuis l’époque des Lumières, les économistes ont essayé de démontrer qu’une économie où les individus agissent dans leurs propres intérêts tend nécessairement vers un état socialement satisfaisant. L’explication de base est que « les marchés » assurent cette tâche.

Selon Adam Smith, c’est à travers les échanges et la transmission de l’information que lesdits marchés révèlent que l’économie générale fonctionne : la célèbre « main invisible » assure de manière abstraite la stabilisation de l’économie. Ce qui a été démontré plus tard est encore plus important : une fois cet équilibre établi, personne ne peut voir son sort amélioré sans que le sort de quelqu’un d’autre ne soit dégradé. Ce résultat, souvent appelé « Le théorème de la main invisible », est cependant très limité. Ainsi, le cas où un individu possède toute la richesse satisferait en particulier ce critère… Surtout, le problème reste que l’on n’a toujours pas spécifié le processus par lequel le marché transmet et agrège l’information.

Le marché, symbole du libéralisme, reste en effet une notion floue en économie. Comme l’a dit North, prix Nobel d’Économie,

« c’est un fait curieux que la littérature en économie contient si peu de discussion de l’institution centrale de l’économie néo-classique, le marché. »

Pour Léon Walras, le marché est une entité centralisée où les prix sont connus par tout le monde et sont ajustés par une autorité centrale. Ce qui est en contradiction directe avec l’idée que les prix émergent des interactions décentralisées entre les agents, grâce à la main invisible… Friedrich Hayek, en revanche, était convaincu que l’ordre émergeait des transactions entre individus, chacun avec des informations limitées et locales. Mais il n’a pas pu expliquer comment ce processus fonctionnait. La vision actuelle de l’économie libérale résulte donc d’une croyance en un mécanisme que nous ne pouvons pas définir…

L’information, le nerf du marché

Après la thèse de Louis Bachelier publiée en 1900, ce problème a semblé être résolu, au moins pour les marchés financiers. L’idée était simple : quand quelqu’un obtient de l’information sur un actif, il utilise cette information pour acheter ou vendre cet actif. Ce faisant, il révèle l’information aux autres participants sur le marché. Si chaque agent agit d’une façon indépendante et reçoit des informations privées, toute l’information devient alors disponible pour tout le monde. Bachelier a montré que dans ce cas les prix des actifs suivent une « marche aléatoire ».

Selon l’hypothèse de Bachelier, toute l’information sur un actif est contenu dans son prix. Les prix ne peuvent donc pas dévier de la « vraie valeur » et, par conséquent, les bulles ne peuvent pas exister. Ce résultat est à l’origine de la théorie moderne des « marchés efficaces », qui postule que le prix coté reflète la réalité économique.

Malheureusement pour Bachelier, son rapporteur de thèse, Henri Poincaré, trouvait irréaliste l’hypothèse que les agents, sur les marchés financiers, agissent indépendamment les uns des autres. Selon lui ces agents sont plutôt caractérisés par des « habitudes de moutons de Panurge ». Si on suit Poincaré et qu’on abandonne l’hypothèse de base de la théorie des marchés efficaces (l’indépendance des individus), on peut facilement expliquer des phénomènes récurrents comme les bulles et les krachs, dont les conséquences sont importantes pour l’économie réelle.

Pourtant, malgré leur relégation, les idées de Bachelier ont persisté dans la théorie financière. Et d’ailleurs, en 2013 le Prix Nobel d’économie a été paradoxalement co-attribué à Robert Shiller, qui a systématiquement nié l’efficacité des marchés, et à Eugene Fama qui est en revanche responsable de la résurrection des idées de Bachelier.

Les algorithmes reflètent les préjugés de leurs concepteurs

À l’époque actuelle, avec l’expansion de nos capacités à stocker et à traiter des quantités d’information considérables, on pourrait penser que la transmission d’information devient plus complète et que les individus y ont un accès de plus en plus facilité. Malheureusement, ceci est loin d’être le cas.

En principe, tout le monde a en effet accès à un nombre de sources d’information beaucoup plus important que par le passé. Mais nos capacités personnelles de calcul et de compréhension n’ont pas évolué à la même vitesse que la capacité computationnelle… Alors, pour être sûr que les individus reçoivent l’information dont ils ont besoin, nous avons recours à des algorithmes qui la filtrent. Toutefois, ces algorithmes ne viennent pas de nulle part : quelqu’un les a développés et programmés. Or, rien ne garantit que son objectif coïncidait avec l’intérêt social.

L’information, filtrée puis transmise aux individus, peut ainsi contenir des biais sur la base du genre ou de la race. L’algorithme de recherche de Google, qui a comme objectif de maximiser le temps pendant lequel les utilisateurs restent en ligne, a par exemple tendance à guider les individus vers les sites qui transmettent des messages et des informations de plus en plus extrémistes.

Fausses informations, réelles conséquences

La crise de 2008 constitue un bon exemple de l’importance de la transmission de l’information pour l’économie. Celle-ci s’est produite car le marché des produits dérivés (le plus important de tous les marchés) cache les informations sur les actifs financiers sous-jacents.

Alors qu’en 2005-2006 le marché immobilier ralentissait aux États-Unis, et que le nombre de prêts immobiliers qui étaient en retard du paiement ou qui n’étaient pas remboursés du tout augmentait rapidement, les prix des mortgage-backed securities ne diminuaient pas. La raison est simple : le travail nécessaire pour déterminer si les prêts immobiliers qui composaient ces instruments compliqués étaient toxiques était trop coûteux. Les acteurs sur les marchés continuaient donc à les acheter et à les vendre. Ce n’est que quand quelques agents ont commencé a vérifier l’état des prêts immobiliers que l’information a fait surface, et que le marché s’est effondré… Notons en passant qu’en 2014, Christian Noyer a plaidé en faveur d’une réintroduction de la titrisation !

La manipulation des marchés par la transmission de fausses informations peut aussi être intentionnelle. Un exemple classique est le « spoofing » : un agent place plusieurs ordres sur un marché pour en persuader d’autres que ce marché est devenu tres actif. Mais au dernier moment, l’individu retire ses ordres et profite de la volatilité qui s’en suit.

L’État doit guider la main invisible

Ce type de dysfonctionnement de la main invisible appelle une intervention de l’État pour les éliminer. En 2015, un trader a été condamné à New York pour avoir pratiqué le « spoofing ». Mais la législation censée interdire les manipulations des marchés financiers évolue lentement. Les grandes banques paient régulièrement de fortes amendes suite à leur infraction des règles. Toutefois, sans poursuite des individus responsables, rien ne changera.

Par ailleurs, le contrôle de la transmission de l’information en général est difficile. Il n’est pas évident de mettre en place des règles simples pour empêcher la transmission des « fake news », ou les messages envoyés par des robots afin d’influencer les décisions économiques et politiques des vraies personnes. Un contrôle accru des plates-formes est nécessaire, mais sans doute faudrait-il aussi recueillir plus d’informations sur ce type de manipulations. Célèbre exemple d’aberration récente : la transmission « inappropriée » des données privées de 2,7 millions d’utilisateurs européens et de 87 millions d’utilisateurs dans le monde par Facebook à la firme Cambridge Analytica

Il existe en définitive une tension constante entre les demandes pour plus de régulation de l’État, afin de supprimer les aberrations, et l’idée qu’il faut éliminer les contraintes sur les individus, les entreprises et les banques pour améliorer l’efficacité de notre système. En réaction au détournement des données personnelles, l’Union européenne a réagi assez rapidement et a mis en place de nouvelles règles, via le Réglement général sur la protection des données personnelles (RGPD). Les États-Unis n’ont pas fait la même chose, mais les compagnies américaines sont néanmoins obligées de se conformer au RGPD.

 

Le libéralisme s’appliquerait donc aux actions des individus, mais dans un espace délimité par l’État. C’est cette conception qui transparaissait déjà dans les écrits d’Adam Smith. Tandis que ses prédécesseurs John Locke et David Hume n’envisageaient aucune intervention de l’État dans les affaires économiques, Smith la préconisait afin de garantir le bon fonctionnement de la main invisible. Paradoxalement, la doctrine libérale prône donc l’existence d’un État minimal, mais dans un espace où les libertés sont néanmoins préalablement définies par l’État.

Comprendre la complexité du système économique pour l’améliorer

Le fonctionnement de notre système socio-économique est complexe, et dépend en grande partie de la façon dont l’information est communiquée et se propage. Effets de retour, conséquences inattendues des actions individuelles, rôle de l’information et mécanismes par lesquels celle-ci est diffusée… Tant que l’impact de l’ensemble de ces paramètres ne sera pas mieux compris, nous ne pourrons affirmer que nous savons comment diriger notre système économique vers un avenir meilleur.

Actuellement, notre confiance dans le libéralisme repose sur une foi quasi religieuse dans la capacité des marchés à diffuser de plus en plus d’information et à générer des résultats socialement positifs. Seule une compréhension analytique de leur fonctionnement permettra de quitter l’ère de la croyance pour entrer dans l’âge de raison.

 

Circulation totale : ces phénomènes qui échappent au contrôle de l’homme (1/5) - Jean-Sylvestre Bergé

Jean-Sylvestre BergéUniversité Jean-Moulin Lyon 3

Circulation sans contrôle. Pixabay

 

L’activité humaine a profondément modifié les mouvements de circulation. À l’origine, ces mouvements dépendaient étroitement de l’environnement naturel : vents, courants marins et fluviaux, déplacement de matières, d’organismes vivants, etc.

Aujourd’hui, la situation est totalement différente. Les flux de circulation sont de plus en plus étroitement liés à l’action humaine : transports à grande échelle de marchandises et de personnes sur route, fer, mer, fleuve et dans les airs, production massive de nouveaux biens amenés à circuler (déchets), dématérialisation fulgurante des flux (données, argent).

L’illusion du contrôle

Plus encore que pour les circulations naturelles que l’homme a tenté de canaliser avec le succès relatif que l’on connaît, les circulations produites par l’activité humaine se nourrissent d’une illusion de contrôle.

Parce que l’homme est à leur origine, le sentiment est très largement partagé qu’il lui suffit de stopper son action pour que cette circulation cesse effectivement.

De très nombreux dispositifs ont été construits autour de cette idée de contrôle. La circulation des déchets, des données, des capitaux, tout doit pouvoir être étroitement contrôlé par l’homme.

Cette idée de contrôle est une illusion.

Les acteurs du monde (États, entreprises, individus notamment) sont plus en plus souvent dépassés par les mouvements de circulation qu’ils ont pourtant eux-mêmes provoqués.

Un exemple majeur : les gaz à effet de serre

Les gaz à effet de serre sont un exemple majeur de cette situation de perte de contrôle. L’activité humaine produit des émissions de gaz qui, une fois libérées dans l’atmosphère, échappent au contrôle de l’homme. Ces gaz s’accumulent et circulent tout autour de la planète, sans possibilité pour celui qui a libéré le gaz de le récupérer.

L’action des parties prenantes consiste, d’une part, à attendre que le temps (très long) fasse son office de dissipation des gaz existants et, d’autre part, à tenter de réduire les émissions passées et futures. Mais même sur ce dernier point, l’action des acteurs demeure très fortement contrainte. Il ne suffit pas, par exemple, qu’un pays, une entreprise ou un individu se montre exemplaire en termes de réduction d’émissions. L’ensemble des acteurs doivent se mobiliser en ce sens, si l’on veut que la réduction des émissions produise les effets globaux escomptés.

Une explication globale : la technosphère

Cette situation où les mouvements de circulation provoqués par l’homme s’exposent à un effet d’emballement et échappent ainsi de plus en plus fréquemment à l’ensemble des acteurs trouve son explication dans ce que des physiciens ont appelé « la technosphère ». Ce terme désigne l’ensemble des dispositifs produits par la technologie de l’homme depuis l’origine de l’humanité.

Il comprend les systèmes imbriqués de communication, de transport, d’exploitation des matières premières, de production énergétique, de transformation industrielle, d’agriculture moderne et d’administration. Cette technologie de l’homme laisserait sa trace à travers les âges et des chercheurs ont même proposé de la quantifier en plusieurs dizaines de milliers de milliards (billions) de tonnes sur la terre.

Pour les tenants de cette thèse, qui reste discutée chez les scientifiques, ces technologies forment un tout – une sphère – qui menace les équilibres de la biosphère qui a présidé à l’apparition de la vie sur terre.

Ces réflexions sur l’avènement d’une nouvelle sphère de technologies intéressent étroitement l’hypothèse d’une circulation produite par l’homme et qui échappe dorénavant à son contrôle. Si l’ensemble des matières et des constructions produites par la technologie de l’homme depuis l’origine de l’humanité forme un tout, alors il faut en déduire que l’homme est comme noyé dans ce nouvel environnement qui le dépasse totalement. Les technologies imaginées par l’homme s’imposent aujourd’hui à lui sans que puisse s’opérer un quelconque retour en arrière.

L’homme a perdu le contrôle de la technosphère. Dès lors que cette technosphère est faite, comme la biosphère, d’une multitude d’interactions, c’est-à-dire de mouvements de circulation, on peut dire, sans grand risque de se tromper, qu’elle s’accompagne d’une perte de contrôle des mouvements de circulation.

Une nécessité : repenser les modes actuels de gouvernance

La situation de perte de contrôle à laquelle l’homme se trouve de plus en plus souvent confronté soulève la question de la pérennité d’un certain nombre de modes actuels de gouvernance.

Sur toute une série de sujets d’une très grande actualité, le discours public, notamment le discours du droit, demeure essentiellement centré sur l’idée que les opérateurs contrôlent les mouvements de circulation.

Ces sujets concernent notamment la circulation des déchets, des données ou encore des capitaux.

Plutôt que de considérer, comme on feint de croire aujourd’hui, que ces circulations évoluent globalement sous contrôle de l’homme et que leur échappement n’a qu’un caractère accidentel, il faut explorer de nouvelles voies. Ces dernières supposent un changement complet de perspectives.

L’homme est confronté à un phénomène de circulation massive, rapide et qui fait intervenir une multitude d’acteurs (voir, dans cette série, les articles à paraître sur « la circulation totale des déchets au-delà du contrôle », « la circulation totale des données au-delà du contrôle », et « la circulation totale des capitaux au-delà du contrôle »).

Ce phénomène complexe doit s’analyser comme un risque qui fait naître parfois des situations de crise. La gouvernance individuelle ou collective de ce risque et de ces crises, leur gestion privée ou publique, à une échelle locale, nationale ou internationale, doivent susciter de nouvelles réflexions (voir, dans cette série, le dernier article à paraître : « Gouverner au-delà du contrôle »).

 

Jean-Sylvestre Bergé, Professeur des universités en droit et membre senior de l'Institut Universitaire de France, Université Jean-Moulin Lyon 3

La version originale de cet article a été publiée sur The Conversation.

Circulation totale : des déchets au-delà du contrôle (2/5) - Jean-Sylvestre Bergé

Jean-Sylvestre BergéUniversité Jean-Moulin Lyon 3

Ferraille. Pixabay

 

Déchet et circulation forment un tout indissociable. Pour qu’il y ait déchet, il faut un acte de défection, c’est-à-dire une forme d’abandon. Le déchet est la chose dont on se débarrasse, volontairement ou involontairement. Cet acte suppose une mise à distance : le détenteur de la chose qui la laisse sur place et s’en va ou la chose qui est expédiée dans un autre lieu pour y être abandonnée.

La circulation des déchets prend des formes extrêmement variées. La question du contrôle des flux de déchets se pose de manière récurrente. La possibilité d’autoriser ou d’interdire la circulation des déchets, la réversibilité de ce processus, sa traçabilité sont des questions devenues essentielles dans nos sociétés dominées par la technosphère.

De la fuite accidentelle de déchets à l’organisation de filières

La circulation des déchets répond à des scénarios accidentels ou organisés.

La figure de l’accident renvoie, entre autres exemples, au cas du naufrage de l’Erika survenu en 1999 à proximité des côtes bretonnes. Cet événement a donné lieu à des batailles juridiques de grande ampleur. Au titre des discussions nombreuses alimentées par cette situation complexe aux multiples acteurs, la question des déchets s’est posée. Elle a été notamment résolue par la considération que les hydrocarbures accidentellement déversés en mer à la suite d’un naufrage, se retrouvant mélangés à l’eau ainsi qu’à des sédiments et dérivant le long des côtes, sont des déchets demeurant sous la responsabilité du producteur, Total en l’occurrence (Cour de justice de l’UE, 24 juin 2008).

L’organisation de filières est également très prégnante en ce domaine. Par exemple, le recyclage des déchets domestiques ou des matériels électroniques font appel à des montages complexes, pouvant faire intervenir une multitude d’acteurs, localisés parfois en des territoires différents et aux pratiques parfois légales, parfois illégales. La circulation du déchet a des effets très importants. Elle permet notamment de rendre poreux les cloisonnements définis par les cadres réglementaires.

Le déchet passe ainsi alternativement d’un statut à un autre. Certains statuts sont conformes à la loi et permettent, par exemple, aux opérateurs de recevoir des aides publiques. D’autres statuts sont illégaux et permettent, parfois aux mêmes opérateurs, de s’affranchir des contraintes de retraitement des déchets et de stockage des résidus qui peuvent être extrêmement coûteuses (pour une illustration, à propos d’un trafic d’huiles usagées, du jusqu’au-boutisme des acteurs en cause, voir la tribune du Pr. Gilles J. Martin).

La réglementation internationale et européenne des mouvements transfrontaliers de déchets

Face à ce type de situation, la société internationale s’est organisée. L’un des modes d’intervention retenu a été la réglementation des mouvements transfrontaliers de déchets. Deux grands dispositifs peuvent être signalés.

Le premier a pris la forme d’une convention internationale, appelée la « Convention de Bâle de 1989 sur le contrôle des mouvements transfrontières de déchets dangereux et de leur élimination ». Ce traité repose sur un certain nombre de grands principes comme la réduction de la production et de l’exportation des déchets dangereux, l’interdiction absolue d’exporter des déchets vers certaines destinations (par exemple, des pays qui n’ont pas adhéré au traité), la proximité qui impose de réduire la distance qui sépare la source du déchet de son lieu d’élimination, la traçabilité des flux (lieux et acteurs), l’existence de contrôles préalables et le retour des déchets illégalement exportés.

Le second dispositif est vient de l’Union européenne. Le texte de référence actuellement en vigueur est un règlement de 2006. L’Union européenne a mis en place une procédure de surveillance et de contrôle des transferts de déchets aussi bien à l’intérieur de l’UE que vers des pays tiers. Une nomenclature des déchets inscrits sur différentes listes (verte et orange) est posée avec un encadrement plus ou moins contraignant des flux selon le degré de dangerosité du déchet.

La criminalisation des infractions : l’écocide

La circulation des déchets prend une tournure juridique particulière avec le développement de ce que l’on appelle la criminalité environnementale. L’idée est de rendre les auteurs d’atteintes à l’environnement passibles de l’ensemble de l’arsenal administratif et pénal destiné à sanctionner les infractions à la loi.

Parmi les dispositifs envisageables, l’idée fait son chemin d’une criminalisation très forte, au même titre que l’assassinat ou le braquage armé en bande organisée par exemple, des atteintes irréversibles à l’environnement. C’est que l’on appelle les « écocides ».

Au-delà de la réglementation et des organisations, une circulation qui échappe au contrôle de l’ensemble des acteurs

En dépit des dispositifs juridiques existants et des filières organisées par les acteurs légaux ou illégaux, il faut admettre que des situations existent où la circulation des déchets échappe aux contrôles de l’ensemble des acteurs aussi bien publics que privés. Dans ces situations, on peut parler de circulation totale des déchets au-delà du contrôle.

Ces situations ont parfois un caractère totalement spectaculaire : la catastrophe de Fukushima au Japon en 2011 où des traces de « billes » de césium radioactif ont été par exemple retrouvées jusqu’à Tokyo, la rupture d’un barrage au Brésil dans l’État du Minas Geras en 2016 qui a libéré 32 millions de mètres cubes de déchets minéraux toxiques illégalement stockés en amont du barrage, la formation de véritables îlots solides de plastiques en mer de Chine, dans le golfe du Mexique avec la perspective qu’ils puissent représenter à l’échelle de la planète l’équivalent d’un continent de plusieurs millions de km2.

Mais ces circulations totales au-delà du contrôle empruntent des formes plus anodines. À l’échelle d’une grosse agglomération française, les opérateurs reconnaissent volontiers à mots couverts que 10 % du traitement des déchets domestiques échappent à leur contrôle, soit que ces déchets se dispersent hors de leurs circuits, soit que s’introduisent dans leur chaîne de traitement, des déchets, par exemple industriels, qui n’ont rien à y faire. Si l’on ramène cette situation au cas d’une mégapole d’un pays en développement, le pourcentage des déchets qui circulent au-delà de tout contrôle est certainement beaucoup plus important.

Ces situations exceptionnelles ou plus ordinaires interpellent. On peut, avec scepticisme ou fatalisme, ne pas les considérer comme étant de nature à modifier profondément notre vision des choses. La réalité contredit frontalement cette analyse. Si l’on considère la masse des déchets qui circulent à l’échelle de la planète et dans l’atmosphère, si l’on considère ce qui chaque jour est jeté dans nos poubelles et ne devrait pas y être, il n’est pas difficile de comprendre que l’homme est durablement placé en situation de ne pas pouvoir contrôler les flux de matières qu’il produit et dont il se défait tous les jours.

Nous sommes globalement dépassés par le phénomène. Ce constat modifie profondément les grilles d’analyse. Il nous oblige à repenser nos outils de gouvernance dans un environnement de perte totale de contrôle (voir l’article, à paraître, sur « Gouverner au-delà du contrôle »).

 

Jean-Sylvestre Bergé, Professeur des universités en droit et membre senior de l'Institut Universitaire de France, Université Jean-Moulin Lyon 3

La version originale de cet article a été publiée sur The Conversation.

Circulation totale : des données au-delà de tout contrôle ? (3/5) - Jean-Sylvestre Bergé

Jean-Sylvestre BergéUniversité Jean-Moulin Lyon 3

Planète numérique. Pixabay

 

Le développement des technologies, les appareils connectés, les nombreux capteurs dispersés dans l’espace public ou privé permettent de transformer des informations en données numériques. Des quantités considérables de données sur les activités humaines et, plus généralement, sur le monde qui nous entoure sont ainsi collectées.

Ces données sont, comme les déchets, un produit majeur de notre technosphère. Or ces données circulent massivement, rapidement, en impliquant un nombre considérable d’acteurs. Il faut dire que circulation des données est essentielle. La donnée n’a d’intérêt que si elle est transmise, partagée, agglomérée à d’autres, interconnectée.

Approche du phénomène de circulation des données au cas par cas

L’actualité regorge de cas où la circulation des données s’impose comme un phénomène de très grande ampleur. Voici quelques exemples marquants. Le groupe Yahoo a reconnu que 500 millions de comptes utilisateurs avaient été piratés… puis, plus d’un milliard et la rumeur circule que l’auteur de ces attaques pourrait être, non de simples individus, mais un État.

On apprend que le Danemark a acheté des données en masse provenant de la diffusion des « Panama papers » pour lutter contre l’évasion fiscale sur son territoire (The Guardian, 1er oct. 2016).

Le gouvernement français a publié un décret d’octobre 2016 portant création d’un grand fichier TES (pour « titres électroniques sécurisés ») et l’initiative immédiatement nourrit des réactions en chaîne sur le risque trop grand que ferait courir une telle concentration de données, au cas – probable – où intrus parviendrait à accéder au fichier.

Des cas de la vie de tous les jours montrent tout autant que le phénomène de circulation des données fait partie de notre environnement. Par exemple, un individu met en ligne des données sur son blog. Il décide de les retirer après. Entre-temps, les informations ont été indexées par des moteurs de recherche, elles circulent de serveur en serveur et il est impossible pour lui de les retirer du net. Ce même individu utilise son téléphone portable pour rechercher l’adresse précise d’un magasin. Il s’y rend. Tout juste entré dans la boutique, il reçoit un mail lui proposant une offre promotionnelle. Interrogé, il assure n’avoir jamais été client de cette enseigne, ni même avoir jamais renseigné auprès d’elle un formulaire contenant son adresse électronique.

Approche globale du phénomène de circulation des données

Le phénomène de circulation des données peut être également compris de manière plus globale. Dans cette approche, la démonstration peut être faite que la sphère des données est un nouvel espace à l’intérieur duquel circule une multitude de données (voir sur thème, un précédent article sur The Conversation Global).

Les données, étroitement liées aux algorithmes qui les font vivre, constituent un nouvel espace, la « datasphere ». Cette sphère numérique est une sorte de reflet du monde physique dans lequel on trouve trace de l’activité humaine, comme nos positions à un instant quelconque, nos échanges, la température de nos logements, les mouvements financiers, les déplacements de marchandises, le trafic routier, etc.

Comme pour les masses d’eau recouvrant la terre, il convient de distinguer différents états des données, qui peuvent être ouvertes, c’est-à-dire accessibles assez largement, ou fermées, c’est-à-dire accessibles seulement de manière très restreinte. Elles peuvent être statiques, stockées quelque part. Mais le plus souvent, elles sont dynamiques et forment des flux. Comme pour l’eau, on observe un cycle de la donnée, des petites gouttes aux grandes masses, et réciproquement. Les données émergent des acteurs humains ou matériels (les capteurs) sur les territoires, pour rejoindre les centres de stockage et traitement, et retournent aux acteurs individuels après transformation.

Le discours de la réglementation sur le contrôle de la circulation des données

Le droit s’intéresse à la question de la circulation des données sous l’angle de la définition des conditions légales de cette circulation. Entre autres exemples, les dispositifs européens et nationaux récemment adoptés portent très haut l’ambition de régir la circulation des données (par exemple, le règlement européen de 2016 sur la protection des données et la loi française de 2016 sur la République numérique).

Des sanctions civiles ou pénales spécifiques existent pour lutter contre la fuite de données. Les bases légales varient considérablement d’un domaine à l’autre, selon la nature de la donnée, la justification de sa confidentialité ou de son contrôle et, naturellement, les modalités de sa divulgation.

La circulation transfrontière des données pose également des problèmes spécifiques en droit international. C’est l’exemple bien connu de décisions européennes intervenues à propos du transfert/partage transatlantique de données : accords PNR (pour passenger name record »), Safe Harbor, Privacy Shield).

Au-delà du discours, une circulation totale qui échappe au contrôle de l’ensemble des acteurs

Mais pour comprendre le phénomène de circulation des données, il faut le caractériser dans sa figure la plus extrême : c’est l’hypothèse retenue par le projet IFITIS d’une circulation totale au-delà du contrôle.

Les données circulent entre les différents territoires institutionnels (les États, les villes). Mais cette circulation est d’un genre nouveau. Elle fait naître un nouvel espace, la datasphère, à l’intérieur duquel évoluent de nouveaux opérateurs, telles que les plateformes numériques (Uber, Netflix, etc.). Ces opérateurs n’ont plus besoin d’être implantés sur territoires institutionnels classiques pour exercer leurs activités. À travers ces dernières, de nouveaux flux se forment ainsi entre les territoires terrestres anciens et les territoires nouveaux de la datasphère.

Cette circulation est totale car la rapidité des flux et la masse des données qui circulent créent des phénomènes qui mobilisent la totalité des acteurs publics et privés (États, entreprises, individus). Ces acteurs sont littéralement pris par un phénomène qu’ils alimentent inexorablement.

Enfin, cette circulation est au-delà du contrôle dans la mesure où, comme nous l’avons montré précédemment, aucun des acteurs n’est en mesure de prétendre avoir la totale maîtrise des flux de données qu’il manipule.

Cette hypothèse de circulation totale au-delà du contrôle des données est utile. Elle nous invite à repenser nos outils de gouvernance actuels qui reposent très largement sur une illusion de contrôle (voir l’article, à paraître, sur « Gouverner au-delà du contrôle »).

 

Jean-Sylvestre Bergé, Professeur des universités en droit et membre senior de l'Institut Universitaire de France, Université Jean-Moulin Lyon 3

La version originale de cet article a été publiée sur The Conversation.

Circulation totale : des mouvements de capitaux débridés (4/5) - Jean-Sylvestre Bergé

Jean-Sylvestre BergéUniversité Jean-Moulin Lyon 3

Mouvements de capitaux. Pixabay

 

« Aujourd’hui, les mouvements de capitaux font la loi ». Ainsi s’exprimait, en mai 2016, Jacques de Larosière, ancien directeur du Fonds Monétaire international et de la Banque de France (Le Monde, 14 mai 2016). Même si la formule visait spécifiquement la pratique des banques centrales, dispendieuses de trop larges crédits selon l’auteur, elle pourrait sans mal s’appliquer à un monde de la finance gouverné par une circulation débridée de l’argent.

La circulation des capitaux est incontestablement totale. Les masses qui circulent, la rapidité des transactions qui s’opèrent dorénavant de manière essentiellement électronique mobilisent la totalité des acteurs publics et privés (organisations internationales, États, entreprises, individus). Elle échappe à leur contrôle en ce sens qu’une fois libéré, le capital circule avec une extraordinaire facilité, compte tenu de sa très grande fongibilité (une unité de capital en vaut une autre) et des menaces permanentes qui pèsent sur les tentatives de régulation financière.

La titrisation et la crise des « subprimes »

Pour illustrer le phénomène, on songe bien sûr à la fameuse crise des « subprimes » de 2008 qui a conduit à la faillite de la banque Lehman Brothers et qui est surtout à l’origine de l’une des plus graves crises financières et économiques que le monde contemporain ait connues.

Derrière cet événement majeur se cache un mécanisme de valorisation d’actifs que l’on appelle la « titrisation ». De quoi s’agit-il ? A détient un actif, il le vend à B qui émet des titres auprès d’investisseurs C, D, E, etc. (titrisation « true sale »). La titrisation peut également intervenir sans cession d’actifs. A détient un actif, il cède les risques pesant sur cet actif à B qui émet des titres auprès d’investisseurs C, D, E, etc. (titrisation « synthétique »).

Les spécialistes ont l’habitude de dire que cette opération ne présente pas en soi de risque majeur dès lors que l’actif à l’origine de la titrisation est solide et que l’investisseur détient un bon niveau d’information sur le titre dans lequel il investit.

Mais le fait est que les opérations de titrisation organisent à une grande échelle des flux financiers multidirectionnels qui expliquent, qu’en cas de crise, ce soit l’ensemble du système qui soit susceptible, comme en 2008, d’être ébranlé.

Du blockchain à la monnaie virtuelle bitcoin

La circulation des capitaux connaît un nouveau développement avec la technique de la chaîne de blocs, connue sous le nom de blockchain. Cette expression désigne de manière très générale une technologie de stockage décentralisée d’informations qui peut être d’un accès privé ou public. C’est un peu comme un registre électronique dans lequel les informations consignées de manière chronologique sont regroupées par blocs, lesquels s’enchaînent les uns aux autres, sans possibilité de revenir en arrière. Ce dernier point est important : l’ensemble du dispositif repose sur la confiance absolue que l’on veut bien accorder au système dans sa capacité à capturer des opérations de manière totalement irréversible.

Les applications de cette technologie sont multiples. On lui prédit un très grand avenir en matière contractuelle, financière et assurantielle où la chaîne de blocs peut devenir l’univers intelligent dans lequel les opérations se succèdent dans le temps et interagissent les unes sur les autres. L’une de ces applications, sans doute la plus spectaculaire connue à ce jour, a porté sur la création de crypto-monnaies, dont le bitcoin est l’exemple le plus connu.

Le bitcoin est une monnaie virtuelle. Elle est prise très au sérieux par l’ensemble des gouvernements dans la mesure où elle vient concurrencer les souverainetés nationales en matière monétaire. L’actualité grand public regorge d’exemples d’États (Chine, Russie, Brésil) qui ont cherché très récemment à mesurer le phénomène et à en infléchir le cours. En réalité, tous se préoccupent de cette question. La circulation hors de leur contrôle du bitcoin est clairement analysée comme une perte potentielle de souveraineté.

L’évasion fiscale et le blanchiment d’argent

D’autres illustrations du phénomène de circulation totale de capitaux au-delà du contrôle peuvent également être livrées à travers les hypothèses connues d’évasion fiscale et de blanchiment d’argent.

Le discours public, notamment réglementaire, est bien rodé : l’évasion fiscale et le blanchiment d’argent sont des opérations frauduleuses, surveillées et lourdement sanctionnées. La réalité est tout autre.

L’évasion fiscale côtoie de manière totalement insolente l’optimisation fiscale, de sorte que les acteurs concernés – banques, entreprises, particuliers, États eux-mêmes – ont beau jeu d’expliquer que tout cela se fait dans le strict respect… des failles de la loi. Quant au blanchiment de l’argent, la dimension essentiellement nationale des outils anti-fraude bute inexorablement sur les frontières étatiques et le manque de coopération internationale.

Le besoin de discours juridique sur la circulation totale des capitaux qui échappe au contrôle de l’ensemble des acteurs

Ce qui est frappant, ce n’est pas tant que l’argent circule de manière totale et largement incontrôlée. L’argent est incontestablement l’un de ces produits phares de la technosphère, au même titre que les déchets et les données, avec lesquels on peut être tenté de le confondre (l’argent abandonné, l’argent numérisé). Ce qui est surprenant, c’est la faiblesse du discours juridique sur cette circulation.

Dans certains cas, comme celui de la titrisation ou des chaînes de blocs, la circulation, bien qu’omniprésente, ne fait pas l’objet d’un discours juridique construit et élaboré. La circulation est une évidence. Elle est consubstantielle à l’objet. Et le droit se tait, acquiesce, sans même chercher à rendre compte du phénomène.

Dans d’autres cas, comme pour l’évasion fiscale et le blanchiment d’argent, le discours du droit sur la circulation est très présent mais il est largement biaisé. Le droit parle de ces mouvements de capitaux. Il les dénonce même. Mais il se montre incapable d’infléchir une tendance généralisée.

Il est temps de repenser les outils de gouvernance actuels à l’aune d’une circulation totale au-delà du contrôle (voir le dernier article, à paraître, sur « Gouverner au-delà du contrôle »).

 

Jean-Sylvestre Bergé, Professeur des universités en droit et membre senior de l'Institut Universitaire de France, Université Jean-Moulin Lyon 3

La version originale de cet article a été publiée sur The Conversation.

Gouverner la circulation totale au-delà du contrôle (5/5) - Jean-Sylvestre Bergé

Jean-Sylvestre BergéUniversité Jean-Moulin Lyon 3

Circulations… Jonolist/Visual Hunt, CC BY-SA

 

Notre environnement change profondément. Les constructions de l’homme forment un nouvel espace (une technosphère) qui s’ajoute au précédent (la biosphère), avec cette différence notable que nous avons essentiellement découvert le premier et totalement créé le second.

Les flux de circulation à l’intérieur de cet espace échappent de plus en plus à notre contrôle. Les déchets, les données et les capitaux sont des illustrations majeures d’un phénomène de circulation totale au-delà du contrôle.

Cette circulation, il n’est en pourtant jamais question. Cet état des choses mérite d’être expliqué, contrarié, traité et reconstruit.

L’incroyable collusion des cols blancs, des mafieux et des populations

Pourquoi ne parle-t-on pas de notre incapacité à contrôler des mouvements de circulation que nous avons nous-mêmes provoqués ? L’explication est sans doute à rechercher dans la situation incroyable dans laquelle nous nous trouvons où l’ensemble acteurs en présence ont, chacun pour des raisons lui sont propres, un intérêt à ne pas discourir sur l’hypothèse d’une circulation totale au-delà du contrôle.

Les cols blancs, c’est-à-dire les gouvernants qui sont à la tête des grandes organisations publiques et privées, nationales, régionales et multinationales, ne peuvent faire l’aveu public de leur impuissance, en expliquant que la situation, ici les flux de circulation, échappent à leur contrôle.

Les mafieux, qui tirent une grande partie de leurs profits de ces flux de circulation en circuits courts ou longs, visibles ou cachés, légaux ou illégaux, se gardent bien de communiquer sur l’ensemble du dispositif ainsi mis en mouvement et dont ils ne maîtrisent au demeurant pas l’ensemble des éléments.

Les populations ne veulent jamais croire au pire. L’idée qu’elles puissent être submergées par un environnement au développement duquel elles contribuent par leur action quotidienne la plus anodine, est totalement anxiogène. Elles ne veulent pas entendre parler d’une circulation totale au-delà du contrôle, préférant prêter l’oreille au discours rassurant, fût-il totalement faux, selon lequel la situation est sous contrôle.

Le silence des scientifiques

Les sciences, entendues au sens large (sciences dures, sciences humaines et sociales, sciences fondamentales, sciences appliquées), ont également leur part de responsabilité dans cet état de fait.

Traiter de ce qui échappe au contrôle est difficile pour le scientifique dans la mesure où l’on ne sait pas bien parler de ce que l’on ne mesure pas.

L’argument n’est cependant pas insurmontable.

De manière précise, la part d’échappement peut se mesurer par l’identification par chacun des acteurs de sa sphère de contrôle. Est au-delà du contrôle ce qui n’entre dans aucun périmètre de contrôle.

De manière plus générale, l’hypothèse d’une circulation totale au-delà du contrôle peut se nourrir des réflexions proposées depuis une quarantaine d’années sur l’existence d’une nouvelle ère géologique – l’anthropocène – qui ferait suite à l’ère existante : l’holocène. L’une comme l’autre sont marquées par des phénomènes de circulation qui échappent pour une large part au contrôle de l’homme. Un lien pourrait donc être établi entre ces analyses et la question largement passée sous silence de la circulation totale au-delà du contrôle.

La circulation totale au-delà du contrôle : un nouveau paradigme

Cet état général des choses doit être contrarié par la considération générale que les mouvements de circulation provoqués par l’homme gagneraient à être mieux compris s’ils étaient replacés dans un environnement global fait d’échappement. À l’idée selon laquelle « tout peut être contrôlé si l’on s’en donne les moyens » serait substitué un nouveau paradigme selon lequel le contrôle de l’homme s’exerce nécessairement dans un environnement global qui échappe à sa maîtrise.

Il ne s’agirait pas tant d’imposer à la réalité un nouveau concept que de redonner aux acteurs une meilleure intelligence de cette réalité immanente, en les laissant s’imprégner des multiples facettes du phénomène nécessairement complexe et protéiforme de circulation totale au-delà du contrôle.

En somme, il s’agirait de reconsidérer le point de départ de nos analyses actuelles sur la circulation, notamment, des déchets, des données et des capitaux. Plutôt que de les laisser reposer sur l’illusion qu’un contrôle total par l’homme est possible, il s’agirait de s’attaquer d’emblée à cette réalité de l’échappement.

Quelle gestion du risque et des crises ?

Cette nouvelle approche aurait pour effet de placer l’ensemble de mouvements de circulation produits par l’homme sous le prisme de la gestion du risque et, le cas échéant, de la gestion des crises.

Pour bon nombre de ces circulations, on pourra rétorquer que c’est déjà le cas. Mais il s’agirait d’aller beaucoup plus loin dans les analyses que ce qui est fait aujourd’hui. Le risque dont il est question ici n’est pas la défaillance ponctuelle occasionnée par tel ou tel transport de déchets, données ou capitaux. Le cas envisagé est celui d’une appréhension par la gestion du risque (et le cas échéant, des crises) d’une circulation totale au-delà du contrôle.

De nombreux sujets peuvent être abordés à ce titre. La gestion du risque de circulation totale au-delà du contrôle est-elle privée ou publique, individuelle ou collective, locale, nationale, régionale ou internationale ? Ce type de questionnement trouve des connexions naturelles avec des grands sujets qui ont tous en commun d’avoir globalement échoué. On songe, par exemple, à la « taxe carbone » en matière d’émission de CO2, à la taxe « Collin et Colin » proposée en France en matière d’Internet et, bien sûr, la fameuse « taxe Tobin » en matière financière.

Ces outils ont été construits sur des logiques dissuasives et/ou redistributives. La question doit être posée de savoir si ces tentatives ne gagnaient pas en signification et efficacité si elles s’attaquaient au cœur du risque à collectiviser : une circulation totale au-delà du contrôle.

Refonder les savoirs au départ des phénomènes complexes de circulation : le cas du droit

Cette réflexion sur la circulation totale au-delà du contrôle est au cœur du projet de recherche IFITIS. Cette recherche a pour ambition de questionner la manière dont différentes constructions du savoir appréhendent le phénomène de circulation. Le principal savoir interrogé, dans ce projet, est le droit. Mais la recherche a une dimension fortement pluridisciplinaire et, au demeurant, comparée.

Pour le droit, le questionnement a une tonalité tout à fait particulière. Le droit se construit au départ des territoires. Les situations en mouvement ont cette particularité de traverser potentiellement plusieurs territoires. Des disciplines du droit existent pour traiter ces hypothèses. Elles ont cependant deux caractéristiques. Soit elles sont très spécialisées (droit des transports, droit du libre-échange, droit de la libre circulation, droit international privé, droit de commerce international, droit de la mer, droit de l’espace, droit des frontières) et n’appréhendent qu’une partie des phénomènes de circulation. Soit elles sont plus générales (droit public, droit privé, droit international, droit européen, droit transnational) et n’ont pas été conçues à la lumière de la technosphère et des phénomènes contemporains de circulations complexes auxquels nous sommes aujourd’hui confrontés.

Il faut donc remobiliser l’ensemble des ressources juridiques pour appréhender ces circulations nouvelles. Des questions aussi importantes que le traitement des phénomènes de circulation de masse (masse de déchets, métadonnées, masse de capitaux), distinctement des circulations d’unités (un déchet, une donnée, un capital) ou que l’effet de transformation que produit ou non la circulation sur la nature et le régime juridiques des objets qui circulent, se posent.

Les réponses à ces questions sont nécessaires. Elles nous aident, sous le prisme du droit, à trouver les chemins d’une gouvernance de la circulation totale au-delà du contrôle.

 

Jean-Sylvestre Bergé, Professeur des universités en droit et membre senior de l'Institut Universitaire de France, Université Jean-Moulin Lyon 3

La version originale de cet article a été publiée sur The Conversation.

Changement climatique : comment expliquer la forte hausse des concentrations de méthane dans l’atmosphère ?

Philippe BousquetUniversité de Versailles Saint-Quentin en Yvelines

Pep Canadell, Ben Poulter et Rob Jackson sont co-auteurs de cet article.

L’élevage et le traitement des déchets contribuent aux émissions de méthane dans l’atmosphère. Jennifer C./Flickr, CEA


Depuis plus de vingt ans, les concentrations de méthane dans l’atmosphère ont connu une progression annuelle sans précédent. Les causes de cette augmentation sont encore incertaines, mais probablement d’origine « biogénique », c’est-à-dire liées à l’évolution de l’activité de micro-organismes vivants. C’est ce qui ressort du récent bilan proposé par le Global Carbon Project.

Si le méthane contribue moins que le CO2 au changement climatique – ce dernier étant responsable à lui seul de 80 % du réchauffement constaté –, il s’agit néanmoins d’un puissant gaz à effet de serre ; son augmentation est donc inquiétante dans le contexte de la mise en place de l’Accord de Paris qui tente de contenir la hausse globale des températures.

Une hausse sans précédent

Depuis 2014, les concentrations de méthane atmosphérique suivent le rythme du scénario climatique le plus pessimiste des experts du GIEC. Cette croissance accélérée par rapport à la période 2007-2013 contraste avec la relative stagnation ces trois dernières années des émissions de CO2 liées aux activités humaines ; elle accentue ainsi le poids relatif du méthane dans le changement climatique en cours.

C’est d’autant plus remarquable que cette récente augmentation vient s’ajouter à celle accumulée depuis la révolution industrielle : la concentration de méthane dans l’atmosphère est actuellement 2,5 fois celle de 1750, avec 1 835 ppb (pour parties par milliards) en 2015.

Deux articles publiés récemment ( et ) proposent la synthèse la plus complète à ce jour au sujet des sources et puits de méthane. Ce travail vient renforcer le bilan mondial de CO2, publié chaque année à l’initiative le Global Carbon Project.

D’où vient le méthane atmosphérique ?

Faire le bilan des sources et puits de méthane est ardu : le méthane est moins bien compris que le CO2 et ses sources couvrent une gamme d’activités humaines plus large. On peut néanmoins classer ces sources en trois catégories.

Il y a d’abord les sources « biogéniques » (environ 65 %) : celles-ci concernent l’élevage, la culture du riz, la gestion des déchets solides ou liquides, les zones inondées naturelles, les termites, les lacs et fleuves, les pergelisols. Elles sont liées à la dégradation de la matière organique par des micro-organismes dans des environnements dépourvus d’oxygène.

Viennent ensuite les sources « thermogéniques » (environ 30 %) : elles concernent le dégazage naturel de la croûte terrestre et l’exploitation des combustibles fossiles ; elles sont liées à la formation lente de gaz naturel dans le sous-sol de la Terre. Enfin, on trouve les sources « pyrogéniques » (environ 5 %) : elles concernent les feux de forêts et de savanes et l’utilisation de biofuels ; elles sont liées au processus de combustion de biomasse.

Il faut noter que ces trois types de sources peuvent être naturelles ou liées aux activités humaines, ces dernières représentant plus de 60 % des émissions totales de méthane atmosphérique.

Les multiples sources d’émissions de méthane. Global Carbon Project, CC BY

Comment expliquer la hausse des émissions ?

Les raisons de cette augmentation du méthane dans l’atmosphère depuis la fin des années 2000 sont toujours discutées et il n’existe pas à ce jour de consensus autour d’un scénario unique pour en rendre compte. Il est néanmoins possible d’avancer plusieurs éléments d’explication.

Il est ainsi probable que la contribution dominante à l’anomalie positive des émissions vienne des sources biogéniques. C’est ce que suggère l’analyse du carbone 13 du méthane dont la concentration diminue dans l’atmosphère depuis 2007. En effet, les sources biogéniques apprécient peu le carbone 13 dans leurs processus biochimiques et en produisent moins que les autres sources. Une augmentation des sources biogéniques est donc associée à une diminution du carbone 13 du méthane atmosphérique.

On ne peut exclure non plus une augmentation des émissions liées aux combustibles fossiles, comme le suggère l’augmentation de la concentration d’éthane, une espèce co-émise avec le méthane dans le secteur industriel. Mais le bilan du Global Carbon Project ne montre cependant pas d’augmentation des émissions de méthane aux États-Unis alors que ces derniers ont fortement développé le « fracking » dans l’exploitation du gaz de schiste.

Il faut également souligner que les émissions chinoises de méthane et leur augmentation depuis l’an 2000 ont été probablement surestimées par les inventaires d’émissions (qui estiment les émissions à partir de statistiques économiques) à cause d’une surestimation des émissions liées à l’exploitation du charbon et de leur variation dans le temps. L’étude relatée ici a poussé les inventoristes à revoir les facteurs entrant dans le calcul des émissions de méthane chinoises.

Du fait de la persistance de cette augmentation sur les huit dernières années, il est probable qu’elle soit due à une source biogénique liées aux activités humaines (élevage ou déchets), plutôt qu’à une source biogénique naturelle, telle que les zones humides. Mais des conditions humides ont persisté dans les tropiques depuis 2007, associée à des phénomènes la Niña récurrents, pouvant créer des conditions favorables aux émissions de méthane. On ne peut ainsi pas exclure que les zones humides participent à l’augmentation des émissions de méthane dans les tropiques.

On le voit, il reste encore beaucoup d’incertitudes à lever.

On peut agir rapidement

Sans actions spécifiques, les émissions biogéniques de méthane ont de fortes chances de poursuivre leur hausse, compte tenu du changement climatique en cours et de la pression démographique. On pense ici aux émissions liées à l’élevage et les déchets dans un monde où la demande alimentaire croît avec la population mondiale, et où le régime carné fait de plus en plus d’adeptes parmi les classes moyennes émergentes, générant également de plus en plus de déchets.

Il y a aussi les zones humides des hautes latitudes dont les émissions pourraient augmenter avec le dégel lent mais inexorable avec le réchauffement d’une quantité croissante de permafrost.

 

S’il faut souligner les dangers du méthane, n’oublions cependant pas que sa courte durée de vie dans l’atmosphère (9 ans environ) combinée à son fort potentiel de réchauffement, nous offre une formidable opportunité d’atténuation du changement climatique. En effet, si nous réduisons les émissions de méthane maintenant, cela aura un impact rapide sur leur concentration dans l’atmosphère… y compris à des échéances compatibles avec les agendas politiques.

Aujourd’hui, des modes de production alimentaire qui prennent en compte les changements climatiques sont étudiés et testés dans de nombreux pays producteurs ; d’autre part, la récupération de biogaz à partir des activités agricoles et de la gestion des déchets, actuellement mise en œuvre dans les pays développés, pourrait être étendue à d’autres zones moins favorisées et contribuer à l’atténuation du changement climatique.

Outre le fait que ces solutions impactent moins directement nos modes de vie que celles destinées à réguler nos usages de la voiture ou du chauffage pour réduire les émissions de CO2, ces innovations peuvent également générer de l’activité économique et créer des emplois.

Aujourd’hui, pour rester dans la limite des 2 °C d’augmentation de la température moyenne planétaire, il n’est plus question de choisir entre CO2 et méthane : il faut agir sur le CO2 et sur le méthane.

 

Philippe Bousquet, Professeur, chercheur au Laboratoire des sciences du climat et de l’environnement (LSCE), membre de l’Institut Universitaire de France, auteur contributif d’un chapitre des deux derniers rapports du GIEC, Université de Versailles Saint-Quentin en Yvelines – Université Paris-Saclay

La version originale de cet article a été publiée sur The Conversation.

Jérusalem mentionnée dans un papyrus plurimillénaire en pleine polémique à l’Unesco - Michael Langlois

Michael LangloisUniversité de Strasbourg

Le 26 octobre 2016, l’Autorité des Antiquités d’Israël (AAI) présentait un papyrus vieux de 2 700 ans mentionnant la ville de Jérusalem. Quels sont les enjeux d’une telle découverte ? Décryptage.

D’où vient ce papyrus ?

Ce papyrus n’a pas été découvert lors de fouilles archéologiques officielles ; son origine est donc incertaine. Il proviendrait de l’une ou l’autre des nombreuses grottes qui jalonnent le désert de Judée sur les rives occidentales de la mer Morte. La région offre un environnement propice à la conservation de ces documents fragiles et a déjà livré près d’un millier de manuscrits antiques copiés sur parchemin ou papyrus. La plupart d’entre eux ont été découverts par des Bédouins locaux qui connaissent ces grottes mieux que quiconque et savent la valeur d’une telle trouvaille sur le marché des antiquités.

Sauf que, cette fois-ci, les autorités israéliennes, ayant appris la mise en vente d’un nouveau papyrus, ont lancé une opération que l’on imagine digne d’Hollywood et sont parvenues à confisquer le précieux document. Il faut dire que ce n’est pas une première pour l’AAI, qui lutte avec acharnement contre un tel commerce au point d’avoir par le passé accusé à tort tel ou tel scientifique en une véritable chasse aux sorcières.

Que contient ce papyrus ?

Seules trois lignes d’écriture hébraïque ont été conservées sur une bande de papyrus qui, en l’état actuel, mesure 10,9 × 3,2 cm. La déchirure au sommet et la marge inférieure montrent que l’on a affaire à la toute fin de ce document dont je propose la lecture provisoire suivante :

2′ נת.המלך ממערתה.נבלים.יי

3′ ן.ירשלמה.

2′… le roi, ‹en provenance› de sa caverne, deux jarres ‹contenant› du vi-

3′ n, à ‹destination de› Jérusalem.

Les quelques traces de lettres au sommet ne permettent pas de reconstituer la première ligne et encore moins celles qui précédaient. Les deux premières lettres de la deuxième ligne préservent la fin d’un mot dont la restitution est, elle aussi, incertaine. Viennent ensuite la mention du roi puis celle d’un terme que mes collègues israéliens lisent « de Naarata ».

Je traduirais plutôt « de Vers-Naarat » mais, sur la photographie que j’ai pu consulter, la première lettre pourrait être un M, si bien que je propose provisoirement de lire « de sa caverne » ou « de Vers-Maarat », en attendant de pouvoir examiner le fragment lui-même. Maarat est une ville judéenne mentionnée dans la Bible (Josué 15,59), mais le même terme signifie « caverne », si bien que les deux traductions sont possibles, la caverne faisant alors office de cave à vin. Le nombre de jarres est incertain : je propose de lire « deux » mais on peut tout aussi bien lire « des ».

Last but not least, le document s’achève en précisant la destination de ces jarres : Jérusalem. C’est ce dernier mot qui suscite l’attention des médias puisque, nous dit-on, c’est la première fois que la ville sainte apparaît sur un tel papyrus.

La mention de Jérusalem

Selon l’AAI, une datation au carbone 14 situerait le papyrus au VIIe siècle avant J.-C. Les datations basées sur le carbone 14 ou sur la forme des lettres donnent en réalité des résultats peu précis à cette période, si bien que le papyrus pourrait dater du siècle précédent ou des siècles suivants.

S’il est rare qu’un document aussi fragile traverse les âges, l’usage du papyrus est confirmé par les centaines de bulles d’argile semblables à celle présentée l’an dernier et qui préservent souvent au revers les traces du papyrus jadis scellé. Un autre papyrus, qui pourrait dater de la même époque, avait ainsi été découvert en 1952 dans une grotte du désert de Judée, à Mourabbaat. De telles découvertes restent exceptionnelles.

On comprend dès lors l’intérêt suscité par la mention de Jérusalem sur ce papyrus. Ce n’est pourtant pas la première fois que cette ville apparaît dans l’histoire : on la trouve par exemple sur une inscription hébraïque gravée sur la paroi d’une grotte judéenne à Khirbet Beit Lei, à l’ouest de Hébron. Surtout, elle apparaît dès le XIVe siècle avant J.-C. dans la correspondance entre le pharaon Akhénaton et son vassal à Jérusalem. Elle pourrait même être attestée plusieurs siècles auparavant dans d’autres textes égyptiens.

L’existence d’un royaume de Juda est quant à elle bien documentée dès le IXe siècle et ce jusqu’à la prise de sa capitale, Jérusalem, par les Babyloniens vers 587 avant J.-C. D’un point de vue historique et archéologique, il ne fait aucun doute qu’au VIIe siècle Jérusalem était la capitale du royaume de Juda et portait déjà ce nom.

Entre politique et hypercritique

Comment expliquer, alors, que le premier ministre israélien Benyamin Netanyahou brandisse le jour même une pancarte avec une photographie géante de ce papyrus ? C’est que, ce même jour encore, l’Unesco se prononçait sur un projet de résolution (200 EX/PX/DR.25.2 Rev.) concernant la « Palestine occupée » dans lequel l’État d’Israël est qualifié de « puissance occupante », y compris à Jérusalem.

Ce n’est pas la première mouture de ce projet, qui avait déjà fait scandale au printemps. La version révisée se veut plus modérée et rappelle notamment l’importance de Jérusalem « pour les trois religions monothéistes ». Dans les faits, elle s’intéresse néanmoins au patrimoine arabo-musulman au détriment de celui du judaïsme ou du christianisme. Or, dans un contexte tendu où l’État islamique n’hésite pas à détruire de nombreux sites archéologiques, l’Unesco doit s’élever au-dessus des conflits politiques et religieux pour préserver le patrimoine culturel de l’humanité.

À Jérusalem, ce patrimoine englobe aussi bien des fortifications cananéennes du IIemillénaire avant J.-C. que des murailles érigées au XVIe siècle par le sultan ottoman Soliman le Magnifique, en passant par le temple du roi Hérode le Grand ou l’église du Saint-Sépulcre. C’est l’ensemble de ce patrimoine plurimillénaire que l’Unesco doit protéger, y compris contre les récupérations politiques de tout bord.

D’ailleurs, une telle instrumentalisation pourrait s’avérer fatale à ce papyrus, très vite accusé de contrefaçon : Jérusalem mentionnée dans un texte hébreu vieux de 2 700 ans alors même que l’Unesco est appelée à voter une résolution pro-palestinienne, voilà qui tombe à pic ! De fait, l’authenticité de ce fragment ne peut être prouvée, et il convient d’être prudent à ce sujet, indépendamment des questions politiques d’ailleurs. Il y a quelques mois de cela, j’attirai l’attention sur la circulation possible de manuscrits de la mer Morte contrefaits.

Ce problème n’est pas nouveau ; Ernest Renan disait déjà en 1876 :

« Les faussaires menacent de causer bientôt tant d’embarras aux études d’épigraphie et d’archéologie orientales qu’il faut placer au nombre des plus signalés services celui de démasquer ces sortes de fabrications ».

Si la prudence s’impose, certains se font une spécialité de remettre systématiquement en question l’authenticité de chaque découverte. C’est une posture facile : si l’objet s’avère contrefait, on se targue d’avoir été le premier à le signaler. Si l’objet s’avère authentique (mais le saura-t-on jamais ?), on dira sobrement avoir été prudent. Il est en réalité bien plus difficile de se risquer à évaluer l’authenticité d’un objet et à émettre un avis aussi informé que possible.

Un papyrus mystérieux

Le sensationnel assorti à la présentation de ce papyrus en finirait presque par éclipser les questions que soulève sa lecture. Est-ce le roi de Juda qui fait venir à Jérusalem du vin pris sur ses réserves personnelles ? Est-ce l’un de ses sujets qui lui envoie ce vin, comme cadeau ou comme impôt ? Est-ce un roi voisin qui offre à son homologue judaïte quelques-unes de ses meilleures bouteilles ? Que contenaient les lignes précédentes ? S’il est authentique, ce papyrus n’a pas fini de nous livrer ses secrets !

Michael Langlois, Docteur ès sciences historiques et philologiques, membre de l’IUF, maître de conférences HDR, Université de Strasbourg

La version originale de cet article a été publiée sur The Conversation.

We need new laws to regulate the world’s newest frontier : the datasphere - Jean-Sylvestre Bergé

Jean-Sylvestre BergéUniversité Jean Moulin - Lyon 3

The rise of information technologies – smartphones, sensors spread across public and private spaces, data analytics – has led to the production of considerable amounts of data on human activity and the world around us.

The quantity of data has increased exponentially, in parallel with Moore’s law, which predicted in 1965 that computers’ capacity would double every 18 months.

Scientists have had to introduce new units of measurement such as zetta, denoting thousands of billions of billions (10²¹ or 1000000000000000000000), to designate these orders of magnitude, which were known in the realm of natural sciences but, until recently, absent from the realm of human activity.

Burgeoning data has given rise to a new space – the “datasphere” – a sort of image of the physical world, with traces of real-world activities, including our position at any given moment, our exchanges, the temperature of our homes, financial movements, trading of goods or road traffic.

All of this poses a new challenge to the law, which now has to define its own relationship with this modern sphere.

Data bit

In order to be understood as a new space, the datasphere must be considered as a system formed by the whole range of digital data.

While the hydrosphere (the global mass of water, including oceans, lakes, rivers and ground water) relies on the molecule H2O, which determines its reservoirs and flows, the datasphere can be built on the data bit.

Like water, data exists under different states: open, widely accessible, or proprietary, with access restrictions. Data can be static, at rest, or in motion. As with water, a data cycle transforms little drops into large masses.

Data is generated from the activity of humans or equipment everywhere. It then flows into storage and processing centres and returns to the individual players following transformation.

Like the hydrosphere, the datasphere interacts with the global environment. It is anchored in the physical and economic worlds, while also being largely independent, much like oceans and clouds.

Its foundation is primarily physical: the datasphere rests on real infrastructure, formed of data centres, undersea cables, communication satellites, and so on. Far from negligible, this physical foundation consumes around 10% of the world’s electricity production.

Economic and legal factors

The datasphere’s foundation is also economic. It relies on major economic actors, mostly multinationals with their complex links to administrative and government institutions. Taxation and state surveillance programmes root these platforms into political territories. And their importance is growing astonishingly fast.

If, in 2010, half of the top ten market capitalisations were in the energy sector, most of them are today in the datasphere. A single oil company, Exxon, is now among six digital platforms (Apple, Alphabet, Microsoft, Facebook, Amazon, and Tencent), in this reversal of trend, symptomatic of the Anthropocene.

Data firms like SimilarWeb in Tel Aviv collect millions of informations. Baz Ratner/Reuters

The idea of the datasphere raises questions about the way the law comprehends space. It’s likely that answers must be sought through the construction of public international law, as has been done for the sea, international canals, rivers and lakes, the atmosphere and outer space.

The question is whether the datasphere requires the same “need of law”. Answers have already been given in the specific context of the internet, for instance. The image of “cyberspace” with its libertarian ambition for independence and the types of players involved, feeds a wide-ranging debate on the subject.

But, in the context of the datasphere, which can potentially encompass all human activity on the planet, the question deserves special scrutiny. Still, to the best of our knowledge, no comprehensive study identifying the datasphere as a space, potentially subject to one or more legal regimes, has been carried out.

Unlike the other spheres (such as the lithosphere, the hydrosphere or the atmosphere), the datasphere is not yet considered a specific field of human activity into which the law could intervene*.

Nevertheless, this area requires careful examination, particularly on the overall relationship between the emerging new space and its relationship with physical space and new digital territories.

New relationships

The datasphere can trigger the creation of new relationships within conventional institutions, such as states, cities, districts, or international and regional organisations.

With everything digitised, data no longer belongs to the state, or a specific city agency, or even to the individual; it is given over to the public realm, where everyone can have access to it. Because data can be shared and used widely, collaboration between different levels of government, both nationally and internationally could grow.

New relationships might also result from the massive phenomenon of transferring activities from local, regional and federal administrations into the datasphere. Take, for example, labour relations. The internationalisation of certain service-provision apps, such as Uber, has brought the applicability of local labour laws into question. While some cities have successfully banned Uber, in other places – despite mandatory minimum wages, working hours, and other rights – Uber drivers remain distinctly beyond the realm of national legislation.

There are many relevant illustrations of the law’s quest to cover human ingenuity: space lawis constantly shifting, as are discussions on the regulation of the high seas and the highly debated case of the Arctic. Even the biosphere is being given legal status via the “Mother Earth” law in Bolivia.

The datasphere expands into the technosphere, which is the system formed by all human industries, from energy production to administration, from agriculture to transportation.

But the law must understand it as a new space, offering an appropriate framework to understand the new relationships emerging from all human activities.

* “La sphère des données et le droit” : nouvel espace, nouveaux rapports aux territoires" Journal du droit international (France), Issue 2016/4 - will appear also as The Datasphere and the Law: New Space, New Territories.

La version originale de cet article a été publiée sur The Conversation.

Ne pas héroïser le mal - Carole Talon-Hugon

Carole Talon-Hugon, Université Nice Sophia Antipolis

Nous sortons depuis peu d’une longue période au cours de laquelle on considérait que l’art et l’éthique constituaient des domaines radicalement distincts. Cette doxa de l’extraterritorialité éthique de l’art, qui correspondait à un moment formaliste de la modernité, est heureusement passé de mode. De nombreux travaux sur les rapports de l’art et de la morale se développent dans le champ de la philosophie de l’art, de la psychologie et des sciences cognitives, et permettent d’aborder d’un point de vue réflexif une question d’une douloureuse actualité : celle de la déprogrammation du film Made in France, de Nicolas Boukhrief, racontant l’histoire de la préparation d’un attentat terroriste djihadiste à Paris. Ce film n’étant pas sorti, il n’est possible de se prononcer ni sur sa qualité cinématographique, ni sur sa posture éthique. Néanmoins, au vu de son sujet trois raisons générales justifient sa déprogrammation.

COËTZEE ET LE REFUS DE L’HÉROÏSATION DU MAL

La première est le refus de l’héroïsation du mal. Dans un passage du roman de John Maxwell Coëtzee Elizabeth Costello, l’auteur, se livre à une intéressante réflexion sur la représentation du mal dans la littérature, réflexion qui peut être étendue au cinéma. Dans la sixième « leçon » du livre précisément intitulée « The Problem of Evil », Coëtzee décrit l’héroïne de son roman, sous « l’envoûtement maléfique » d’un livre qu’elle vient de lire et qui ne cesse de la hanter : The Very Rich Hours of Count von Stauffenberg de Paul West. Cet ouvrage fait le récit d’un épisode particulièrement noir de la Seconde Guerre mondiale : l’exécution des officiers allemands qui avaient tenté un attentat contre Hitler le 20 juillet 1944. Paul West décrit longuement et de manière très réaliste, les circonstances abjectes de l’exécution des conjurés et restitue les paroles adressées à ceux-ci par le bourreau.

Coëtzee décrit Elizabeth Costello sortant de cette lecture malade, « écoeurée du spectacle, écœurée d’elle-même, écœurée d’un monde où de telles choses ont lieu ». Cette réaction tient à deux choses. D’abord, à ce que Coëtzee nomme l’obscénité de l’événement historique lui-même : le fait qu’Hitler ait exigé, pour se venger des conjurés, la torture et l’humiliation les plus épouvantables. Mais elle tient aussi à l’obscénité de la mise en récit de l’événement, et cette seconde obscénité relaie la première. Ce qu’Elizabeth Costello ressent c’est une transmission, une contagion du mal : par son récit, West a redonné vie à Hitler, a fait revivre un Mal radical.

Ces notations de Coëtzee concernent un événement non fictionnel, mais elles peuvent être élargies aux œuvres fictionnelles et a fortiori – comme dans le cas qui nous occupe – à celles que la réalité a rattrapées. Car les entités fictionnelles ne sont pas de purs non êtres : il y a une seule modalité de représentation et elle est référentielle. Qu’elles soient fictionnelles ou non fictionnelles, demeure donc la référence et la force qui est la sienne. Les œuvres ne demeurent pas indemnes de l’obscurité qu’elles mettent en scène décrivent ; elles sont comme contaminées par elle. Au niveau des représentations mentales où le sens se constitue, de telles œuvres font exister le mal, que ce soit en en prolongeant l’existence ou en l’inventant.

OUI, L’ART PRÊTE À CONSÉQUENCE

La deuxième raison est la crainte d’une contagion du mal. Si Platon voulait chasser le poète qui met en scène les vices et les turpitudes des dieux, c’est parce qu’il pensait le mal contagieux : « il ne faudrait pas que nos gardiens soient élevés au milieu de représentations de la difformité morale, comme en quelque pâturage malsain où, jour après jour, avec chaque plante vénéneuse qu’ils absorberaient, ils se laisseraient insensiblement gagner jusqu’aux tréfonds de l’âme par une corruption massive », écrivait-il dans La République.

C’est ce type de critique qui nourrit des accusations beaucoup plus contemporaines qui reprochent à des œuvres d’encourager la brutalité à l’égard des femmes, le racisme, la pédophilie, le ségrégationnisme, ou la violence urbaine. Ainsi Plateforme de Houellebecq a été accusé d’être une incitation à la haine raciale. Ainsi des féministes comme Catharine MacKinnonreprochent à des œuvres présentant les femmes comme des êtres dont on peut abuser, de susciter ou au moins de conforter la croyance selon laquelle il est admissible d’abuser des femmes et de propager une idéologie régulatrice.

La légende veut que l’empereur Mithridate ait réussi à s’immuniser contre les effets des poisons en en ingérant de petites doses. De la fréquentation du mal par fiction interposée, on peut craindre une forme de mithridatisation, que dénonçait Rousseau à propos des pièces de théâtre où figurent « des monstres abominables et des actions atroces » ; elles sont dangereuses « en ce qu’elles accoutument les yeux du peuple à des horreurs qu’il ne devrait pas même connaître et à des forfaits qu’il ne devrait pas supposer possibles » (Lettre à d’Alembert). Des recherches récentes sur les effets de l’immersion fictionnelle montrent qu’il est faux de croire que, selon le mot de Gide « l’art ne prête pas à conséquence ». D’importants travaux de psychologie sur l’impact des jeux vidéo ultra violent, notamment ceux de Laurent Begue, ont montré comment la pratique soutenue de ces jeux produisait en effet une annihilation des émotions d’empathie.

ADORNO FACE À L’ESTHÉTISATION DÉPLACÉE

La troisième raison est celle l’esthétisation déplacée. Toute production lorsqu’elle relève de l’art appelle une attitude esthétique qui suppose une distance à l’égard de son objet et qui a pour horizon un plaisir. Or il est inconvenant d’avoir une distance psychique à l’égard de choses vis-à-vis desquelles nous devrions au contraire nous sentir profondément impliqués. Il y a des sujets qui ne peuvent devenir prétexte d’un jeu esthétique. Adorno soulignait les limites d’une œuvre qui prendrait Auschwitz pour thème : son horreur en serait en quelque sorte dissoute ou transfigurée. À propos duSurvivant de Varsovie de Schönberg, il écrivait :

« Le fait de […] mettre en image [l’enfer du nazisme], même avec cette dureté et cette intransigeance, constitue malgré tout une sorte d’offense à la dignité des victimes. On se sert d’elles pour fabriquer quelque chose qu’on donne en pâture au monde qui les a assassinées. Quand on applique à la souffrance physique toute nue des hommes abattus à coups de crosse ce qu’on appelle ordinairement l’élaboration poétique de l’art, il y a là, si peu que ce soit, la possibilité d’en tirer une jouissance. La règle morale qui commande à l’art de ne pas oublier cela une seconde, dérape dans l’abîme de son contraire ».

La mise en scène artistique fait perdre de l’horreur à ce qui doit rester horrible. L’esthétisation ôte leur poids d’existence à la réalité et euphémise ce qui ne devrait pas l’être.

Est-il légitime de faire exister le mal pour le supprimer ? La condamnation de l’ignoble peut-elle passer par la mise en scène de l’ignoble ? Le spectacle du mal est-il un antidote ou un objet de fascination ? Le risque est toujours d’assurer la gloire de ce qu’on veut faire disparaître ou de propager ce qu’on veut détruire.

The Conversation

Carole Talon-Hugon, Professeur de philosophie, membre de l'Institut Universitaire de France, Université Nice Sophia Antipolis

La version originale de cet article a été publiée sur The Conversation.

Faut-il avoir peur des vaccins ? - Michel Cogné

Michel Cogné, Institut Universitaire de France (IUF)

Il y a-t-il danger à se faire vacciner ? Régulièrement, en France et partout dans le monde, les opposants à cette méthode de protection contre les maladies font entendre leur voix. Dernière polémique en date : l’immunisation des jeunes filles contre le papillomavirus. Qu’en penser ? Cet acte médical qu’est la vaccination relève-t-il d’un plan machiavélique fomenté par une industrie pharmaceutique osant tout et n’importe quoi pour nous transformer en malades ? Ou, au contraire, les oppositions anti-vaccins ne sont-elles qu’allégations injustifiées, mais à la mode chez certains partisans des théories du complot qui préfèrent des enfants cancéreux « naturellement » plutôt que vaccinés « artificiellement » ?

L’exemple du vaccin contre le papillomavirus montre bien quels sont les enjeux de ce débat miné. Ainsi, le rapport de l’Agence nationale de sécurité du médicament et des produits de santé (ANMS), paru mi-septembre, fait le point d’une façon incontestable, chiffres à l’appui, en faveur d’une vaccination dont les bénéfices sont clairs, mais qui pourtant a suscité bien des polémiques…

UN VACCIN C’EST QUOI ?

L’être humain est doté d’un outil raffiné de protection contre les maladies et agressions : son système immunitaire. Celui-ci est tout à fait remarquable par sa capacité à développer des millions de réponses différentes, adaptées à la plupart des bactéries, virus et champignons pathogènes que nous rencontrons au cours de notre vie … On pourrait le comparer à un corps de pompiers d’élite, capables d’intervenir tant sur les feux que les noyades, les fuites de gaz, les risques chimiques ou les accidents de la route. Immense polyvalence et adaptabilité, donc.

À l’inverse de l’immunité innée présente chez les organismes simples, tous les mammifères disposent, pour se défendre, d’un système dit d’immunité adaptative, qui permet de répondre à une infinité de situations différentes et d’en garder le souvenir. Cette « mémoire immune » nous permet ensuite de réagir beaucoup plus rapidement et efficacement lors d’une nouvelle rencontre avec un micro-organisme pathogène connu. Comme une équipe de pompiers, ce système immunitaire fait d’autant mieux face à un danger qu’il a appris à le combattre.

Les vaccins, c’est donc un peu l’école du système immunitaire. Bien sûr, on peut apprendre « sur le tas » : si l’on contracte, puis l’on guérit de la rougeole, notre organisme ayant ainsi appris à connaître l’ennemi, sera définitivement immunisé contre la maladie. Le vaccin contre la rougeole permet, lui, d’accélérer et de sécuriser le processus. Il s’agit d’administrer un virus atténué qui, sans provoquer une vraie rougeole, déclenche dans l’organisme une réponse immunitaire a minima, suffisante pour que le corps apprenne à contrer le virus. C’est donc la formation et l’entraînement du sapeur-pompier, mais sans les risques de s’exposer à un vrai feu de forêt….

PROTÉGER CONTRE LE CANCER DU COL

Qu’en est-il de la vaccination contre le papillomavirus humain (HPV) ? Et tout d’abord, à quoi sert-elle ? Plusieurs vaccins visent à protéger contre les formes les plus fréquentes du cancer du col de l’utérus. Le Haut Conseil de Santé Publique (HCSP) recommande de vacciner les jeunes filles à l’âge où elles vont débuter leur vie sexuelle et s’exposer ainsi à l’HPV. Il s’agit de leur offrir une protection contre les sérotypes les plus agressifs du virus.

D’autres sérotypes, plus rares, peuvent toutefois entraîner la maladie : ainsi, le vaccin ne protège pas contre la totalité des cancers. Il devrait quand même permettre d’éviter 70 à 80 % des cancers du col de l’utérus, du vagin de la vulve ou de l’anus… Autant dire que cette vaccination est un vrai enjeu de santé publique. Malheureusement, seul un tiers des jeunes filles françaises en bénéficient actuellement.

 

Un papillomavirus humain. ajcann.wordpress.com/flickr, CC BY-NC

 

Quid de sa sécurité pour les personnes vaccinées ? À l’instar de celui contre l’hépatite B (autre vaccin « anti-tumoral » avec cette fois un intérêt vis-à-vis des cancers primitifs du foie), le vaccin contre l’HPV a été l’objet de rumeurs dénonçant de possibles effets secondaires. Quelques cas rares de sclérose en plaques ont amené les experts à se poser une question brûlante : s’agissait-il d’affections sporadiques, indépendantes du vaccin, ou bien un lien de cause à effet pouvait-il être établi ? Pour trancher, des études indépendantes fondées sur un travail épidémiologique et statistique de qualité s’imposaient.

Une large étude a été menée dans le monde sur les nouveaux vaccins contre le papillomavirus. Elle s’est poursuivie 4 ans sur plus de 2,2 millions de jeunes filles, dont environ un tiers vacciné. Validé par un comité scientifique indépendant, le rapport rendu le 13 septembre 2015 par l’agence nationale de sécurité du médicament (ANSM) confirme que ces vaccins n’augmentent pas le risque global de maladie auto-immune. Cela écarte notamment le risque de sclérose en plaques lié à la vaccination. Et valide donc les recommandations de l’HCSP en fonction d’un rapport « bénéfice-risque » du vaccin très favorable.

VOUS AVEZ DIT « BÉNÉFICE-RISQUE » ?

Le choix des mots est important. La validation d’un bon rapport « bénéfice-risque » n’est pas synonyme d’absence totale de risque. Ainsi, le rapport de l’ANSM montre que le risque global de pathologies auto-immunes n’est pas augmenté par la vaccination. Il précise notamment cette absence de risque pour les affections sévères que sont le lupus érythémateux ou la sclérose en plaques. Mais le travail atteste également d’une faible augmentation du risque d’autres pathologies moins sévères, telles que le syndrome de Guillain-Barré.

Le problème des discussions parfois passionnées sur la question des vaccins, c’est que l’on peut tout à fait argumenter de façon opposée à propos des mêmes observations. Vacciner, c’est induire une activité du système immunitaire, puisqu’il s’agit d’entraîner ce système à se défendre contre un agresseur. Même si comparaison n’est pas raison, un parallèle s’impose dans le domaine militaire : un soldat qui s’entraîne court-il un risque ? Forcément oui ! Il a plus de « chance » de se faire une entorse ou une contracture musculaire qu’en faisant la sieste. De ce risque faible, mais réel, les adversaires des vaccinations peuvent tirer argument : toute réponse immunitaire, même à l’occasion d’un simple rhume, peut très rarement être suivie de quelques manifestations de nature auto-immune, généralement transitoires, tel le syndrome de Guillain-Barré (polyradiculonévrite aiguë habituellement régressive), ou telles que certaines maladies inflammatoires de l’intestin.

C’est vrai après un vaccin comme après un rhume. Un risque infime existe donc, mais qui, à l’échelle d’une population, mérite d’être pris, car les bénéfices attendus l’emportent largement sur les risques encourus. Pour 100 000 personnes vaccinées, on observerait ainsi environ un cas supplémentaire de syndrome de Guillain-Barré. Pour revenir à la comparaison débutée plus haut : qui aimerait se savoir protégé par des soldats ayant remplacé tout entraînement par l’art de la sieste ? Même si ce faisant ils avaient en effet évité tout risque d’entorse ? Dans un tout autre domaine, le port de la ceinture de sécurité est un bon exemple d’arbitrage en fonction d’un bénéfice /risque : on accepte l’idée d’une possible lésion cutanée voire d’une fracture de la clavicule induite par une ceinture, moyennant l’assurance qu’en cas de choc, cette ceinture nous empêche de traverser le pare-brise.

Reste à comprendre pourquoi « l’entraînement immunitaire » ne peut pas échapper au risque. Le système immunitaire est chargé de la lourde tâche de distinguer, d’une part nos propres antigènes et ceux des microorganismes qui vivent en symbiose avec nous (notamment au niveau de nos muqueuses) et de les tolérer, d’autre part des antigènes produits par des microorganismes pathogènes qu’il convient d’éliminer. Des milliards de molécules se croisent ainsi dans notre organisme et sont le plus souvent correctement identifiées, mais le monde biologique comme celui de l’informatique n’est pas complètement à l’abri d’un « bug ».

On peut par erreur réagir fortement contre un antigène qui n’est pourtant ni pathogène ni agressif (aliment, pollen, cosmétique…) et ce sera l’allergie. On peut également, plus rarement, réagir contre nos propres antigènes et ce sera un syndrome d’auto-immunité. À chaque fois que notre système immunitaire se met en action (c’est-à-dire très souvent), contre un rhume, une angine, des germes contaminant une petite plaie, un vaccin… un faible risque d’erreur de l’immunité existe, semblable au risque d’entorse du soldat qui s’entraîne ou combat.

Fort heureusement des millions d’années d’évolution ont sélectionné chez nous des réponses immunitaires, très adaptées, très spécifiques et très sûres et les risques que nous évoquons ici restent négligeables en comparaison des bienfaits que nous apporte notre système de protection. Les déficits profonds de l’immunité sont ainsi totalement incompatibles avec une vie dans un environnement normal non protégé.

Que conclure, au sujet du vaccin contre le papillomavirus humain ? Tout d’abord, soulignons que ce qu’il combat est bien souvent mortel : le cancer du col de l’utérus, 11ème cancer le plus fréquent en France, tue dans un tiers des cas. Il cause ainsi chaque année environ 1100 décès en France. En 2012 en France, parmi les différentes causes de décès mesurées aujourd’hui, environ une Française sur 1 000 décédera d’un cancer du col de l’utérus et un peu plus d’une femme sur 400 développera au cours de sa vie cette pathologie.

Un vaccin susceptible d’éviter 70 à 80 % de cette morbidité et de cette mortalité est clairement une bénédiction, même s’il est associé à un tout petit risque d’effets secondaires. Ne pas vacciner une jeune fille pour lui éviter ces effets secondaires, la priver d’un vaccin dont la dangerosité est comparable à celle d’un rhume, c’est à l’évidence un choix aberrant que, devenues femmes, les jeunes filles pourront reprocher à leurs parents et aux pouvoirs publics actuels. Au vu de l’enquête très large et rassurante menée par l’ANSM et la CNAMTS, il semble donc urgent de se fixer comme objectif d’augmenter la couverture vaccinale, et de ne pas continuer à laisser 70 % de nos adolescentes sans protection contre le papillomavirus.

The Conversation

Michel Cogné, professeur à la faculté de médecine de Limoges, administrateur de l'Institut universitaire de France, Institut Universitaire de France (IUF)

La version originale de cet article a été publiée sur The Conversation.

Voyage en galaxies : ce que Herschel et Planck nous ont appris (1) - Hervé Dole

Hervé Dole, Université Paris Sud – Université Paris Saclay

Les profondeurs du cosmos ne sont plus insondables. Grâce aux dernières générations de satellites tels que Planck et Herschel, tous deux projets européens, les scientifiques sont aujourd’hui en mesure de dévoiler certains de ses mystères.

C’est le cas notamment des galaxies lointaines. Ainsi, l’équipe française qui pilote le travail de recueil et d’analyse des données de l’observatoire spatial Planck a découvert plus de 2 000 sources énigmatiques sur tout le ciel. Ce sont des zones où l’on a repéré des fortes concentrations de galaxies lointaines. Ces structures mystérieuses sont des sortes de cocons pour étoiles où le taux de formation des astres est extraordinairement élevé. Ces galaxies lointaines et très actives en formation stellaire peuvent aider les scientifiques à répondre à une problématique centrale en cosmologie :

Une image du fond cosmologique diffus, rayonnement ESA and the Planck Collaboration, Author provided

 

comment se forment les grandes structures dans l’Univers ?

UN PEU DE COSMOLOGIE, UN SOUPÇON D’ASTROPHYSIQUE

Revenons aux origines, juste après cet évènement que les cosmologistes appellent le Big Bang, phase primordiale durant laquelle l’Univers était un plasma bouillonnant de matière chaude et de photons. Environ 400 000 ans après cet évènement, intervient une transition permettant aux atomes légers de se former et à la lumière de se libérer sous forme d’un rayonnement homogène, baptisé par les scientifiques le fond cosmologique.

Grâce au satellite Planck, il est possible d’observer ce rayonnement qui nous renseigne avec précision sur les premiers instants de l’Univers. Il nous permet par exemple de mesurer son âge de 13,8 milliards d’années avec une incertitude de l’ordre du pour cent. On a pu aussi mesurer la température de ce fond cosmologique : elle est de l’ordre de 2,7K (2,7 Kelvin est l’équivalent de moins 270 degrés Celsius). Enfin, les données de Planck nous indiquent que, dans son jeune âge, l’univers était très homogène.

C’est radicalement différent aujourd’hui : l’hétérogénéité est la règle avec la présence de galaxies (et en leur sein des étoiles, du gaz, de la poussière) et d’amas de galaxies (fortes concentrations de galaxies). Entre elles, quasiment du vide. Se pose donc la question de savoir comment ces structures hétérogènes se sont formées sous l’action de la gravitation. Les observations de Planck indiquent qu’il y avait, dans cette période clé de 400 000 ans après le Big Bang, des inhomogénéités extrêmement faibles. Ce sont elles qui constituent les prémices de ce que deviendront les grandes structures observées.

De quoi sont faites ces inhomogénéités ? Ce sont de petites surdensités de matière qui ont crû par un processus d’effondrement de la matière sur elle-même, par l’effet de la force gravitationnelle et malgré le phénomène d’expansion de l’univers. Ces « graines » se sont regroupées en de grandes concentrations appelées halos. Plus tard, elles deviendront les structures de l’Univers – amas de galaxies et galaxies.

Les halos sont essentiellement composés d’une substance mystérieuse : lamatière noire. Sa force d’attraction aspire attire la matière dite ordinaire, (c’est-à-dire les atomes), qui se condense et se refroidit pour former des étoiles. Les halos et galaxies, relativement petits au début, fusionnent puis forment des systèmes de plus en plus massifs avec le temps. C’est, globalement, ce à quoi ressemble l’univers tel qu’il est décrit par la plupart des modèles de formation des structures en cosmologie. Ce schéma dit de formation hiérarchique n’a pas été remis en cause à ce jour par les observations des télescopes les plus perçants.

VOUS AVEZ DIT GALAXIES ?

Ainsi, observer des galaxies ou les amas de galaxies, proches ou lointains, est un moyen de valider ou de remettre en cause les modèles d’univers, ou plus particulièrement les modèles de formation des structures.

Mais le cosmos est loin d’avoir dévoilé tous ses mystères. De nombreuses inconnues demeurent, avec en premier lieu l’existence et la nature de la matière noire. Encore hypothétique puisqu’il n’y pas eu d’observations directes, cette étrange matière noire a un avantage majeur : postuler qu’elle est là son existence permet de garder cohérent notre modèle d’univers. Mais existe-t-elle vraiment et sous quelle forme ? L’avenir nous le dira. Nous, astrophysiciens, considérons cependant sa présence comme acquise en raison du grand nombre d’observations astrophysiques qui la suggèrent. Par exemple celles de Planck confirment l’accord entre les mesures et le modèle cosmologique à un niveau encore jamais atteint.

Autres interrogations, celles portant sur les relations tumultueuses entre matière noire et matière ordinaire. On sait qu’il y a environ 5 fois plus de matière noire que de matière ordinaire dans l’univers et que les deux s’attirent mutuellement via la gravitation. C’est ici qu’entrent en scène les galaxies.

Comment les définir ? Une galaxie est un ensemble de matière noire et de matière ordinaire liées ensemble par la gravité, principalement sous forme d’étoiles, mais pas exclusivement puisqu’on trouve aussi du gaz et de la poussière interstellaire (des molécules plus ou moins complexes). Généralement, elles sont d’une masse totale de 1011 masses solaires et d’une taille de 100 000 années-lumière. Une galaxie peut être de formes différentes, principalement spirale ou elliptique.

L’un des mystères que les scientifiques essaient de percer est de savoir comment elles se sont formées. Comment la matière ordinaire s’est-elle condensée pour former des étoiles, des trous noirs ? Pourquoi et comment la formation d’étoiles a t-elle pu s’arrêter dans les galaxies à certains moments (sinon nous n’observerions plus de gaz) ? Pourquoi certaines galaxies sont très massives par rapport à d’autres ? Ont-elles « grandi » plus vite que les autres, et si oui pourquoi ? Et que dire des amas de galaxies, regroupant jusqu’à des milliers de galaxies baignées dans un gigantesque halo de matière noire et de gaz chaud ? Pourquoi un amas s’est-il formé à la place d’une hypothétique galaxie hypergéante de même masse et contenu ? Et quand les amas se sont-ils formés et comment ?

Réponse à certaines de ces questions dans notre prochain article sur les galaxies lointaines.

The Conversation

Hervé Dole, Professeur d'astrophysique et physique, Université Paris Sud – Université Paris Saclay

La version originale de cet article a été publiée sur The Conversation.

Voyage en galaxies (2) : Planck, la machine à sonder le cosmos - Hervé Dole

Hervé Dole, Université Paris Sud – Université Paris Saclay

La naissance énigmatique des galaxies lointaines est l’un des grands mystères de la cosmologie moderne. Comme vous avez pu vous en apercevoir en lisant le premier article de notre série, « Voyage en galaxies », les scientifiques se posent nombre de questions sur leur formation, leur taille, leur organisation en amas de galaxies, la matière qui les constitue… C’est dans ce contexte qu’intervient la découverte de Planck, cet observatoire spatial qui a pour mission de cartographier ce que l’on appelle le « fond diffus cosmologique », un rayonnement témoin de l’état de l’Univers environ 380 000 ans après le Big Bang.

Planck n’observe pas seulement le fond diffus cosmologique ; les galaxies aussi !

Plusieurs décennies de recherches se sont appuyées sur des modèles, des simulations et des observations réalisées avec les télescopes au sol ou dans l’espace. Elles ont permis d’aboutir à un scénario relativement satisfaisant deformation des grandes structures et des galaxies, malgré les questions et incertitudes mentionnées. Pour affiner les modèles, il s’avère utile de cibler des galaxies lointaines. Notre équipe a donc choisi de chercher sur la totalité du ciel observé par Planck les zones qui pourraient correspondre à des galaxies lointaines.

 

Les lancements des deux télescopes Planck et Herschel ont eu lieu en 2009. S. Corvaja/ESA, CC BY-NC

 

L’originalité de cette recherche ? Elle est double. La première, c’est que nous ne sommes plus limités par une petite zone du ciel, puisque nous avons tout le ciel. Cela est idéal pour rechercher les objets rares, avec la grande puissance statistique que permet Planck. La seconde, c’est que nous pouvons nous intéresser de près à la formation stellaire. En effet, afin d’observer au mieux le fond cosmologique, Planck a été optimisé pour être sensible aux ondessubmillimétriques, millimétriques et centimétriques. Il se trouve que les galaxies qui sont créatrices d’étoiles rayonnent essentiellement dans l’infrarouge lointain, c’est-à-dire vers 0,1 mm de longueur d’onde. Avec l’éloignement des galaxies et le phénomène d’expansion de l’Univers, nous observons ce rayonnement non pas à 0,1 mm, mais vers 0,4 mm de longueur d’onde, zone où Planck commence à observer. Ainsi Planck devient-il une « machine » à détecter des galaxies lointaines formant beaucoup d’étoiles.

En l’occurence, « lointaine » signifie qu’il y a une grande distance cosmologique. Que veut dire ce terme ? Les objets les plus « éloignés » de l’univers sont également les plus anciens, proches du Big Bang, car ce sont ceux dont la lumière a mis le plus de temps à parvenir à l’observateur. Ils sont également perçus avec ce que les spécialistes appellent le « décalage vers le rouge », vers les grandes longueurs d’ondes du spectre de la lumière visible. Ce « redshift » est d’autant plus grand que l’objet est lointain.

Comment Planck détecte-t-il les galaxies lointaines ?

En pratique, comment procèdent les scientifiques pour détecter ces galaxies lointaines ? La méthode, inventée par des collègues toulousains qui font partie de la collaboration Planck, consiste tout d’abord à nettoyer les données des lumières d’avant-plan gênantes. Puis à analyser les fines fluctuations brillantes dans les images de Planck et à extraire celles qui correspondent à la bonne « couleur » : c’est-à-dire celle dont l’émission est plus intense vers 0,4 mm de longueur d’onde. Pour prendre en compte les biais que l’on peut rencontrer dans ce genre de travail, on fait tourner des simulations. Résultat, l’équipe a obtenu plus de 2.000 candidats solides qui seraient des galaxies ou des ensembles de galaxies lointaines, à « grand décalage vers le rouge », formant beaucoup d’étoiles.

 

La totalité du ciel, observé par Planck, est représentée dans l’image orangée. Au centre, notre galaxie, la Voie lactée. Plus de 2 000 sources à grande distance, possibles galaxies, ont été découvertes par Planck. Environ 10 % d’entre elles (points noirs sur le ciel Planck) ont été observées par Herschel, dont 9 images sont présentées en vignettes. H. Dole/ESA, Author provided

 

Planck permet ainsi de repérer les zones intéressantes grâce au rayonnement rougi des poussières des galaxies lointaines. Une fois détectés, nous avons eu besoin d’une confirmation pour caractériser ces objets cosmologiques. Pour ce faire, nous avons utilisé un autre observatoire spatial : le satellite Herschel, lui aussi sensible aux ondes submillimétriques. Nous l’avons pointé sur environ 10 % des cibles identifiées par Planck, soit environ 200 objets. Herschel est bien plus sensible et doté d’une bien meilleure résolution angulaire que Planck, mais ne peut observer que de toutes petites portions du ciel. Il est donc parfaitement complémentaire de Planck.

L’apport du satellite Herschel

Les images révélées par Herschel nous ont subjugués. Nous avons alors découvert que la plupart des candidats détectés par Planck sont desconcentrations de galaxies qui créent des étoiles de manière intensive : leurstaux de formation stellaire dépassent de plus de 500 fois celui de notre galaxie, la Voie lactée ! Plus important encore, de nombreux indices montrent qu’elles pourraient être des amas à grand décalage vers le rouge. Il s’agit là d’une importante découverte qui révèle les grandes structures dans leur phase de création stellaire intense. Cela correspond probablement à leur phase de formation initiale, jamais observée auparavant avec autant de détails et sur un si large échantillon. En outre, il y a quelques autres joyaux qui ont pu être détectés dans le reste des données : par exemple, des galaxies ultra brillantesà « haut redshift », amplifiées par un effet dit de lentille gravitationnelle. On peut ainsi les soumettre à une étude physique de la composition du gaz et de la dynamique galactique, de façon aussi détaillée que s’il s’agissait de galaxies proches.

Nous devons encore poursuivre nos investigations sur ces concentrations de galaxies formant furieusement des étoiles. Notamment pour prouver qu’il s’agit bien d’amas, et non pas simplement des alignements fortuits de galaxies les unes derrière les autres. De même, il nous faut confirmer notre hypothèse sur la nature de ces concentrations : sont-elles bien les chaînons manquants de la formation des structures, c’est-à-dire des amas de galaxies en formation, ou juste des « clubs de galaxies jeunes » sans importance cosmologique ?

L’étude de ces structures sera rendue possible notamment grâce à Euclid, le prochain satellite européen dédié à la cosmologie dont le lancement est prévu fin 2020. De même que pour Planck, la communauté astrophysique française y jouera un rôle de premier plan. Nous pouvons aussi compter sur d’autres moyens d’observation, puissants, comme le réseau de télescopes ALMA au Chili et le satellite JWST de la NASA, successeur de Hubble, prévu pour 2018 auquel l’Europe contribue.

The Conversation

Hervé Dole, Professeur d'astrophysique et physique, Université Paris Sud – Université Paris Saclay

La version originale de cet article a été publiée sur The Conversation.

Voyage en galaxies (3) : à quoi sert la recherche en cosmologie - Hervé Dole

Hervé Dole, Université Paris Sud – Université Paris Saclay

À quoi sert de rechercher les galaxies lointaines ? Dans les deux précédents articles de notre série, nous avons pu prendre connaissance des questions scientifiques sous-jacentes à cette quête cosmologique et comprendre en quoi les satellites Planck et Herschel, au meilleur des technologies spatiales, ont été des instruments cruciaux.

Les résultats de Planck et ceux confirmés par Herschel ont déjà fait, à l’heure actuelle, l’objet de deux publications scientifiques. L’information a également été relayée dans ses grandes lignes par la presse au printemps dernier. Ce qui n’a pas été forcément évoqué en revanche concerne le comment et le pourquoi : quelles ont été les méthodologies mises en œuvre et pourquoi faut-il se lancer dans ce type de recherche fondamentale.

LES OUTILS POUR RÉUSSIR : LE COMMENT

De nombreuses méthodes existent pour progresser dans la recherche de galaxies lointaines. Mais toutes impliquent d’une part l’utilisation de télescopes puissants équipés de détecteurs à la pointe de la technologie et, d’autre part, de systèmes de gestion des données. Ces derniers sont développés dans nos laboratoires et universités, avec le soutien de grands organismes (tels que le CNRS, le CNES ou le CEA), et en lien avec l’industrie. En cosmologie, la période de recherche est très longue : cela se compte en dizaines d’années. Durant tout ce temps, des compétences très variées sont mises en oeuvre par tous les profils de personnels passionnés par la recherche : chercheurs, enseignants-chercheurs, ingénieurs, techniciens, personnels administratifs. La mobilisation dépasse nos frontières.

 

Dans la salle de commande de Planck à l'ESA, lors de la dernière commande envoyée. ESA, CC BY

 

Pour Planck et Herschel, ce sont des collaborations européennes qui ont conçu, développé, fabriqué, testé et fait fonctionner de nouveaux instruments envoyés dans l’espace. Certains défis ont été particulièrement ambitieux, comme celui de faire fonctionner un instrument refroidi à -273,05 degrés (0.1 Kelvin) sans variation pendant deux ans dans l’espace, une première mondiale. Tout a fonctionné au-delà des exigences.

Cet effort concernant l’instrumentation en conditions spatiales, motivé par des buts scientifiques clairs et soutenus par une grande communauté scientifique, implique aussi des industriels. Ceux-là déposent des brevets ou développent des nouveautés qui n’auraient pas forcément vu le jour sans ces besoins formulés par les chercheurs dans un objectif de recherche fondamentale. Une fameuse lettre de 1970 d'un administrateur de la NASA évoque, avec des arguments similaires mais avec un certain brio, la justification des programmes spatiaux de l'époque. Quoi que justifiées et utiles, gardons-nous cependant de n’aborder la question uniquement par le prisme des retombées technologiques, industrielles, économiques, écologiques, humanitaires ou géopolitiques.

Je pourrais me résumer ainsi : la recherche fondamentale, par ses besoins technologiques, engendre déjà aujourd’hui des développements industriels avec des retombées économiques, tout en préparant l’avenir sur des aspects conceptuels ou plus pragmatiques, tous propices à d’autres découvertes.

 

La fusée Ariane 5 utilisée pour lancer les satellites Herschel et Planck en Mai 2009. S. Corvaja/ESA, CC BY

 

LE POURQUOI

Après le « comment », intéressons-nous au « pourquoi ». Quelle est la ou les raisons pour lesquelles on souhaite rechercher des galaxies lointaines ? Et plus généralement, pourquoi mener des recherches fondamentales ?

On me pose souvent une question, tout à fait légitime : à quoi ça sert ? Ou bien, « cela coûte bien cher pour avoir une belle image ». Mon avis est le suivant. La quête de nos origines est l’un des invariants de l’espèce humaine, tout comme le questionnement sur la nature du monde et la place que nous y occupons. Ces questions fondamentales imprègnent le genre humain, guident une grande partie de ses réflexions et actions, et se traduisent à chaque époque sous différentes formes dans tous les domaines de sa production intellectuelle : artistique, culturelle, littéraire, philosophique, scientifique, théologique, notamment.

CONCEPTION DU MONDE

Selon moi, la principale justification à poursuivre des recherches fondamentales est liée à notre conception du monde. En effet, que serait-elle sans les connaissances issues de la recherche ? Un proche collègue pose le débat en ces termes : « est-ce que cela changerait votre vie de tous les jours si nous pensions collectivement que la Terre était encore plate et au centre de l’Univers ? ». J’ai la faiblesse de penser que la réponse à cette question est « oui » pour tous les humains. Si dans notre vie quotidienne nous invoquons peu notre conception du monde, je pense que néanmoins elle nous imprègne, nous habite et nous permet de jouer pleinement notre rôle d’êtres pensants.

Dans notre société contemporaine, ces questions fondamentales pourraient paraître surannées, ou réservées à quelques-uns. Je crois qu’il n’en est rien : il suffit de se référer à l’incroyable écho populaire et médiatique suscité par une série d’évènements scientifiques pour se convaincre que cette quête est bien présente, parfois enfouie, en chacun de nous : la découverte expérimentale duboson de Higgs en juillet 2012 au CERN, l’image de l’univers jeune (le fond cosmologique) par Planck en mars 2013, l’atterrissage épique et réussi de la sonde européenne Philae sur la comète Tchouri en novembre 2014, la découverte de petites exoplanètes comme Kepler 452-b et les images dePluton par New Horizons durant l’été 2015, ou, très récemment, les indices d’eau liquide sur Mars avec la sonde MRO. Il suffit aussi de regarder l’écho médiatique et l’engouement autour de la belle éclipse totale de Lune du 28 septembre 2015. Je cite ici des exemples liés à la physique et l’astrophysique, mais tous les domaines de la connaissance sont concernés.

 

Au CERN, le jour de l’annonce de la découverte du boson de Higgs. Maximilien Brice / CERN, CC BY

 

C’est donc un choix de société que celui de consacrer quelques moyens à la recherche – à toutes les recherches. Elles sont peu coûteuses par rapport aux aux dépenses des états: typiquement 1 à 3% de PIB, à comparer à d'autres postes budgétaires comme la défense ou la fiscalité du gasoil en France. Elles préparent l’avenir, mais aussi, et surtout, elles donnent à penser notre monde et la place de l’homme dans celui-ci, dans le temps, l’espace, la société et toute sa diversité.

The Conversation

Hervé Dole, Professeur d'astrophysique et physique, Université Paris Sud – Université Paris Saclay

La version originale de cet article a été publiée sur The Conversation.