Maitres d’hôtel robotisés humanoides

A very serious guide to buying your own humanoid robot butler

You can now buy a humanoid robot housekeeper for less than the price of a second-hand car. But before splashing out, there’s something you need to know

By Chris Stokel-Walker

17 March 2026

1X NEO
The NEO robot from tech company 1X is marketed as a home assistant1X

Science fiction is strewn with humanoid robots, from bad-tempered Bender in Futurama to cunning Ava in Ex Machina. And it has long seemed like that’s the natural home for such robots – on the screen and in books. The idea of a walking, talking, functioning robot with two arms and two legs has appeared to be a distant dream.

But things are changing. Last year, machines ran, boxed and even played football at China’s World Humanoid Robot Games, albeit sometimes falling over in the process. Meanwhile, companies have been readying their own range of humanoids that promise to do something a bit more useful: help around the house. At the tail end of last year, robotics company 1X opened preorders for its NEO robot, with deliveries expected this year –  a crucial milestone. And with several other companies also now offering humanoid assistants for sale, we are finally living in a world where you can essentially buy yourself a robot butler. There are options out there for a few thousand pounds, less than the price of a small second-hand car.

Read more

The AI expert who says artificial general intelligence is nonsense

That’s why I have decided to create what is probably the world’s first guide for those considering making a purchase – and those who just want to know what all this adds up to. I will unpack not just each model’s vital statistics, but also explore four vital questions any would-be robot owner should ask. One thing is for sure: buyers should beware – they might get a lot less and a lot more than they bargaine

A very serious guide to buying your own humanoid robot butler

You can now buy a humanoid robot housekeeper for less than the price of a second-hand car. But before splashing out, there’s something you need to know

By Chris Stokel-Walker

17 March 2026

1X NEO
The NEO robot from tech company 1X is marketed as a home assistant1X

Science fiction is strewn with humanoid robots, from bad-tempered Bender in Futurama to cunning Ava in Ex Machina. And it has long seemed like that’s the natural home for such robots – on the screen and in books. The idea of a walking, talking, functioning robot with two arms and two legs has appeared to be a distant dream.

But things are changing. Last year, machines ran, boxed and even played football at China’s World Humanoid Robot Games, albeit sometimes falling over in the process. Meanwhile, companies have been readying their own range of humanoids that promise to do something a bit more useful: help around the house. At the tail end of last year, robotics company 1X opened preorders for its NEO robot, with deliveries expected this year –  a crucial milestone. And with several other companies also now offering humanoid assistants for sale, we are finally living in a world where you can essentially buy yourself a robot butler. There are options out there for a few thousand pounds, less than the price of a small second-hand car.

Read more

The AI expert who says artificial general intelligence is nonsense

That’s why I have decided to create what is probably the world’s first guide for those considering making a purchase – and those who just want to know what all this adds up to. I will unpack not just each model’s vital statistics, but also explore four vital questions any would-be robot owner should ask. One thing is for sure: buyers should beware – they might get a lot less and a lot more than they bargaine

22/03/2026 Réveil d’anciens microbes dans l’Alaska

Le réveil de microbes anciens dans le pergélisol de l’Alaska a été un phénomène fascinant et alarmant. Ces microbes, gelés depuis environ 40 000 ans, se sont réveillés après le dégel, libérant du dioxyde de carbone et du méthane, deux gaz à effet de serre qui contribuent au réchauffement climatique. Cette découverte soulève des préoccupations majeures pour le climat mondial, car ces gaz peuvent créer une boucle de rétroaction positive, accélérant encore davantage le réchauffement. Le pergélisol, qui recouvre près d’un quart de l’hémisphère Nord, contient d’immenses quantités de carbone organique piégé. Si ces sols gelés fondent sous l’effet du réchauffement, les microbes qui y dormaient pourraient s’activer, augmentant ainsi les émissions de gaz à effet de serre. Bien que les souches étudiées ne soient pas identifiées comme pathogènes pour l’homme, la découverte rappelle que des formes de vie anciennes peuvent ressurgir à la faveur de la fonte des glaces, et leurs effets biologiques et climatiques ne doivent pas être négligés. 

faunplo.com+5Le réveil de microbes anciens dans le pergélisol de l’Alaska a été un phénomène fascinant et alarmant. Ces microbes, gelés depuis environ 40 000 ans, se sont réveillés après le dégel, libérant du dioxyde de carbone et du méthane, deux gaz à effet de serre qui contribuent au réchauffement climatique. Cette découverte soulève des préoccupations majeures pour le climat mondial, car ces gaz peuvent créer une boucle de rétroaction positive, accélérant encore davantage le réchauffement. Le pergélisol, qui recouvre près d’un quart de l’hémisphère Nord, contient d’immenses quantités de carbone organique piégé. Si ces sols gelés fondent sous l’effet du réchauffement, les microbes qui y dormaient pourraient s’activer, augmentant ainsi les émissions de gaz à effet de serre. Bien que les souches étudiées ne soient pas identifiées comme pathogènes pour l’homme, la découverte rappelle que des formes de vie anciennes peuvent ressurgir à la faveur de la fonte des glaces, et leurs effets biologiques et climatiques ne doivent pas être négligés. 

faunplo.com+5

27/03/2026 Prix du futur porte/avions français

Le prix du porte-avions Charles de Gaulle est un sujet de débat, mais il est estimé que le coût d’un arrêt technique majeur pour le porte-avions atteint 650 millions d’euros, avec des dépenses annuelles d’entretien de 100 millions d’euros. De plus, le coût total de la construction du futur porte-avions français, qui succédera au Charles de Gaulle, est estimé à 10 milliards d’euros. En général, le coût d’un porte-avions peut commencer à 5 milliards d’euros et peut atteindre des sommes bien plus élevées selon les spécificités du projet. 

www.mariefrance.fr+3

21/03/2006. L’Europe aurait mieux à faire que se battre pour l’accès au détroit d’Ormuz

Aux débuts du 3e millénaire, l’Europe à les compétences scientifiques et humaines nécessaires pour participer en première ligne à la construction du monde de demain. C’est aujourd’hui. que celui s’élabore. Les Européens en seront-ils absents ?

Le mega-bug de l’an 2038

Le 19 janvier 2038 à 3 h 14 min et 7 s UTC, un bug pire que celui de l’an 2000 menace de faire planter des milliards d’équipements dans le monde – trains, IRM, implants, télécoms, distributeurs… Les informaticiens sonnent l’alarme. Mais pour l’instant, les industriels sont dans le déni.

On connaît la date de la fin des temps : le 19 janvier 2038, à 3 h 14 min et 7 s UTC. D’un coup, les horloges de milliards de machines vont revenir à zéro, sans manipulation ni piratage. Ou plutôt, elles vont remonter le temps… jusqu’au 13 décembre 1901, 20 h 45 min et 52 s. Cela paraît fou, un scénario de SF. Nous venons pourtant d’en avoir un aperçu indirect, en décembre dernier, avec la condamnation du fabricant de trains Alstom révélée par le journal L’Informé : la RATP lui reprochait justement d’avoir caché ce problème d’horloge, qui risque d’immobiliser un tiers du réseau parisien. L’affaire est en cours – Alstom, qui a fait appel, et la RATP n’ont pas souhaité nous parler. Ailleurs, les langues se délient, révélant l’ampleur d’un problème mondial, jusqu’ici largement passé sous les radars.

Urgence

Oui, le passage de 2038 risque de provoquer de graves pannes dans de nombreux secteurs si l’évaluation et les mesures d’atténuation sont trop tardives”, lâche John Lange, informaticien dans le Colorado – fondateur du site Y2038.com, cet expert est l’un des premiers à avoir lancé l’alerte. “Bien que le problème soit connu des spécialistes, de nombreuses organisations, voire la plupart, ne le traitent pas avec l’urgence que cela mériterait. Un très grand nombre de structures sont exposées et seule une partie étonnamment faible en assure le suivi avec un financement dédié », analyse de son côté Trey Darley, un informaticien belge, fondateur de Proper Tools, un cabinet de conseil spécialisé dans les risques systémiques liés aux infrastructures. “Il faut qu’il y ait une prise de conscience, cela doit sortir de la sphère technique avec urgence”, s’inquiète un ingénieur français en informatique d’une entreprise spécialisée dans les systèmes embarqués, qui a préféré garder l’anonymat.

Pire que l’an 2000

Il suffit de creuser un peu pour s’apercevoir que ce “bug 2038” est connu depuis plus de vingt ans dans le monde des codeurs. Son origine est simple : un grand nombre de nos systèmes informatiques fonctionnent avec une date paramétrée qui permet de repérer des actions dans le temps (prêt bancaire, maintenance…). Et pour que tout soit harmonisé, une norme dite “heure Unix” ou “heure Posix” impose que cette date soit calculée en égrenant les secondes à partir du 1er janvier 1970 (juste après l’invention du système d’exploitation Unix, en 1969). Par exemple, le 25 février 2026, date de sortie de ce numéro d’Epsiloon, il se sera écoulé 1 772 020 678 secondes. Sauf que cette date, exprimée en bits (0 ou 1), est souvent codée sur un nombre de bits limité, en l’occurrence 32 : 31 pour égrener les secondes qui s’écoulent et le 32e pour préciser si on est avant ou après 1970. Le problème, avec ce système, c’est que le nombre le plus élevé s’écrit 01111111 11111111 11111111 11111111. Ce qui correspond au 19 janvier 2038, 3 h 14 min et 7 s donc. Et que la seconde suivante, le codage va afficher 10000000 00000000 00000000 00000000 : le 13 décembre 1901, la date la plus reculée possible dans le passé… “Nos systèmes informatiques comparent les chiffre, et une date future qui se retrouve d’un seul coup plus ancienne que la précédente induit des erreurs”, conclut Thierry Roger, directeur de recherche chez Alten, à Rennes.

On estime que le parc informatique concerné est 500 à 600 fois plus important que pour le bug de l’an 2000

Trey Darley, informaticien belge, fondateur de Proper Tools

Cette histoire rappelle bien sûr le bug de l’an 2000. Mais à l’époque, il s’agissait des années, codées en utilisant deux chiffres (99 pour 1999) – d’où le risque d’interpréter le 00 de 2000 comme un retour en 1900… Un problème anticipé et corrigé au prix de 150 milliards d’euros rien que pour l’Europe, et d’équipes mobilisées pendant une dizaine d’années. Tout à coup, l’échéance de 2038 ne paraît plus si lointaine. D’autant qu’aujourd’hui, le nombre d’objets interconnectés et potentiellement impactés est sans ­ommune mesure. “On estime que le parc d’objets informatiques concernés est environ 500 à 600 fois plus­important que celui de l’an 2000, même s’il n’existe pas de liste officielle, évalue Trey Darley. Cela donne une petite idée du périmètre qu’il va falloir mettre à jour.” Et surtout, d’après les spécialistes, la mobilisation pour 2038 n’est pas du tout du même ordre. “Nombreux sont ceux qui ignorent encore le problème… probablement parce qu’il est plus complexe que celui du passage du millénaire”, lâche Kenji Kono, professeur en informatique à l’université de Keio, qui travaille sur le sujet au Japon.

Tabou

De rares acteurs ont déjà réalisé le grand saut et l’ont fait savoir. Apple, par exemple, a annoncé avoir préparé ses matériels et logiciels dès 2015. Les équipes de Linux ont dévoilé en 2020 avoir apporté un correctif. Et c’est à peu près tout. Sur la vingtaine de structures que nous avons contactées (Google, Siemens, EDF, SNCF, ESA, Bosch, Orange…), la majorité n’a pas répondu ou a minima. “Nous ne pouvons malheureusement pas donner suite à votre demande”, nous dit le service de presse de Renault. “Chez Valeo, on connaît le sujet. Le risque est maîtrisé dans le domaine de l’auto car il y a depuis longtemps des standards pour anticiper ce type de problème. Nous n’avons pas d’autres informations à communiquer sur le sujet.” Même discours chez Capgemini : “La plupart des environnements ont évolué vers des architectures 64 bits ou des formats de temps alternatifs. Pour les systèmes qui seraient impactés, la méthodologie de correction sera similaire à celle utilisée pour le passage à l’an 2000, ce qui est bien maîtrisé par l’industrie”, assure Patrice Duboé, directeur des technologies et de l’innovation.

Dans le monde des informaticiens, on est tous au courant depuis longtemps, mais cela ne provoque pas de prise de conscience

Yann Argotti, docteur en informatique, ingénieur chez Ampère, filiale électrique de Renault

Sauf que sur les forums spécialisés et du côté des développeurs informatiques, le discours est totalement différent. On entend parler de blocages, de pannes, de comportements difficilement prévisibles, d’effets en cascade, avec une inquiétude non dissimulée… “Cette histoire de 2038, on en parle entre nous car on sait que cela va se produire. D’ailleurs, il nous est arrivé pendant des tests de tomber sur la limite, ce qui prouve bien qu’un certain nombre de produits sur le marché sont vulnérables”, lâche notre ingénieur anonyme. “Tout le monde se doute bien qu’il va se passer quelque chose, mais cette connaissance du risque depuis les années 1980-1990 se limite au monde des développeurs, ce qui est un vrai problème”, confie Trey Darley. “Dans le monde des informaticiens, on est tous au courant depuis longtemps, mais cela ne provoque pas de prise de conscience. Ce sujet ne semble pas recevoir une attention spécifique pour l’instant”, déplore Yann Argotti, docteur en informatique, ingénieur chez Ampère, filiale électrique de Renault. 

Pas d’inventaire

Mais pourquoi avoir codé les dates en seulement 32 bits ? “Dans l’histoire de l’informatique, la mémoire a été systématiquement adressée sur une taille à un instant donné, en fonction des limites techniques de l’époque et du coût : on cherche toujours à gratter ce qui est possible en termes d’espace”, explique Gérard Berry, professeur émérite en informatique au Collège de France. Jusque dans les années 2000, ce codage en 32 bits s’est donc largement répandu. Et même si des systèmes à 64 bits sont désormais disponibles, il continue à être utilisé pour les équipements qui n’ont pas besoin de beaucoup de performances (capteurs, vannes…), avec l’idée que des mises à jour seront apportées en temps voulu.

Sauf que peu à peu, le suivi de la programmation de ces objets s’est perdu. Où sont-ils, ces systèmes à 32 bits ? Il y en a probablement des millions, des milliards partout dans le monde, dans les véhicules, les appareils médicaux, les capteurs de maisons, les imprimantes, les distributeurs automatiques… Leur durée de vie est longue et ce sont des systèmes embarqués, autonomes, qui souvent ne peuvent pas être mis à jour en ligne. Aucun inventaire, pas de suivi : leur existence et surtout leur mode de codage ne sont pas des informations bien répertoriées par les entreprises. En témoigne l’affaire RATP-Alstom : alors que l’entreprise avait mis en service de nouvelles rames MI09 en 2011, il lui a fallu six ans pour se rendre compte que certaines d’entre elles étaient vulnérables, et six mois encore pour cerner les 38 logiciels embarqués concernés – au passage, la RATP a découvert ­qu’Alstom avait tenté d’entrer manuellement une date supérieure à 2037… Il faut dire que l’accès à ces systèmes n’est pas forcément simple. “Prenez une grue, par exemple, illustre l’ingénieur anonyme. C’est le genre d’équipement qui a été conçu pour durer, mais qui n’a pas forcément de moyen de connexion à distance de type wifi, 4G… Si on veut la corriger, cela veut dire qu’il faut se déplacer et monter dessus !”

Savoir perdu

On est dans le cas typique où la racine du problème est très simple mais la correction pas forcément”, résume Gérard Berry. De fait, les solutions pour éviter le bug sont bien identifiées et maîtrisées : basculer le codage de la date sur 64 bits pour repousser la limite du temps ; utiliser le 32e bit pour coder au lieu de marquer le passé… Mais toutes soulèvent des difficultés pratiques. “Notamment parce qu’il n’existe pas de solution universelle et unique pour faire basculer tous les programmes avec le même procédé de mise à jour”, poursuit l’expert.

Ces programmes ont souvent été faits à la main par des ingénieurs qui ne sont plus là pour expliquer comment et où ils ont paramétré la date

Gérard Berry, professeur émérite en informatique au Collège de France

Souvent, la seule manière de convertir un programme de 32 en 64 bits est de plonger dans le code source, décrypter les milliers de lignes et comprendre comment la date a été paramétrée. “Cela peut prendre des heures et des heures, en particulier si les codes sont anciens”, pointe Anne Barros, spécialiste de la résilience des systèmes à CentraleSupélec, à Paris. “Il est parfois très difficile de comprendre ce qu’il y a derrière un vieux programme pour peu qu’il ait été écrit de manière un peu artisanale, sans commentaires autour”, confirme Claude Baron, professeur en informatique à l’Institut national des sciences appliquées, l’INSA, à Toulouse.

Ces programmes ont souvent été faits à la main, par des ingénieurs qui ne sont probablement plus là pour expliquer comment et où ils ont paramétré la date. Faire des conversions de ce type peut être plus délicat qu’il n’y paraît”, renchérit Gérard Berry. D’autant que les jeunes développeurs ne connaissent pas forcément certains vieux langages informatiques, comme le Cobol ou les instructions en assembleur. “Les langages utilisés dans les anciens systèmes embarqués n’étaient pas aussi développés et détaillés que ceux actuels du type Python, ce qui rend les mises à jour difficiles”, pointe Mathieu Acher, chercheur à l’Inria, l’institut de recherche en sciences et technologies du numérique. “Un programme informatique écrit en langage C et compilé il y a trente ans est très difficile à comprendre et à modifier. Le Web nous a apporté une grosse mémoire partagée, mais avant la connaissance restait plutôt à l’intérieur des entreprises, voire derrière les murs des codeurs”, raconte Thierry Roger.

Panne, arrêt, erreur

Un cauchemar. D’autant qu’un changement sur une simple ligne de programmation peut casser un système, voire en bloquer d’autres qui y sont connectés. “Quand on modifie un code du système d’exploitation pour stocker l’heure en 64 bits, il faut surveiller la compatibilité avec les applications qui utilisent encore l’heure en 32 bits”, alerte Arnd Bergmann, informaticien allemand chez Linaro. On imagine le risque pour les appareils critiques ou sensibles, comme les appareils médicaux, les barrages… Le pire étant qu’on ne sait pas ce qui se passera quand arrivera la date fatidique. “D’un objet à l’autre, on a du mal à prévoir : panne, arrêt, erreur… Ce n’est pas quelque chose que l’on arrive à anticiper tant les systèmes sont disparates”, prévient l’ingénieur anonyme. Au Japon, Kenji Kono a mené l’étude sur 32 921 projets programmés en langage C et publiés sur la plateforme GitHub, entre 2012 et 2018 : 7,35 % d’entre eux étaient vulnérables au bug de 2038 et, suivant les programmes, les différents effets étaient suffisamment dangereux pour entraîner des plantages de systèmes logiciels.

Des entreprises dans le déni

Face à cela, les entreprises ont tendance à être dans le déni. “Celles qui découvrent qu’elles ont un problème n’ont aucune raison de l’annoncer avant de l’avoir résolu – ou avant que cela ne devienne le problème de quelqu’un d’autre, regrette Trey Darley. La plupart des défaillances sont découvertes lors de tests, et corrigées discrètement.” Mais certains assument, comme KDDI, géant japonais des télécoms, qui a avoué avoir surfacturé par erreur des clients sur des appels passés entre le 10 janvier et le 25 février 2004, à cause du bug – le système utilisant des unités de 0,5 s au lieu de 1 s, le bug s’est manifesté plus tôt. Pedro Umbelino, chercheur chez BitSight, cite aussi le cas d’AOL, le fournisseur d’accès à Internet américain, en 2006. Nous avons retrouvé l’ingénieur qui a géré l’affaire à l’époque, Dossy Shiobara, qui a depuis quitté l’entreprise : “Tout a commencé quand un problème étrange a affecté nos serveurs, témoigne-t-il. L’un de mes experts a fini par découvrir que cela venait d’un bug lié à notre codage de date sur 32 bits, mais il nous a fallu cinq jours pour trouver la cause et la solution.” Plus récemment, en 2022, Trey Darley signale l’entreprise suisse Proton, à l’origine de la messagerie Proton Mail, dont le calendrier en ligne bloquait quand les utilisateurs voulaient paramétrer une date au-delà de 2038.

Un schisme

Un peu partout dans le monde, des codeurs et des chercheurs commencent à se fédérer pour alerter. Fin 2025, lors d’une réunion de l’Union internationale des télécommunications, à Genève, les membres d’un groupe de travail ont approuvé un document exigeant une coordination mondiale sur ce sujet. “Il s’agit de la première initiative internationalement reconnue de ce type”, salue Trey Darley, l’un des rédacteurs du document avec Pedro Umbelino. En parallèle, la loi européenne sur la cyberrésilience pourrait inciter à prendre le risque au sérieux : votée en 2024 et mise en application en 2027, elle devrait exiger que les systèmes embarqués puissent être mis à jour pour garantir une sécurité tout au long de leur cycle de vie… “Cette histoire illustre le problème récurrent du partage des connaissances entre le monde de l’informatique d’un côté, et le monde de la physique et du matériel de l’autre, regrette Gérard Berry. On peut même parler de schisme entre les ingénieurs qui conçoivent les équipements et ceux qui paramètrent les logiciels.”

Reste que le nerf de la guerre n’est pas seulement technique, il est aussi financier. Qui est responsable ? Qui doit payer ? L’intégrateur, le fournisseur, le sous-traitant ? Dans l’affaire RATP-Alstom, les juges ont tranché. Le compte à rebours est lancé : au moment où nous publions cette enquête, il ne reste plus que 4 375 jours 17 h 24 min et 55 s pour tenter de résoudre le bug de l’an 2038.

20/03/2006 Un trou noir traversant l’espace proche

0/03/2025 Un trou noir traversant l’espace

Les trous noirs sont des objets astrophysiques qui se forment à partir de la fusion de plusieurs trous noirs stellaires au cœur d’un noyau galactique actif. Lorsqu’ils fusionnent, ils peuvent produire un flash intense de rayons gamma et de rayons X, ce qui a été observé récemment. Cette fusion a été détectée par le réseau LIGO-Virgo-KAGRA et a été suivie par plusieurs observatoires spatiaux. Les trous noirs sont des laboratoires où nos théories fondamentales s’effondrent, ouvrant des questions sur l’information et l’origine des galaxies. 

Wikipedia+1

Recherche et observation des trous noirs par Virgo

Le réseau Virgo a joué un rôle clé dans la détection et l’observation des trous noirs à travers des ondes gravitationnelles. Les détecteurs LIGO et Virgo, en collaboration, ont détecté des événements d’ondes gravitationnelles provenant de la fusion de deux trous noirs, ce qui a été publié dans The Astrophysical Journal Letters. Cette observation a été réalisée à la fin de 2024 et a été publiée dans The Astrophysical Journal Letters. 

in2p3.cnrs.fr


Le réseau Virgo a également été impliqué dans l’observation et la localisation précise des sources d’ondes gravitationnelles, ce qui a été publié dans Physical Review Letters. Cette publication a été réalisée par la collaboration internationale exploitant les trois détecteurs, qui comprend des équipes du CNRS et de l’APC. 

Sciencepost


Les travaux de Virgo et LIGO continuent d’apporter des avancées significatives dans la compréhension des trous noirs et des collisions gravitationnelles dans l’espace. 

Futura

LIGO, Virgo et KAGRA observent des « trous noirs de deuxième génération »

28 octobre 2025

Résultats scientifiques Astroparticules et cosmologie

La détection de deux fusions singulières de trous noirs, à seulement un mois d’intervalle à la fin de 2024, améliore notre compréhension de la nature et de l’évolution des collisions les plus violentes de l’Univers. Certaines caractéristiques de ces fusions suggèrent la possibilité de « trous noirs de deuxième génération », qui seraient le résultat de coalescences antérieures, probablement produites dans des environnements cosmiques très denses et encombrés, comme des amas stellaires, où les trous noirs sont plus susceptibles de se rencontrer et de fusionner à répétition.

Dans un nouvel article publié ce jour dans The Astrophysical Journal Letters, la collaboration internationale LIGO-Virgo-KAGRA annonce la détection de deux événements d’ondes gravitationnelles en octobre et novembre de l’année dernière présentant des spins de trous noirs inhabituels. Une observation qui apporte une nouvelle pièce importante à notre compréhension du phénomène le plus insaisissable de l’Univers. Les ondes gravitationnelles sont des « ondulations » de l’espace-temps qui résultent d’événements cataclysmiques dans l’espace profond. Les ondes les plus fortes sont produites par les collisions de trous noirs. En utilisant des techniques algorithmiques sophistiquées et des modèles mathématiques, les chercheurs sont en mesure de reconstruire de nombreuses caractéristiques physiques des trous noirs détectés à partir de l’analyse des signaux gravitationnels, telles que leurs masses et la distance de l’événement par rapport à la Terre, ou encore la vitesse et la direction de leur rotation autour de leur axe, appelée spin.

La première des deux fusions de l’article a été détectée le 11 octobre 2024 (GW241011). Elle s’est produite à environ 700 millions d’années-lumière et a résulté de la collision de deux trous noirs pesant environ 17 et 7 fois la masse du Soleil. La rotation du plus grand des trous noirs dans GW241011 est l’une des plus rapides jamais observées.

Presque un mois plus tard, le 10 novembre 2024, la seconde fusion, nommée GW241110, a été détectée à environ 2,4 milliards d’années-lumière et a impliqué la fusion de trous noirs d’environ 16 et 8 fois la masse du Soleil. Alors que la plupart des trous noirs observés tournent dans la même direction que leur orbite, le trou noir principal de GW241110 a été observé en rotation dans une direction opposée à son orbite – une première du genre.

« Chaque nouvelle détection fournit des informations importantes sur l’Univers, nous rappelant que chaque fusion observée est à la fois une découverte astrophysique et un laboratoire inestimable pour étudier les lois fondamentales de la physique », déclare Carl-Johan Haster, co-auteur de l’article et enseignant chercheur en astrophysique à l’Université du Nevada, Las Vegas (UNLV). « Des binaires comme celles-ci avaient été prévues au regard d’observations antérieures, mais c’est la première preuve directe de leur existence. »

Ces deux événements semblent indiquer qu’il pourrait s’agir de « trous noirs de deuxième génération ». « Parmi les centaines d’événements que le réseau LIGO-Virgo-KAGRA a observés, GW241011 et GW241110 figurent parmi les plus novateurs, » déclare Stephen Fairhurst, enseignant chercheur à l’Université de Cardiff et porte-parole de la collaboration scientifique LIGO. « Le fait que les deux événements présentent un trou noir beaucoup plus massif que l’autre et en rotation rapide semble indiquer que ces trous noirs ont été formés à partir de fusions de trous noirs antérieures. »

Les scientifiques mettent en avant certaines caractéristiques particulières, notamment la différence de taille entre les trous noirs dans chaque fusion – le plus grand faisait presque le double de la taille du plus petit – et l’orientation du spin des trous noirs les plus grands dans chaque événement. Une explication naturelle de ces particularités est que les trous noirs sont le résultat de coalescences antérieures. Ce processus, appelé fusion hiérarchique, suggère que ces systèmes se sont formés dans des environnements denses, comme des amas stellaires, où les trous noirs sont plus susceptibles de se rencontrer et de fusionner à répétition.

« Ces découvertes mettent en évidence les capacités extraordinaires de nos observatoires mondiaux d’ondes gravitationnelles », déclare Gianluca Gemme, chercheur à l’INFN et porte-parole de la collaboration Virgo. « Les configurations de spin inhabituelles observées dans GW241011 et GW241110 ne remettent pas seulement en question notre compréhension de la formation des trous noirs, mais offrent également des preuves convaincantes de fusions hiérarchiques dans des environnements cosmiques denses : elles nous apprennent que certains trous noirs existent non seulement comme des partenaires isolés, mais probablement aussi comme des membres d’une foule dense et dynamique. Ces découvertes soulignent l’importance de la collaboration internationale pour dévoiler les phénomènes les plus évasifs et énergétiques de l’Univers. »

Découvrir les propriétés cachées des fusions de trous noirs

Les ondes gravitationnelles ont été prédites pour la première fois par Albert Einstein dans le cadre de sa théorie de la relativité générale en 1916, mais leur présence – bien que prouvée dans les années 1970 – n’a pas été directement observée par les scientifiques jusqu’à il y a seulement 10 ans, lorsque les collaborations scientifiques LIGO et Virgo ont annoncé la détection des ondes à la suite d’une fusion de trous noirs.

Aujourd’hui, LIGO-Virgo-KAGRA est un réseau mondial de détecteurs d’ondes gravitationnelles avancés, qui s’approche de la fin de sa quatrième campagne d’observation, O4. La campagne actuelle a commencé à la fin mai 2023 et devrait se poursuivre jusqu’à la mi-novembre de cette année. À ce jour, environ 300 fusions de trous noirs ont été observées grâce aux ondes gravitationnelles, y compris les candidats identifiés dans la campagne d’observation en cours qui attendent leur validation finale.

D’autre part, la précision avec laquelle GW241011 a été mesurée, a également permis de tester certaines prédictions de la théorie de la relativité générale d’Einstein dans des conditions extrêmes.
En fait, cet événement peut être comparé aux prédictions de la théorie d’Einstein et à la solution du mathématicien Roy Kerr pour les trous noirs en rotation. La rotation rapide du trou noir le déforme légèrement, laissant une empreinte caractéristique dans les ondes gravitationnelles qu’il émet. En analysant GW241011, l’équipe de recherche a trouvé un très bon accord avec la solution de Kerr et a vérifié à nouveau la prédiction d’Einstein, avec une précision sans précédent.

En outre, parce que les masses des trous noirs individuels diffèrent considérablement, le signal d’ondes gravitationnelles contient le « bourdonnement » d’une harmonique supérieure – similaire aux harmoniques des instruments de musique-  observée seulement pour la troisième fois avec GW241011. L’une de ces harmoniques a été observée avec une grande clarté et confirme une autre prédiction de la théorie d’Einstein.

« Cette découverte signifie également que nous sommes plus sensibles que jamais à toute nouvelle physique qui pourrait se trouver au-delà de la théorie d’Einstein », conclut Haster.

Recherche avancée de particules élémentaires

Les trous noirs en rotation rapide comme ceux observés dans cette étude ont maintenant une nouvelle utilité en physique des particules. Les scientifiques peuvent les utiliser pour tester l’existence de certaines particules élémentaires hypothétiques.

Ces particules, appelées bosons ultra-légers, sont prédites par certaines théories au-delà du Modèle Standard de la physique des particules, qui décrit et classe toutes les particules élémentaires connues. Si les bosons ultra-légers existent, ils peuvent extraire l’énergie de rotation des trous noirs. La quantité d’énergie extraite et la vitesse à laquelle la rotation des trous noirs ralentit au fil du temps dépendrait donc de la masse de ces particules. Le fait que le trou noir massif impliqué dans GW241011 continue de tourner rapidement, même des millions ou des milliards d’années après sa formation, élimine une large gamme de masses de bosons ultra-légers.

« La détection et l’inspection de ces deux événements démontrent combien il est important de faire fonctionner nos détecteurs en synergie et de s’efforcer d’améliorer leur sensibilité », déclare Francesco Pannarale, enseignant chercheur à l’Université de Rome et co-président de la division des sciences observationnelles de la collaboration LIGO-Virgo-KAGRA. « Les instruments LIGO et Virgo nous en ont appris encore davantage sur la manière dont les binaires de trous noirs peuvent se former dans notre Univers, ainsi que sur la physique fondamentale qui les régit. En améliorant nos instruments, nous serons en mesure de plonger plus profondément dans ces aspects et d’autres avec une précision accrue. »

La collaboration LIGO-Virgo-KAGRA

LIGO est financé par la National Science Foundation (Etats-Unis) et exploité par Caltech et MIT, qui a conçu et construit le projet. Le soutien financier au projet Advanced LIGO est assuré par la NSF, l’Allemagne (Société Max Planck), le Royaume-Uni (STFC) et l’Australie (Conseil de la recherche australienne) faisant des contributions importantes au projet. Plus de 1 600 scientifiques du monde entier participent à l’effort au travers de la collaboration scientifique LIGO, qui comprend la collaboration GEO. Les institutions membres supplémentaires sont répertoriées ici.

La collaboration Virgo est actuellement composée d’environ 1 000 membres issus de plus de 150 institutions dans 15 pays différents (principalement européens). L’Observatoire européen de la gravité (EGO) accueille le détecteur Virgo près de Pise, en Italie, et est financé par le CNRS en France, l’Institut national de physique nucléaire (INFN) en Italie, l’Institut national de physique subatomique (Nikhef) aux Pays-Bas, la Fondation de la recherche – Flandre (FWO) et le Fonds de la recherche scientifique (F.R.S.-FNRS) en Belgique. Plus d’informations sont disponibles sur le site Web de Virgo ici.

KAGRA est un interféromètre laser avec une longueur de bras de 3 km à Kamioka, au Japon. L’institut hôte est l’Institut de recherche sur les rayons cosmiques (ICRR), l’Université de Tokyo, et le projet est co-accueilli par l’Observatoire astronomique national du Japon (NAOJ) et l’Organisation de recherche sur les accélérateurs de particules (KEK). La collaboration KAGRA est composée de plus de 400 membres issus de 128 instituts dans 17 pays/régions. 

Virgo et les laboratoires français

CNRS Nucléaire et Particules est impliqué dans la collaboration européenne Virgo à travers dix de ses laboratoires et plateformes nationales : l’APC (Paris), le CC-IN2P3 (Lyon), le GANIL (Caen), IJCLab (Orsay), l’IPHC (Strasbourg), l’IP2I (Lyon), le L2IT (Toulouse), le LAPP (Annecy), le LMA (Lyon), le LPC Caen et Subatech (Nantes). Parmi les contributions techniques de l’institut au projet, on compte le développement des revêtements optiques des miroirs et des systèmes de métrologie optique, la conception et la réalisation du système d’acquisition des données et de contrôle, ou encore le développement du système de contrôle du vide et des chambres à vides de l’interféromètre. Par ailleurs, de nombreux scientifiques de l’institut participent à la mise en marche de l’interféromètre, à l’acquisition et à l’analyse des événements gravitationnels ainsi qu’à leur étude scientifique.

Outre les laboratoires CNRS Nucléaire & Particules, plusieurs autres instituts français participent à cette aventure européenne, dont Artemis (Nice), l’ILM (Lyon), l’INSP (Paris), le Laboratoire Navier (Paris) et le LKB (Paris), l’institut Fresnel (Marseille), le LAUM (Le Mans).

L’exploitation de l’interféromètre Virgo est assurée par le consortium EGO (CNRS, INFN, Nikhef, FWO et FNRS). EGO a pour principal objectif d’assurer le fonctionnement de Virgo, sa maintenance, son exploitation et son évolution.

Contact

Nicolas Leroy

Directeur adjoint scientifique « Astroparticules et cosmologie »

nicolas.leroy@in2p3.fr

20/03/2026 Le requin tigre

Le requin tigre est un prédateur marin redoutable, connu pour sa taille impressionnante et son régime alimentaire varié, vivant dans les eaux tropicales et subtropicales.

Caractéristiques Physiques

Habitat et Comportement

Régime Alimentaire

Interaction avec les Humains

Conservation

19/03/2026 Comment s’imaginer que les humains puissent comprendre l’univers

Du point de vue de la physique quantique, l’univers serait fondamentalement inconnaissable ? Pour elle chaque objet tel que l’électron doii obéir à une fonction mathématiqe dite fonction d’onde Celle-ci tencode tout les états quantique de cet objet, ce qui signifie que les physiciens peuvent prévoir comment cet object se comporter dans des expérience combinant ls fonction avec d’autres équations. ;

Mais si l’on accepte l’idée que l’uniers entier puisse être quantique, comme l’admettent de nombreu. scientifiques, il faut admettre les plus grandss de ces objets devraient disposer d’une fonction d’onde inclant tout l’univers. Ce pont de vue avait été défendu par de nombreux physiciens tel Stephen Hawking.

A suivre

But now Eddy Keming Chen at the University of California, San Diego and Roderich Tumulka at the University of Tübingen in Germany have shown that complete knowledge of this universal wave function may be fundamentally elusive.

“The wave function of the universe is like a cosmic secret that physics itself is trying to keep. We may know an enormous amount about how the universe behaves, but we remain essentially uncertain as to what quantum state it is in,” says Chen.

Previous studies assumed the shape of the universal wave function based on theoretical models of the cosmos and did not directly address what role experiments and observations might play in determining its details. Chen and Tumulka began with a more pragmatic question: given a certain set of wave functions that could reasonably represent our universe, could observations allow researchers to pick the right one?

The pair began with mathematical results from quantum statistical mechanics, which studies the properties of collections of quantum states. Another component of their calculations was the fact that a universal wave function would require a very large number of parameters or exist in an abstract state with many dimensions.

We may never know the universal wave function

07/03/2028 L’energie noire

La théorie du Big Rip suggère que l’univers pourrait se déchirer à cause de l’énergie noire, qui est une forme d’énergie très atypique.

 Cette énergie, qui a été découverte en 1998, est responsable de l’accélération de l’expansion de l’univers. Si l’énergie noire continue de s’accélérer, elle pourrait déchirer l’univers, disloquant les galaxies, les étoiles et même les atomes

Finalement, l’univers ne se déchirera pas

La théorie du Big Rip [le «grand déchirement» en français] réservait à notre univers un scénario assez peu optimiste: toutes les structures, des amas de galaxies jusqu’aux atomes, étaient vouées à être détruites, étirées par une expansion de plus en plus importante menant jusqu’au déchirement.

Mais soyez rassuré: à l’occasion de la 243e réunion de l’Union américaine d’astronomie à La Nouvelle-Orléans, de nouveaux calculs ont été publiés par le Dark Energy Survey (DES), un programme international dont le but est de cartographier l’univers afin de mieux comprendre la nature de l’énergie noire. La nouvelle mesure en question clarifie cette dernière, et par extension écarte la théorie du Big Rip.

D’après les estimations, notre univers observable est composé à près de 70% d’énergie noire. Depuis sa découverte en 1998, on sait que son principal effet à (très) grande échelle est d’accélérer l’expansion de l’univers. Toutefois, si l’on arrive à quantifier cette énergie noire, il est nettement plus délicat de la qualifier avec précision.

Jusqu’ici, la nature de l’énergie noire demeurait mystérieuse. Plus précisément, c’est le paramètre «w» qui a longtemps été insaisissable pour les scientifiques du monde entier. Par «w», il faut comprendre «équation d’état». En physique, celle-ci correspond au rapport entre la pression et la densité énergétique d’une substance. Absolument tout dans notre univers possède une équation

L’Univers est-il un ordinateur quantique ? Plongée à l’échelle de Planck

Publié par Varenza Ghaisandra, le 18 janvier 2026   9.8k

Et si l’Univers n’était pas un simple contenant physique, mais un gigantesque processeur d’information ? En explorant les hypothèses audacieuses de la gravité quantique, nous découvrons une réalité où l’espace-temps se compose de qubits et où les lois de la physique ne sont peut-être que des fonctions booléennes en cours d’exécution.


L’espace-temps à l’échelle de Planck : une trame de pixels

Au cœur de la physique théorique moderne, une idée fascinante émerge : à l’échelle infiniment petite de Planck (10^-35 mètres), l’espace-temps perd sa fluidité apparente pour devenir discret et granulaire. Selon les travaux de la physicienne Paola Zizzi, cette « pré-géométrie » pourrait être envisagée comme un réseau de pixels élémentaires.

Dans ce modèle, chaque « pixel » d’espace-temps n’est pas une unité inerte, mais un qubit (bit quantique) qui encode de l’information. Nous ne parlons plus ici de géométrie classique, mais d’une structure où l’information est la substance même de la réalité.

C’est ici que naît le concept vertigineux d’un Univers comme registre quantique massif, capable de stocker et de traiter les données fondamentales de la réalité.

La dynamique de l’Univers : un algorithme unitaire

Si l’espace-temps est un registre d’information, son évolution dans le temps peut être vue comme un calcul. En utilisant le formalisme de l’informatique quantique, les lois fondamentales de la physique deviennent un réseau de portes logiques unitaires.

L’évolution de l’Univers serait alors un processus réversible où l’espace-temps se trouve dans un état d’intrication quantique généralisée. Cette non-localité à l’échelle de Planck fait disparaître l’identité individuelle des pixels pour former un tout cohérent, évoquant l’interprétation des « mondes multiples » (Many-Worlds). Grâce au parallélisme quantique, l’Univers « calcule » simultanément une infinité de configurations possibles.

Réseaux de spins et principe holographique

Pour représenter cette structure abstraite, la Gravité Quantique à Boucles (LQG) propose un outil puissant : les réseaux de spins. Ce sont des graphes dont les arêtes portent des valeurs de spin définissant la géométrie quantique de l’espace.

En associant ces réseaux à des qubits (où un spin 1/2 représente les états logiques de base), on retrouve notre modèle computationnel. Le principe holographique renforce cette vision : il postule que l’information contenue dans un volume peut être décrite par sa surface limite. Ainsi, l’horizon cosmologique pourrait être vu comme une surface de 10^120 pixels de Planck, chacun encodant un qubit.

L’Univers macroscopique que nous percevons ne serait que la « sortie » (output) à grande échelle d’un calcul d’une complexité inimaginable, exécuté dans le monde discret de l’infiniment petit.

La physique comme langage booléen

Dans ce paradigme, les lois de la physique ne sont plus des équations figées, mais des fonctions booléennes quantiques émergentes. Le hasard apparent de la mécanique quantique — le résultat d’une mesure, découlerait de la nature probabiliste de la sortie de cet algorithme universel.

Plus fascinant encore, cette approche suggère que nous sommes « ancrés dans le code » : des sous-programmes conscients de l’exécution globale, mais incapables d’en percevoir la totalité. L’interaction entre les multiples histoires possibles de l’Univers devient alors un « Grand Jeu Quantique » dont nous serions les joueurs involontaires.