réchauffement

Nous lisons ceci. L’article ne tient pas assez compte de l’énergie nucléaire

L’Europe ne manque pas de ressources énergétiques. Seule la volonté politique de les exploiter lui fait défaut. Les ressources pétrolières et gazières britanniques de la mer du Nord constituent à elles seules une mine d’or inexploitée. Tant que les décideurs européens ne s’attaqueront pas aux fondements idéologiques de cette stratégie vouée à l’échec – et privilégieront des visions utopiques plutôt que la sécurité et la prospérité de leurs concitoyens – le continent poursuivra sa descente vers la désindustrialisation, la misère et l’insignifiance stratégique

La politique énergétique de l’Union européenne a atteint un degré d’idéologisation qui confine aujourd’hui à l’autodestruction.

L’économie mondiale fonctionne toujours massivement à l’énergie fossile. Les transports, la production d’électricité, l’industrie lourde, le chauffage et la production de plastique en sont tous dépendants.

Compte tenu des fortes tensions géopolitiques, la Commission européenne a fini par le reconnaitre. En raison des conflits dans des points de passage stratégiques comme le détroit d’Ormuz, Bruxelles s’est joint au chœur, a réclamé la fluidité des flux énergétiques, et a admis implicitement que la civilisation moderne ne pouvait fonctionner sans un approvisionnement fiable en hydrocarbures.

Le 19 mars 2026, le Conseil européen, composé des chefs d’État et de gouvernement des 27 pays de l’Union européenne, a publié la déclaration suivante :

« Le Conseil européen appelle à la désescalade et à la retenue la plus grande … [ainsi qu’à un moratoire sur les frappes contre les installations énergétiques et hydrauliques… Le Conseil européen salue également le renforcement des efforts annoncés par les États membres, notamment une coordination accrue avec les partenaires de la région, afin de garantir la liberté de navigation dans le détroit d’Ormuz… »

Début avril, l’UE a apporté son soutien à une coalition de plus de 40 pays, menée par le Royaume-Uni et la France, visant à sécuriser et à rouvrir le détroit d’Ormuz. Kaja Kallas, représentante de l’UE pour les affaires étrangères, a déclaré :

« Rétablir la liberté de navigation sûre et gratuite dans le détroit, conformément au droit de la mer, est une priorité absolue. L’UE soutient tous les efforts diplomatiques déployés pour y parvenir. »

La présidente de la Commission européenne, Ursula von der Leyen, s’est aussi engagée à œuvrer avec ses partenaires pour rétablir la navigation « dès que possible ». À la mi-avril 2026, Mme von der Leyen a souligné à plusieurs reprises que la fermeture du détroit porte « un immense préjudice » à l’Union européenne. Rejetant tout système de péage ou de redevance proposé par l’Iran (ou d’autres pays), Mme Von der Leyen a insisté sur le droit à un passage libre et sans restriction, conformément au droit international.

Des responsables de l’UE, dont Kallas, ont souligné à plusieurs reprises qu’environ 20 % du pétrole mondial et une part importante du gaz naturel liquéfié (GNL) transitent habituellement par le détroit d’Ormuz. Elle a également fait remarquer que la fermeture du détroit met « en grand péril l’approvisionnement en pétrole et en énergie de l’Asie » (environ 85 % du pétrole et du gaz qui transitent par Ormuz est destiné à l’Asie), et que cette fermeture affecte également le secteur des engrais.

En résumé, bien que l’UE insiste sur la « liberté de navigation » et le droit international, son refus d’un quelconque guichet est en lien direct avec le secteur pétrolier et énergétique, tant pour l’économie mondiale que pour l’exposition de l’Europe à la hausse des prix et aux risques de rupture d »approvisionnement. La perturbation d’Ormuz représente une menace drastique contre la sécurité énergétique, et pas seulement contre d’abstraits droits maritimes.

Pourtant, ces mêmes institutions européennes poursuivent le démantèlement systématique de toute possibilité d’exploitation des combustibles fossiles. Les Pays-Bas achèvent la fermeture et le bouchage définitifs des puits du gisement gazier de Groningue, l’une des plus importantes réserves d’Europe. L’Allemagne a accéléré sa sortie du charbon et, dans le cadre de sa « Energiewende » (transition vers les « énergies renouvelables » telles que l’éolien et le solaire, qui ne fonctionnent pas), a délibérément inondé des mines de charbon. L’exploration du gaz de schiste reste de facto interdite dans la plupart des États membres. Et la capacité nucléaire a été réduite dans plusieurs pays, notamment en Belgique et l’Allemagne a brutalement fermé ses dernières centrales.

Le résultat est moins un salut environnemental qu’une dépendance entièrement fabriquée envers des producteurs de pétrole tiers, comme la Russie.

L’Europe n’a pas d’autre choix aujourd’hui que d’importer la grande majorité de son pétrole et de son gaz. Certes, Eurostat et les analyses récentes de groupes de réflexion comme Ember montrent que le cout des importations de combustibles fossiles de l’UE est encore largement inférieur au pic de 2022 de 600 milliards d’euros. Mais la facture 2025 s’élève néanmoins à 337 milliards d’euros.

En Europe, les prix du gaz et de l’électricité à usage industriel sont deux à quatre fois supérieurs à ceux des principaux concurrents aux États-Unis ou en Asie. Ce n’est pas un hasard du marché ; c’est la conséquence directe de choix politiques qui ont éliminé les sources d’approvisionnement nationales, alors que la demande, tant intérieure qu’internationale, reste soutenue.

Les conséquences économiques sont déjà visibles et graves. Les industries énergivores comme la sidérurgie, la chimie, les engrais, le verre et le raffinage délocalisent hors d’Europe ou réduisent leur production. La compétitivité s’érode. Les ménages sont confrontés à des factures d’énergie toujours plus élevées, contribuant à une précarité énergétique généralisée. En effet, 9 à 10 % de la population, soit plus de 40 millions de personnes, peinent à chauffer leur logement.

Le surcoût cumulé des importations de combustibles fossiles entre 2021 et 2024 est estimé à près de 930 milliards d’euros par rapport aux niveaux d’avant la guerre en Ukraine. Ce transfert de richesse profite aux producteurs de pétrole en Russie et ailleurs – un résultat bien loin de ce qu’avaient envisagé ceux qui avaient promis une « autonomie stratégique ».

Nous ne sommes pas en face d’une erreur politique ou d’un pragmatisme à court terme. Tout ceci est la conséquence logique d’un cadre idéologique : un idéal de pureté climatique authentiquement obsessionnel fige les principales institutions européennes. Aussi bien intentionnée que soit cette aspiration – qui ne souhaite pas respirer un air pur ? –, elle a été systématiquement mise à mal chaque semaine par la Chine et l’Inde, qui ont augmenté sans relâche leurs émissions de CO2, bien plus que l’Europe ne pouvait réduire les siennes.

Ce que nous vivons est l’application concrète du marxisme culturel – la théorie d’après-guerre qui a sorti la lutte révolutionnaire de l’économie pour la diriger vers la culture et les institutions. Face à l’échec empirique du marxisme classique, des penseurs comme Herbert Marcuse ont figé la civilisation occidentale dans la posture de l’oppresseur. Le capitalisme, la société industrielle et les sources traditionnelles d’indépendance énergétique sont devenus des cibles, non en raison de leur échec, mais parce qu’ils symbolisent le succès même de l’Occident, du capitalisme et des incitations des économies de marché. « Le capitalisme a fait plus pour émanciper les individus et améliorer leur niveau de vie que toute autre force dans l’histoire », affirme Michael D. Tanner, expert américain de la pauvreté et des inégalités économiques.

Le regretté économiste américain Milton Friedman, qui a promu la liberté économique, l’élargissement des opportunités et la croissance, a déclaré en 1979 :

« Historiquement, les masses n’ont échappé à la misère extrême que dans les périodes ou le capitalisme et le libre-échange ont été largement répandus. Les masses sont les plus mal loties lorsqu’elles vivent dans des sociétés qui s’écartent de ce modèle. »

Plutôt que de partager les parts d’un gâteau à la taille limitée, pourquoi ne pas cuisiner un gâteau plus gros ?

Source

Le Suicide Énergétique de l’Europe : l’UE Admet que le Monde Fonctionne aux Énergies Fossiles — Mais Détruit Délibérément sa Propre Économie. :: Gatestone InstituteNous lisons ceci. L’article ne tient pas assez compte de l’énergie nucléaire

L’Europe ne manque pas de ressources énergétiques. Seule la volonté politique de les exploiter lui fait défaut. Les ressources pétrolières et gazières britanniques de la mer du Nord constituent à elles seules une mine d’or inexploitée. Tant que les décideurs européens ne s’attaqueront pas aux fondements idéologiques de cette stratégie vouée à l’échec – et privilégieront des visions utopiques plutôt que la sécurité et la prospérité de leurs concitoyens – le continent poursuivra sa descente vers la désindustrialisation, la misère et l’insignifiance stratégique

La politique énergétique de l’Union européenne a atteint un degré d’idéologisation qui confine aujourd’hui à l’autodestruction.

L’économie mondiale fonctionne toujours massivement à l’énergie fossile. Les transports, la production d’électricité, l’industrie lourde, le chauffage et la production de plastique en sont tous dépendants.

Compte tenu des fortes tensions géopolitiques, la Commission européenne a fini par le reconnaitre. En raison des conflits dans des points de passage stratégiques comme le détroit d’Ormuz, Bruxelles s’est joint au chœur, a réclamé la fluidité des flux énergétiques, et a admis implicitement que la civilisation moderne ne pouvait fonctionner sans un approvisionnement fiable en hydrocarbures.

Le 19 mars 2026, le Conseil européen, composé des chefs d’État et de gouvernement des 27 pays de l’Union européenne, a publié la déclaration suivante :

« Le Conseil européen appelle à la désescalade et à la retenue la plus grande … [ainsi qu’à un moratoire sur les frappes contre les installations énergétiques et hydrauliques… Le Conseil européen salue également le renforcement des efforts annoncés par les États membres, notamment une coordination accrue avec les partenaires de la région, afin de garantir la liberté de navigation dans le détroit d’Ormuz… »

Début avril, l’UE a apporté son soutien à une coalition de plus de 40 pays, menée par le Royaume-Uni et la France, visant à sécuriser et à rouvrir le détroit d’Ormuz. Kaja Kallas, représentante de l’UE pour les affaires étrangères, a déclaré :

« Rétablir la liberté de navigation sûre et gratuite dans le détroit, conformément au droit de la mer, est une priorité absolue. L’UE soutient tous les efforts diplomatiques déployés pour y parvenir. »

La présidente de la Commission européenne, Ursula von der Leyen, s’est aussi engagée à œuvrer avec ses partenaires pour rétablir la navigation « dès que possible ». À la mi-avril 2026, Mme von der Leyen a souligné à plusieurs reprises que la fermeture du détroit porte « un immense préjudice » à l’Union européenne. Rejetant tout système de péage ou de redevance proposé par l’Iran (ou d’autres pays), Mme Von der Leyen a insisté sur le droit à un passage libre et sans restriction, conformément au droit international.

Des responsables de l’UE, dont Kallas, ont souligné à plusieurs reprises qu’environ 20 % du pétrole mondial et une part importante du gaz naturel liquéfié (GNL) transitent habituellement par le détroit d’Ormuz. Elle a également fait remarquer que la fermeture du détroit met « en grand péril l’approvisionnement en pétrole et en énergie de l’Asie » (environ 85 % du pétrole et du gaz qui transitent par Ormuz est destiné à l’Asie), et que cette fermeture affecte également le secteur des engrais.

En résumé, bien que l’UE insiste sur la « liberté de navigation » et le droit international, son refus d’un quelconque guichet est en lien direct avec le secteur pétrolier et énergétique, tant pour l’économie mondiale que pour l’exposition de l’Europe à la hausse des prix et aux risques de rupture d »approvisionnement. La perturbation d’Ormuz représente une menace drastique contre la sécurité énergétique, et pas seulement contre d’abstraits droits maritimes.

Pourtant, ces mêmes institutions européennes poursuivent le démantèlement systématique de toute possibilité d’exploitation des combustibles fossiles. Les Pays-Bas achèvent la fermeture et le bouchage définitifs des puits du gisement gazier de Groningue, l’une des plus importantes réserves d’Europe. L’Allemagne a accéléré sa sortie du charbon et, dans le cadre de sa « Energiewende » (transition vers les « énergies renouvelables » telles que l’éolien et le solaire, qui ne fonctionnent pas), a délibérément inondé des mines de charbon. L’exploration du gaz de schiste reste de facto interdite dans la plupart des États membres. Et la capacité nucléaire a été réduite dans plusieurs pays, notamment en Belgique et l’Allemagne a brutalement fermé ses dernières centrales.

Le résultat est moins un salut environnemental qu’une dépendance entièrement fabriquée envers des producteurs de pétrole tiers, comme la Russie.

L’Europe n’a pas d’autre choix aujourd’hui que d’importer la grande majorité de son pétrole et de son gaz. Certes, Eurostat et les analyses récentes de groupes de réflexion comme Ember montrent que le cout des importations de combustibles fossiles de l’UE est encore largement inférieur au pic de 2022 de 600 milliards d’euros. Mais la facture 2025 s’élève néanmoins à 337 milliards d’euros.

En Europe, les prix du gaz et de l’électricité à usage industriel sont deux à quatre fois supérieurs à ceux des principaux concurrents aux États-Unis ou en Asie. Ce n’est pas un hasard du marché ; c’est la conséquence directe de choix politiques qui ont éliminé les sources d’approvisionnement nationales, alors que la demande, tant intérieure qu’internationale, reste soutenue.

Les conséquences économiques sont déjà visibles et graves. Les industries énergivores comme la sidérurgie, la chimie, les engrais, le verre et le raffinage délocalisent hors d’Europe ou réduisent leur production. La compétitivité s’érode. Les ménages sont confrontés à des factures d’énergie toujours plus élevées, contribuant à une précarité énergétique généralisée. En effet, 9 à 10 % de la population, soit plus de 40 millions de personnes, peinent à chauffer leur logement.

Le surcoût cumulé des importations de combustibles fossiles entre 2021 et 2024 est estimé à près de 930 milliards d’euros par rapport aux niveaux d’avant la guerre en Ukraine. Ce transfert de richesse profite aux producteurs de pétrole en Russie et ailleurs – un résultat bien loin de ce qu’avaient envisagé ceux qui avaient promis une « autonomie stratégique ».

Nous ne sommes pas en face d’une erreur politique ou d’un pragmatisme à court terme. Tout ceci est la conséquence logique d’un cadre idéologique : un idéal de pureté climatique authentiquement obsessionnel fige les principales institutions européennes. Aussi bien intentionnée que soit cette aspiration – qui ne souhaite pas respirer un air pur ? –, elle a été systématiquement mise à mal chaque semaine par la Chine et l’Inde, qui ont augmenté sans relâche leurs émissions de CO2, bien plus que l’Europe ne pouvait réduire les siennes.

Ce que nous vivons est l’application concrète du marxisme culturel – la théorie d’après-guerre qui a sorti la lutte révolutionnaire de l’économie pour la diriger vers la culture et les institutions. Face à l’échec empirique du marxisme classique, des penseurs comme Herbert Marcuse ont figé la civilisation occidentale dans la posture de l’oppresseur. Le capitalisme, la société industrielle et les sources traditionnelles d’indépendance énergétique sont devenus des cibles, non en raison de leur échec, mais parce qu’ils symbolisent le succès même de l’Occident, du capitalisme et des incitations des économies de marché. « Le capitalisme a fait plus pour émanciper les individus et améliorer leur niveau de vie que toute autre force dans l’histoire », affirme Michael D. Tanner, expert américain de la pauvreté et des inégalités économiques.

Le regretté économiste américain Milton Friedman, qui a promu la liberté économique, l’élargissement des opportunités et la croissance, a déclaré en 1979 :

« Historiquement, les masses n’ont échappé à la misère extrême que dans les périodes ou le capitalisme et le libre-échange ont été largement répandus. Les masses sont les plus mal loties lorsqu’elles vivent dans des sociétés qui s’écartent de ce modèle. »

Plutôt que de partager les parts d’un gâteau à la taille limitée, pourquoi ne pas cuisiner un gâteau plus gros ?

Source

Le Suicide Énergétique de l’Europe : l’UE Admet que le Monde Fonctionne aux Énergies Fossiles — Mais Détruit Délibérément sa Propre Économie. :: Gatestone Institute

Les écitures prmitives

Les hiéroglphes égyptiens et l’écriture cunnéiforme de la Mésopotamie apparurent inépendamment il y a 5500 ans environ. Les pouvoirs politiques dans l’Eggype ancienne et en Mésopotamie s’épanouirent dans lessiècles suivants , en partie parce que l’écriture permis aux Etats de contrôler les réseaux économiques et de consolider leurs pouvoirs politiques. La plume, précurseur du style) fut plus puissante que l’épée. C’est du moins ce qu’affoment le historiens traditionnel.

En fait, aux origines; il y eut trois écritures. La troisiéme aujourd’hui nommée pro-Elanite, apparut un peu avant les hiéglypes et le cunéiforme. Elle ffut diffusée par les clercs de l’époque. Elle permit de stabiliser l’ensignement en complémentant la Parole

à suivre, non traduit

That is beginning to change, with far-reaching consequences. Although proto-Elamite remains largely undeciphered, there is tantalising evidence that it became by far the most advanced of the three scripts in operation about 5000 years ago. What we now know about the script’s story is so surprising and counterintuitive that we might need to rewrite the early history of writing.

Remarkably, this obscure writing system could represent a giant leap forward in how we represent speech in written form. Spoken language might be 1.7 million years old, but it wasn’t until proto-Elamite that we may finally have been able to start writing down exactly what we were saying. So why, then, did this incredible script vanish not long after it was invented?

Proto-Elamite writing tablets have been turning up at archaeological sites across the Iranian plateau since 1899. Most were found at the ancient city of Susa, which is associated with the Elam culture that appeared about 4500 years ago. But the tablets predate the rise of Elam, which is why the writing system has been named proto-Elamite. The latest thinking is that the oldest tablets are about 5200 years old, suggesting they slightly postdate the earliest texts written using Egyptian hieroglyphs or an early version of cuneiform dubbed proto-cuneiform.

L’univers est peut être simple.

C’est notre regard qui le complique. Ainsi en est-il de deux concepts fondamentaux en cosmologie, les Trous noirs et le Big Bang

Dans leur domaines respectif, les hypothèses les concernant ont démontré leur pertinence. Pourtant elles sont incompatibles. Elles ne le seraient que dans le cadre d’une Théorie du Tout qui reste encore à définir et plus encore ç démontrer expérimentalement, per exemple en ce concerne les comllisons de trous noirs

La Thérie des Corder  string theory et la Gravité Quantique à Bouc ls loop quantum gravity ne font pas mieux

Les mondes multiples


Les mondes multiples ou univers parallèles

Le concept d’univers qui seraient « parallèles » au nôtre, ou de multivers (notre univers ne serait donc qu’un parmi une infinité d’autres), est bel et bien né chez les scientifiques, il y a des décennies. La théorie a été élaborée par le physicien américain Hugh Everett dans les années 1950. Mais le concept a été popularisé ces dernières années au cinéma. On peut penser notamment au multivers de l’univers cinématographique de Marvel, où les superhéros voyagent d’un monde à l’autre afin de sauver leur propre réalité.

L’intérêt ne se limite pas au grand écran. En 2024, Google affirmait que sa nouvelle puce quu ntique pourrait exploiter les univers parallèles pour obtenir ses résultats.

Certains physiciens croient que l’existence des univers parallèles n’est que la conclusion logique des lois de la physique quantique. Dans un texte publié en 2020, l’astrophysicien et auteur britannique John Gribbin racontait que dans les années 1950, Hugh Everett voulait trouver une explication à un problème important de la mécanique quantique, celui de la mesure. 

En effet, en physique classique, on peut prédire l’emplacement d’un objet si l’on connaît son point de départ, sa vitesse et toutes les conditions qui peuvent influencer son déplacement. Cependant, en physique quantique, il est impossible de faire cette prédiction pour une particule avant de l’avoir observée. Les scientifiques peuvent seulement estimer les probabilités qu’elle se retrouve à différents endroits. Pourtant, une fois la mesure effectuée, la particule se situe uniquement à l’endroit où on l’observe et les probabilités qu’elle soit ailleurs retombent immédiatement à zéro.

Que se passe-t-il donc au moment de la mesure, c’est-à-dire lorsque la particule passe de plusieurs positions possibles à une seule dans un endroit précis? Selon l’interprétation la plus courante de la mécanique quantique, l’équation mathématique représentant les probabilités « s’effondre » tout simplement, résumait le journaliste scientifique britannique Philip Ball en 2018

Or, Everett n’était pas satisfait par cette interprétation. Et il n’était pas le seul: elle n’explique pas vraiment ce qui arrive dans la réalité, peut-on lire dans l’article sur la physique quantique de l’Encyclopédie Britannica. Cette interprétation décrit plutôt ce qui se passe d’un point de vue mathématique.

Everett a donc proposé sa propre interprétation. Selon celle-ci, au moment de la mesure, l’univers se diviserait en plusieurs versions: une pour chaque possibilité prédite par les formules mathématiques. C’est ainsi qu’en plus de l’Univers que nous connaissons, il en existerait une infinité autres.

Des mondes isolés et indépendants

D’après l’interprétation des mondes multiples, aucun observateur n’est toutefois conscient de l’existence des mondes, à part le sien, soulignait Philip Ball. Nous ne voyons en effet qu’un seul résultat de la mesure, mais tous les autres résultats existeraient dans d’autres mondes. Il y aurait, par conséquent, plusieurs autres versions de nous-mêmes qui auraient été témoins de ces résultats alternatifs.

Ainsi, tout ce qui est physiquement possible dans notre univers pourrait se réaliser dans un univers parallèle. Tous les univers qui respectent les lois de la physique existent donc quelque part dans le multivers, soulignait encore John Gribbin. Par exemple, le monde des Misérables existe, mais pas celui de Harry Potter avec ses règles de la magie qui contredisent les lois de la physique.

Ces univers sont en quelque sorte superposés dans le même espace physique, mais mutuellement isolés: ils évoluent indépendamment les uns des autres. Les  différents univers ne peuvent pas communiquer entre eux.

Une interprétation critiquée

L’interprétation des mondes multiples est loin de faire l’unanimité chez les physiciens. Alors que certains croient qu’il s’agit de la seule interprétation plausible, d’autres la décrivent comme absurde.

Le principal problème de cette théorie, c’est qu’il est impossible de prouver l’existence ou la non-existence des mondes multiples, puisque ceux-ci ne peuvent pas communiquer entre eux: c’est ce que déploraient un mathématicien sud-africain et un physicien américain dans un article publié par Nature en 2014. Or, cela constitue un problème qui renvoie aux bases même de la méthode scientifique: comme l’a résumé le philosophe Karl Popper, une théorie doit être réfutable pour être considérée comme scientifique.

Certains chercheurs en physique théorique et partisans de cette interprétation prétendent toutefois que si une théorie est suffisamment élégante et explicite, elle n’aurait pas besoin d’être testée expérimentalement. Mais comme le soulignaient les auteurs de l’article de Nature, il existe de nombreux exemples dans l’histoire des sciences où une théorie, aussi élégante soit-elle, s’est révélée fausse. C’est le cas, par exemple, de la théorie du cosmos de Ptolémée, qui plaçait la Terre au centre.

Une interprétation parmi d’autres

Selon un sondage réalisé en 2013 auprès de 33 scientifiques (physiciens, mathématiciens et philosophes), seulement 6 préféraient l’interprétation des mondes multiples.

D’autres interprétations ont aussi une certaine popularité. Dans ce même sondage, les chercheurs en nommaient 11. Wikipédia en compte 13.

D’un point de vue mathématique, concluait John Gribbin, aucune interprétation n’est meilleure qu’une autre… même si les partisans de chacune ont tendance à croire le contraire.

L’interprétation des mondes multiples cherche à réconcilier un problème fondamental de la physique quantique, celui de la mesure. Mais elle demeure très controversée parmi les physiciens. Et on ne peut pas utiliser cette théorie pour justifier des superhéros ou des technologies futuristes qui seraient capables de voyager d’un univers à l’autre.

Les origines de la rumeur

Le concept d’univers qui seraient « parallèles » au nôtre, ou de multivers (notre univers ne serait donc qu’un parmi une infinité d’autres), est bel et bien né chez les scientifiques, il y a des décennies. La théorie a été élaborée par le physicien américain Hugh Everett dans les années 1950. Mais le concept a été popularisé ces dernières années au cinéma. On peut penser notamment au multivers de l’univers cinématographique de Marvel, où les superhéros voyagent d’un monde à l’autre afin de sauver leur propre réalité.

L’intérêt ne se limite pas au grand écran. En 2024, Google affirmait que sa nouvelle puce quantique pourrait exploiter les univers parallèles pour obtenir ses résultats.

Certains physiciens croient que l’existence des univers parallèles n’est que la conclusion logique des lois de la physique quantique. Dans un texte publié en 2020, l’astrophysicien et auteur britannique John Gribbin racontait que dans les années 1950, Hugh Everett voulait trouver une explication à un problème important de la mécanique quantique, celui de la mesure. 

En effet, en physique classique, on peut prédire l’emplacement d’un objet si l’on connaît son point de départ, sa vitesse et toutes les conditions qui peuvent influencer son déplacement. Cependant, en physique quantique, il est impossible de faire cette prédiction pour une particule avant de l’avoir observée. Les scientifiques peuvent seulement estimer les probabilités qu’elle se retrouve à différents endroits. Pourtant, une fois la mesure effectuée, la particule se situe uniquement à l’endroit où on l’observe et les probabilités qu’elle soit ailleurs retombent immédiatement à zéro.

Que se passe-t-il donc au moment de la mesure, c’est-à-dire lorsque la particule passe de plusieurs positions possibles à une seule dans un endroit précis? Selon l’interprétation la plus courante de la mécanique quantique, l’équation mathématique représentant les probabilités « s’effondre » tout simplement, résumait le journaliste scientifique britannique Philip Ball en 2018

Or, Everett n’était pas satisfait par cette interprétation. Et il n’était pas le seul: elle n’explique pas vraiment ce qui arrive dans la réalité, peut-on lire dans l’article sur la physique quantique de l’Encyclopédie Britannica. Cette interprétation décrit plutôt ce qui se passe d’un point de vue mathématique.

Everett a donc proposé sa propre interprétation. Selon celle-ci, au moment de la mesure, l’univers se diviserait en plusieurs versions: une pour chaque possibilité prédite par les formules mathématiques. C’est ainsi qu’en plus de l’Univers que nous connaissons, il en existerait une infinité autres.

Des mondes isolés et indépendants

D’après l’interprétation des mondes multiples, aucun observateur n’est toutefois conscient de l’existence des mondes, à part le sien, soulignait Philip Ball. Nous ne voyons en effet qu’un seul résultat de la mesure, mais tous les autres résultats existeraient dans d’autres mondes. Il y aurait, par conséquent, plusieurs autres versions de nous-mêmes qui auraient été témoins de ces résultats alternatifs.

Ainsi, tout ce qui est physiquement possible dans notre univers pourrait se réaliser dans un univers parallèle. Tous les univers qui respectent les lois de la physique existent donc quelque part dans le multivers, soulignait encore John Gribbin. Par exemple, le monde des Misérables existe, mais pas celui de Harry Potter avec ses règles de la magie qui contredisent les lois de la physique.


LES UNIVERS PARALLES

Les origines de la rumeur

Le concept d’univers qui seraient « parallèles » au nôtre, ou de multivers (notre univers ne serait donc qu’un parmi une infinité d’autres), est bel et bien né chez les scientifiques, il y a des décennies. La théorie a été élaborée par le physicien américain Hugh Everett dans les années 1950. Mais le concept a été popularisé ces dernières années au cinéma. On peut penser notamment au multivers de l’univers cinématographique de Marvel, où les superhéros voyagent d’un monde à l’autre afin de sauver leur propre réalité.

L’intérêt ne se limite pas au grand écran. En 2024, Google affirmait que sa nouvelle puce quantique pourrait exploiter les univers parallèles pour obtenir ses résultats.

Certains physiciens croient que l’existence des univers parallèles n’est que la conclusion logique des lois de la physique quantique. Dans un texte publié en 2020, l’astrophysicien et auteur britannique John Gribbin racontait que dans les années 1950, Hugh Everett voulait trouver une explication à un problème important de la mécanique quantique, celui de la mesure. 

En effet, en physique classique, on peut prédire l’emplacement d’un objet si l’on connaît son point de départ, sa vitesse et toutes les conditions qui peuvent influencer son déplacement. Cependant, en physique quantique, il est impossible de faire cette prédiction pour une particule avant de l’avoir observée. Les scientifiques peuvent seulement estimer les probabilités qu’elle se retrouve à différents endroits. Pourtant, une fois la mesure effectuée, la particule se situe uniquement à l’endroit où on l’observe et les probabilités qu’elle soit ailleurs retombent immédiatement à zéro.

Que se passe-t-il donc au moment de la mesure, c’est-à-dire lorsque la particule passe de plusieurs positions possibles à une seule dans un endroit précis? Selon l’interprétation la plus courante de la mécanique quantique, l’équation mathématique représentant les probabilités « s’effondre » tout simplement, résumait le journaliste scientifique britannique Philip Ball en 2018

Or, Everett n’était pas satisfait par cette interprétation. Et il n’était pas le seul: elle n’explique pas vraiment ce qui arrive dans la réalité, peut-on lire dans l’article sur la physique quantique de l’Encyclopédie Britannica. Cette interprétation décrit plutôt ce qui se passe d’un point de vue mathématique.

Everett a donc proposé sa propre interprétation. Selon celle-ci, au moment de la mesure, l’univers se diviserait en plusieurs versions: une pour chaque possibilité prédite par les formules mathématiques. C’est ainsi qu’en plus de l’Univers que nous connaissons, il en existerait une infinité autres.

Des mondes isolés et indépendants

D’après l’interprétation des mondes multiples, aucun observateur n’est toutefois conscient de l’existence des mondes, à part le sien, soulignait Philip Ball. Nous ne voyons en effet qu’un seul résultat de la mesure, mais tous les autres résultats existeraient dans d’autres mondes. Il y aurait, par conséquent, plusieurs autres versions de nous-mêmes qui auraient été témoins de ces résultats alternatifs.

Ainsi, tout ce qui est physiquement possible dans notre univers pourrait se réaliser dans un univers parallèle. Tous les univers qui respectent les lois de la physique existent donc quelque part dans le multivers, soulignait encore John Gribbin. Par exemple, le monde des Misérables existe, mais pas celui de Harry Potter avec ses règles de la magie qui contredisent les lois de la physique.

Astéroïde Bennu : tous les éléments nécessires à la vie semblent présents dans les échntillons de l’aéroide trnasplanétaire Bennu, y compris les sucres.

Les sucres qui composent l’ARN et l’ADN, les seuls éléments qui n’avaient pas été détectés lors des analyses précédentes, ont désormais été confirmés dans les échantillons de l’asteroide Bennu .

Le seul ingrédient indispensable à la vie qui n’avait pas encore été détecté sur Bennu est désormais là : des traces de divers types de sucres ont été trouvées dans les échantillons de l’astéroïde proche de la Terre visité en octobre 2020 par la mission de la NASA OSIRIS-REx, lorsque le bloc rocheux se trouvait à 320 millions de kilomètres de la Terre.

Depuis le retour de la capsule avec sa cargaison en 2023, plusieurs analyses avaient déjà confirmé la présence, dans les roches de Bennu, des éléments nécessaires à la vie. Il manquait toutefois le sucre, indispensables à maintenir ensemble la structure des molécules à la base des êtres vivants, RNA et ADN.

Depuis que les 121 grammes de poussière de Bennu ont été rendus par OSIRIS-REx, ils ont été répartis entre divers laboratoires répartis dans le monde capables de les analyser. .Les premiers travaux, peu après le retour, avaient révélé dans les échantillons la présence d’eau, de carbone et de nombreuses molécules organiques ; au début de cette année, il avait été confirmé la présence, dans les miettes de Bennu, de plusieurs acides aminés que l’on retrouve dans les processus biologiques terrestres, d’ammoniac et de toutes les cinq bases azotées qui composent l’ARN et l’ADN.

Il n’y avait pas encore trace, jusqu’à présent, des sucres qui constituent le squelette des nucléotides, c’est-à-dire les blocs de base, de l’ARN et de l’ADN, à savoir le ribose pour l’ARN et le désoxyribose pour l’ADN. Jusqu’à la nouvelle étude, juste publiée dans Nature Geoscience.

Un groupe de chercheurs de l’Université Tohoku de Sendai, au Japon, a broyé et mélangé avec des acides et de l’eau une petite partie des roches de Bennu, puis a utilisé la chromatographie en phase gazeuse et la spectrométrie de masse pour séparer et analyser les composés. Les analyses ont révélé la présence de ribose dans les échantillons de l’astéroïde — donc une composante structurelle de l’ARN, accompagnée d’autres sucres comme le xylulose, l’arabinose, le glucose et le galactose, mais pas de désoxyribose.

Les scientifiques estiment que les sucres pourraient s’être formés dans les mêmes mares d’eau salée supposées exister sur le corps céleste parental de Bennu, les mares aquatiques où l’on pense que les molécules complexes détectées jusqu’à présent ont vues. jour. Un fait important, car ces mêmes mares d’eau salée se trouveraient aussi sur la lune d’Encelade de Saturne et sur le planète naine Cérès. Les ingrédients à la base de la vie seraient donc abondants dans le Système solaire et les astéroïdes pourraient les avoir transportés sur Terre et vers d’autres corps célestes, comme Mars.

La présence de sucres et d’autres molécules fondamentales pour la vie avait déjà été confirmée par le passé sur des météorites tombées sur Terre, pour lesquelles il était toutefois difficile d’exclure une contamination post-impact.

Le fait d’avoir trouvé des sucres aussi dans les échantillons intacts de Bennu confirme la validité des découvertes précédentes.

De plus, l’absence de désoxyribose, le sucre qui donne sa structure à l’ADN, sur Bennu, vient étayer l’idée du « monde à ARN », selon laquelle les formes de vie les plus anciennes sur Terre, bien avant le développement de l’ADN et des protéines, auraient consisté en des molécules d’ARN qui jouaient à la fois le rôle d’entrepôts d’informations génétiques et celui de catalyseurs de réactions chimiques.

11/04/205 Les origines de la syphilis

La syphilis est l’une des maladies sexuellement transmissibles les plus
anciennes connues et elle reste aujourd’hui un problème majeur de santé
publique. Elle est causée par la bactérie Treponema pallidum. Il
s’agit d’une seule espèce qui se décline en plusieurs variants très
proches génétiquement et responsables de différentes tréponématoses.
Depuis longtemps, deux hypothèses s’opposent quant à son origine en
Europe : soit elle y circulait déjà discrètement avant les grandes
explorations, soit elle aurait été introduite après les premiers
contacts avec les Amériques, à la fin du XVᵉ siècle – c’est
l’« hypothèse colombienne ». Jusqu’ici, ce débat reposait surtout sur
des sources historiques et sur la paléopathologie, c’est-à-dire l’étude
de lésions observées sur des os anciens. Mais ces traces sont difficiles
à interpréter car elles apparaissent tardivement et peuvent
correspondre à plusieurs maladies différentes.La syphilis intrigue les scientifiques depuis des siècles : était-elle déjà présente en Europe à bas bruit ou a-t-elle été rapportée des Amériques après la colonisation ? Un génome vieux de 5 500 ans découvert en Colombie apporte de nouveaux indices en faveur de cette seconde hypothèse.

La syphilis est l’une des maladies sexuellement transmissibles les plus anciennes connues et elle reste aujourd’hui un problème majeur de santé publique. Elle est causée par la bactérie Treponema pallidum. Il s’agit d’une seule espèce qui se décline en plusieurs variants très proches génétiquement et responsables de différentes tréponématoses. Depuis longtemps, deux hypothèses s’opposent quant à son origine en Europe : soit elle y circulait déjà discrètement avant les grandes explorations, soit elle aurait été introduite après les premiers contacts avec les Amériques, à la fin du XVᵉ siècle – c’est l’« hypothèse colombienne ». Jusqu’ici, ce débat reposait surtout sur des sources historiques et sur la paléopathologie, c’est-à-dire l’étude de lésions observées sur des os anciens. Mais ces traces sont difficiles à interpréter car elles apparaissent tardivement et peuvent correspondre à plusieurs maladies différentes.

Une découverte un peu par hasard

Une nouvelle étude publiée dans ScienceOuverture dans un nouvel onglet vient relancer ce débat grâce à l’ADN d’un chasseur-cueilleur ayant vécu il y a 5 500 ans en Colombie. Alors qu’ils s’intéressaient à l’histoire des populations, les scientifiques ont découvert un peu par hasard le génome d’un tréponème ancien, un cousin de la syphilis actuelle. Résultats : ce pathogène possédait déjà tous les gènes associés à la virulence, ce qui suggère qu’il provoquait une maladie similaire. Comme l’explique la chercheuse Anna-Sapfo Malaspinas, coautrice de l’étude : « On observe une grande diversité de tréponèmes dans les Amériques bien avant les contacts avec l’Europe, une diversité que l’on ne retrouve pas, avec les données actuelles, en Europe. » Cette découverte recule de 3 000 ans l’histoire connue de ces bactéries et renforce l’idée que la syphilis pourrait avoir été importée depuis le continent américain. Mais elle montre aussi à quel point ces pathogènes restent mal compris, tant sur le plan génétique qu’évolutif.

Le hennissement du cheval

Le mécanisme du hennissement a été élucidé en février 2026 seulement, par une étude publiée dans la revue scientifique Current Biology, qui a impliqué des chercheurs français, suisses, danois et autrichiens.

Le hennissement des chevaux a longtemps été une curiosité, car il échappe à la règle d’allométrie acoustique, selon laquelle plus un animal est grand, et plus ses vocalisations sont graves. Les hennissements des chevaux sont en réalité biphoniques, combinant deux sources sonores ayant chacune une fréquence propre, en simultané. La fréquence basse (~200 Hz) provient des vibrations des cordes vocales, alors que la haute fréquence (>1000 Hz) est un sifflement aérodynamique, indépendant des cordes vocales. Cette double production sonore augmente la complexité vocale et les capacités de communication des chevaux. La biphonie est rare chez les animaux, mais d’autres espèces que le cheval en sont capables. Sa fonction pourrait être d’augmenter la diversité des signaux vocaux et de transmettre plusieurs messages en parallèle.ntroduction

Le mécanisme du hennissement a été élucidé en février 2026 seulement, par une étude publiée dans la revue scientifique Current Biology, qui a impliqué des chercheurs français, suisses, danois et autrichiens.



Référence

ArticleVolume
36, Issue 4
p902-911.e4February 23, 2026


The high fundamental frequency in horse whinnies
is generated by an aerodynamic whistle



Romain
Adrien Lefèvre
1 ∙ Lucie
Barluet de Beauchesne
2 ∙ Florent
Sabarros
3 ∙ … ∙ David
Reby
2,8 ∙ William
Tecumseh Fitch
7,8 tecumseh.fitch@univie.ac.at
Élodie
Floriane Briefer
1,8,9 elodie.briefer@bio.ku.dk








htrses produce dual fundamental
frequency vocalizations with distinct mechanisms






The high frequency is a whistle,
produced independently of vocal fold vibration







Helium experiments confirm its
aerodynamic origins







These adaptations enhance both
vocal complexity and communicative potential






Summary



Understanding why the frequencies of some species’
vocalizations are far above or below those predicted by body size
is key for explaining the remarkable diversity of mammalian vocal
behavior. Horses, among the largest terrestrial mammals, provide a
clear example of such deviation: their whinnies contain a very
high fundamental frequency (>1,000 Hz) in addition to a second,
lower one (∼200 Hz). While the lower fundamental frequency of
whinnies is readily attributed to vocal fold (laryngeal)
vibrations, the biomechanical processes underlying the production
of the higher one remain unknown. Using a combination of in
vivo
and ex vivo data, including excised larynx
experiments with helium, computed tomography (CT) scans,
endoscopic examinations, and acoustic analysis of horses with
recurrent laryngeal neuropathy, we provide evidence that the high
fundamental frequency in horse whinnies is generated by an
aerodynamic whistle mechanism within the larynx, rather than vocal
fold tissue vibration. These separate laryngeal sources explain
the simultaneous production of low and high fundamental
frequencies in vocalizations (i.e., biphonation). Horse
biphonation likely evolved to convey multiple independent messages
concurrently, highlighting the role of anatomical and aerodynamic
adaptations in enhancing vocal complexity across species.







Sur le coût de la maintenence des centrales nucléaires en Frane. Rapport de la Cour des comptes

La Cour des comptes a publié, le 14 janvier 2024, un rapport de suivi sur la filière EPR. Ce document salue les progrès réalisés pour relancer le nucléaire en France, mais émet des alertes sur les coûts et la rentabilité, ainsi que sur les synergies entre le programme national et les projets internationaux. La Sfen apporte des précisions sur les analyses de la Cour et insiste sur les conditions nécessaires pour assurer la compétitivité et la réussite de cette filière stratégique.

Après un premier travail très critique en 2020 sur la filière EPR, la Cour des comptes a publié, le 14 janvier 2024, un rapport de suivi intitulé : “La filière EPR : une dynamique nouvelle, des risques persistants”. Ce document se penche sur le programme EPR2, qui prévoit la construction de 6 à 14 réacteurs en France, tout en évaluant la situation des chantiers existants en France (Flamanville), en Chine, en Finlande et au Royaume-Uni. Il est naturel que la Cour des comptes s’intéresse à ce programme structurant pour le pays. En effet, le rapport souligne que le développement des EPR2 vise à répondre à des enjeux cruciaux : la sécurité énergétique, la réduction des émissions de gaz à effet de serre et le respect des objectifs de l’Accord de Paris.

Lors de sa conférence de presse, Pierre Moscovici, président de la Cour des comptes, a salué les avancées : « En moins de quatre ans, d’importants dispositifs ont été mis en place pour relancer le nucléaire ». Cependant, le rapport émet plusieurs alertes. L’une d’elles concerne les coûts et la rentabilité des projets, notamment en se basant sur l’expérience de Flamanville 3, récemment connecté au réseau. Une autre souligne l’importance de renforcer les synergies entre le programme domestique et les initiatives internationales pour maintenir la compétitivité de la filière. La Société française d’énergie nucléaire (Sfen) a tenu à préciser quelques éléments de compréhension sur ces deux points.

Sur la question de la rentabilité pour EDF du programme EPR

La Cour donne une nouvelle mise à jour des coûts d’investissement de Flamanville 3, cette fois-ci en euros 2023 (€2023), alors que l’évaluation précédente était en euros 2015 (€2015). Ainsi le coût de construction, qui avait été réévalué à 13,2Md€2015 (EDF) fin novembre 2023, est évalué à 15,6Mds€2023 (EDF), compte tenu de l’inflation. C’est bien ce coût qui doit être comparé au coût de construction initial de 3,3Md€2005.

En effet, comme dans son rapport précédent, la Cour élargit son paramètre d’étude à d’autres catégories de coûts qui ne sont pas compris dans le devis initial. Il s’agit par exemple des dépenses lors de la première phase d’exploitation et les coûts de financement (intérêts intercalaires). Ainsi, les Sages de la rue Cambon évaluent le coût total à 23,7Mds€2023. Par ailleurs, Le coût de production associé, avec un facteur de charge de 85% et une rentabilité de 4 %, est évalué par la Cour à 122€2023/MWh.

La Cour note la « faible rentabilité de Flamanville 3 » pour EDF. Ce qui est sans surprise compte tenu des retards du projet et par sa nature même de tête de série. Il est important de rappeler que l’EPR de Flamanville, qui a contribué à remettre en marche la filière de constructions neuves en France, n’a bénéficié d’aucune aide d’État. Il a été financé par EDF sur fonds propres. De plus, il vendra sa production, au sein de l’ensemble du parc actuel, dans un marché de l’électricité européen dont les prix sont non seulement incertains, mais aussi de plus en plus volatils.

La Sfen a souligné, dans sa réponse à la concertation sur la PPE, que le nucléaire, qui rentre dans un nouveau cycle d’investissement, aura besoin d’un soutien équivalent à celui qu’ont reçu les renouvelables. Pour rappel, le parc éolien en mer de Saint Brieuc1 bénéficie depuis sa mise en service en 2023 d’un tarif d’achat garanti de 155€/MWh sur 20 ans, lequel a permis, entre autres, la construction de l’usine du Havre pour la fabrication des éoliennes.

La Cour attire de nouveau l’attention sur l’importance de la question des coûts financiers, un sujet qui sera très important pour le programme EPR2. Dans ses différentes publications, la Sfen a elle aussi souligné que le coût final d’investissement et le coût de production des futurs EPR2 seront très sensibles au coût moyen pondéré du capital. Elle a récemment indiqué, dans sa réponse à la PPE, que le schéma financier, sur lequel on attend toujours une orientation de la part de l’État, pourrait s’inspirer par exemple de celui de Dukovany 5 en République tchèque, approuvé par la Commission, lequel comprend à la fois un tarif d’achat garanti et un prêt à taux zéro pendant la durée de construction.

Sur les prochaines décisions sur le programme national et les projets internationaux

La Cour note qu’après le jalon du passage de la conception initiale (basic design) à la conception détaillée (detailed design) de l’EPR2 en juillet 2024, une nouvelle évaluation des coûts et des délais est attendue pour le programme les prochaines semaines.  La Cour fait état du nouveau chiffrage provisoire de fin 2023 dont avait fait état le Sénat, avec un coût de construction overnight (hors intérêts intercalaires [1]) de 67,4Md€ (euros 2020), dont 8,7Md€ pour le développement du palier EPR2.

EDF avait indiqué, lors de son audition au Sénat, qu’il poursuivait ses travaux d’optimisation du planning et des contrats. La Cour rappelle aussi que les conditions de financement doivent elles aussi toujours être arrêtées par les pouvoirs publics, avant d’être approuvées par la Commission européenne au titre des aides d’État, un processus qui devrait prendre un an. En attendant, ces incertitudes « réduisent la visibilité dont les acteurs de la filière ont besoin pour s’engager dans les projets industriels de cette ampleur et obtenir des financements », indique la Cour des comptes.

Au-delà du programme français, la Cour fait plusieurs recommandations à l’international. Au Royaume-Uni, elle préconise de ne pas approuver une décision finale d’investissement pour EDF dans Sizewell C avant l’obtention d’une réduction significative de son exposition financière dans Hinkley Point C. Dans sa réponse, le Président d’EDF rappelle l’importance de ce projet pour EDF et la filière industrielle française. Il s’agira du « premier cas d’industrialisation par la réplication d’un projet EPR, en particulier en reconduisant la filière industrielle, afin de dérisquer le planning et réduire le délai de construction ». Par principe, tout délai dans la décision au Royaume-Uni de nature à impacter le cadencement industriel de réplication peut se solder, au final, par des coûts supplémentaires sur le projet.

La Cour recommande aussi à EDF de s’assurer que tout nouveau projet à l’international dans le secteur nucléaire soit générateur de synergies chiffrées avec le programme EPR2 et ne ralentisse pas le calendrier du programme en France. Le Président d’EDF dans sa réponse rappelle qu’un des enjeux stratégiques du développement de projets à l’international, entre autres, est de faire changer d’échelle industrielle la filière nucléaire française. Il s’agit d’éviter un « risque de marginalisation de notre industrie en Europe, face à une concurrence coréenne et américaine très active ». ■




Le projet de loi sur l’intelligence artificielle de l’Union européenne

Le projet de loi sur l’intelligence artificielle de l’Union européenne vise à réglementer l’IA pour garantir son développement responsable et sécurisé, avec un accord trouvé en décembre 2023.

Cadre Réglementaire de l’UE

L’Union européenne a proposé un cadre réglementaire ambitieux pour l’intelligence artificielle, connu sous le nom de AI Act. Ce projet de loi, qui a été convenu par le Parlement européen et le Conseil de l’Union européenne en décembre 2023, a pour objectif de classer les systèmes d’IA en fonction des risques qu’ils présentent. Les priorités incluent la sécurité, la transparence, la traçabilité, la non-discrimination et le respect de l’environnement. Ce cadre vise à assurer que les systèmes d’IA respectent les droits fondamentaux et les valeurs de l’UE, tout en favorisant l’innovation et les investissements dans ce domaine. 

Lefebvre Dalloz Compétences

Mise en Œuvre en France

En France, le ministère de l’Économie (Bercy) a présenté un schéma de régulation qui définit comment les différentes autorités nationales seront impliquées dans la mise en œuvre du règlement européen sur l’IA. La DGCCRF et la DGE joueront un rôle central, tandis que la CNIL et l’ARCOM auront également des responsabilités significatives. Ce schéma vise à clarifier les rôles et à faciliter la coordination entre les différentes autorités pour garantir une application efficace de la réglementation. 

next.ink

Objectifs Clés

  • Sécurité et Conformité: Assurer que les systèmes d’IA introduits sur le marché sont sûrs et conformes aux droits fondamentaux.
  • Développement d’un Marché Unique: Éviter la fragmentation du marché de l’IA en établissant des normes communes.
  • Supervision Humaine: Placer la supervision des systèmes d’IA sous la responsabilité humaine pour minimiser les résultats indésirables.
    Ce projet de loi représente une étape majeure dans la régulation de l’IA au niveau mondial, visant à équilibrer l’innovation technologique avec la protection des droits des utilisateurs et des valeurs sociétales.

Lefebvre Dalloz Compétences

Qu’en est-il de la régl

Loi sur l’Intetelligence Artificelle

Règlement – UE – 2024/1689 – EN – EUR-Lex

Verssio francaiee Règlement – UE – 2024/1689 – EN – EUR-Lex

2024/168912.7.2024

RÈGLEMENT (UE) 2024/1689 DU PARLEMENT EUROPÉEN ET DU CONSEIL

du 13 juin 2024

établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle)

(Texte présentant de l’intérêt pour l’EEE)

LE PARLEMENT EUROPÉEN ET LE CONSEIL DE L’UNION EUROPÉENNE,

vu le traité sur le fonctionnement de l’Union européenne, et notamment ses articles 16 et 114,

vu la proposition de la Commission européenne,

après transmission du projet d’acte législatif aux parlements nationaux,

vu l’avis du Comité économique et social européen (1),

vu l’avis de la Banque centrale européenne (2),

uant conformément à la procédure législative ordinaire (4),

considérant ce qui suit:

(1)L’objectif du présent règlement est d’améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, en particulier pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle (ci-après dénommés «systèmes d’IA») dans l’Union, dans le respect des valeurs de l’Union, de promouvoir l’adoption de l’intelligence artificielle (IA) axée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux consacrés dans la Charte des droits fondamentaux de l’Union européenne (ci-après dénommée «Charte»), y compris la démocratie, l’état de droit et la protection de l’environnement, de protéger contre les effets néfastes des systèmes d’IA dans l’Union, et de soutenir l’innovation. Le présent règlement garantit la libre circulation transfrontière des biens et services fondés sur l’IA, empêchant ainsi les États membres d’imposer des restrictions au développement, à la commercialisation et à l’utilisation de systèmes d’IA, sauf autorisation expresse du présent règlement.
(2)Le présent règlement devrait être appliqué dans le respect des valeurs de l’Union consacrées dans la Charte, en facilitant la protection des personnes physiques, des entreprises, de la démocratie, de l’état de droit et de l’environnement, tout en stimulant l’innovation et l’emploi et en faisant de l’Union un acteur de premier plan dans l’adoption d’une IA digne de