Avsnitt

  • La Programmation pluriannuelle de l’énergie (PPE) et la Stratégie nationale bas-carbone (SNBC), véritables boussoles de la politique énergétique française, tracent les grandes lignes de la transition écologique : d’ici 2030, la part des énergies fossiles dans la consommation française doit tomber à 42 %, puis à 30 % en 2035, pour viser zéro en 2050.


    "Notre avenir énergétique repose sur deux piliers : la sobriété et l’efficacité énergétique d’un côté, et la production d’énergie décarbonée de l’autre", a déclaré Olga Givernet, ministre de l’Énergie, en amont de la COP29. La ministre insiste sur un "choix de société" pour un mix équilibré entre nucléaire et énergies renouvelables. Pour y parvenir, la France s’engage sur plusieurs fronts. D'abord, l'électrification massive de la mobilité et de l’industrie : l’objectif est que deux tiers des voitures vendues en 2030 soient électriques, et que le parc actuel atteigne 15 % d'électriques contre 2,2 % début 2024. Dans le secteur du bâtiment, la réduction des émissions vise 35 millions de tonnes d'équivalent CO₂ en 2030, avec la rénovation annuelle de 400 000 maisons et 200 000 logements collectifs. Les chaudières au fioul, principales sources de pollution domestique, seront progressivement remplacées.


    Le défi est aussi budgétaire. Selon l’Union française de l’électricité (UFE) et le Syndicat des énergies renouvelables (SER), l’électrification est la clé pour la compétitivité et la souveraineté française. Mais cette transition ne peut réussir qu’en combinant réduction de la demande : l’objectif est de réduire la consommation d’énergie de 30 % d’ici 2030, par rapport à 2012. Enfin, alors que le Plan national d'adaptation au changement climatique (PNACC-3) anticipe un réchauffement de 4°C d’ici la fin du siècle, Agnès Pannier-Runacher, ministre de la Transition écologique, insiste : "Il est urgent d’accélérer la réduction de nos émissions de gaz à effet de serre". La concertation publique sur ces mesures est ouverte jusqu'au 15 décembre, avant la validation des textes définitifs en 2025.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • La ville d’Alameda, en Californie, pourrait relancer son projet controversé d’éclaircissement des nuages, un procédé visant à refroidir le climat en diffusant de l’eau salée dans l’air. Une étude publiée dans *Nature Climate Change* (21 juin 2024) et relayée par *The Guardian* éclaire ce débat en révélant les effets potentiels de cette technologie. Des chercheurs de l’université de Californie à San Diego et du Centre national de recherche atmosphérique au Colorado ont utilisé des modèles climatiques pour simuler l’impact d’ensemencements de nuages en deux zones : au large de la Californie et en Alaska.


    Les résultats sont frappants. Dans les conditions de 2010, ensemencer les nuages en Alaska réduirait de 55 % les risques de vagues de chaleur sur la côte ouest américaine, contre seulement 16 % pour l’opération californienne. Mais dans le climat projeté pour 2050, ces bénéfices s’effondrent. Avec moins de nuages, des températures plus élevées et un ralentissement des courants marins de l’Atlantique (AMOC), l’intervention en Alaska n’aurait plus qu’un effet limité. Plus inquiétant encore, l’ensemencement proche de la Californie risquerait d’amplifier la chaleur, inverse de l’effet recherché.


    Le problème va au-delà des côtes américaines : dans le contexte actuel, l’Europe pourrait aussi bénéficier d’un refroidissement grâce aux nuages ensemencés dans le Pacifique Nord. Mais d’ici 2050, cette même intervention pourrait entraîner un stress thermique global, notamment en Europe, aggravé par le ralentissement de l’AMOC. Jessica Wan, co-auteure de l’étude, résume : « L’éclaircissement des nuages marins peut être efficace pour la côte ouest des États-


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Saknas det avsnitt?

    Klicka här för att uppdatera flödet manuellt.

  • L'Islande vit un moment historique sur la dorsale médio-atlantique, où la ville de Grindavík subit une série d’éruptions volcaniques sans précédent depuis 800 ans. Tandis que la lave ouvre des failles dans les rues et dévore des maisons, le pays voit là une opportunité énergétique. À Krafla, au nord-est de Grindavík, une équipe d’experts prépare un forage inédit : atteindre le magma pour en extraire une énergie quasi illimitée. Comparable en ambition au télescope spatial James Webb, ce projet explore les profondeurs de notre planète.


    Dans un reportage immersif de CNN, Klara Halldórsdóttir, une habitante de Grindavík, décrit sa ville déserte, désormais sillonnée de failles et d'édifices engloutis. Cette nouvelle série d’éruptions, commencée en décembre 2023, signe le réveil d’un volcan assoupi depuis l’ère viking. En 80 ans, l'Islande a transformé sa vulnérabilité volcanique en force : la géothermie, qui chauffe 90 % des foyers, a fait du pays autrefois le plus pauvre d’Europe un des plus prospères. Là où certains volcans renferment du lithium, ceux d’Islande fournissent de la chaleur.


    En 2009, un forage à Krafla percute une chambre magmatique profonde, et aujourd’hui, Bjarni Pálsson et son équipe sont de retour, bien décidés à transformer ce magma à 1 000 °C en une centrale ultra-puissante. Selon leurs calculs, cette chaleur pourrait générer une énergie dix fois plus efficace que la géothermie traditionnelle : deux puits dans le magma remplaceraient 18 puits standards. Ce projet ambitieux, espéré pour 2027, pourrait ouvrir la voie à d’autres régions volcaniques comme la Californie, le Japon ou le Kenya. Si l’Islande réussit, elle pourrait offrir à l'humanité une source d'énergie propre, renouvelable et presque infinie.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • En à peine deux ans, l’intelligence artificielle est passée de technologie émergente à outil commun pour des millions de personnes. Si ses capacités ont fasciné, ses besoins énergétiques, eux, inquiètent déjà, et pour cause : le développement de l’IA dépend de data centers gourmands en électricité, et les effets sur les réseaux s’annoncent lourds. En effet, plusieurs États américains constatent déjà une hausse des prix de l’électricité, qu'ils attribuent en partie à la prolifération de ces infrastructures. Le Washington Post rapporte qu’en Ohio, Pennsylvanie, Virginie ou New Jersey, les factures pourraient grimper de 20 %.


    Selon Neil Chatterjee, ancien commissaire de la Commission fédérale de régulation de l'énergie, de nombreux responsables qui voyaient ces centres de données comme moteurs économiques se rendent compte que ces installations viennent avec des coûts élevés pour les consommateurs. Et tandis que les géants de la tech minimisent leur impact, la réalité des factures semble difficile à nier.


    La situation n’est pas sans risque : des services de régulation, comme la State Corporation Commission de Virginie, pointent déjà des tensions sur les réseaux, alertant sur des « problèmes et risques inédits » pour les distributeurs d’électricité et leurs clients. La France, avec son réseau de centrales nucléaires, attire désormais l’intérêt des grands acteurs comme Microsoft, qui s'assure une place dans ce mix énergétique stable mais non infini. Ces premiers retours interrogent : l’IA, moteur d’innovation, pourrait-elle devenir un fardeau énergétique ? Et à quel prix pour les consommateurs et les infrastructures ? Les mois à venir seront décisifs pour savoir si les ambitions de l’IA peuvent réellement rimer avec durabilité.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Un grand pas vient d’être franchi pour le développement des infrastructures vertes en Europe. Le vendredi 25 octobre, la Banque européenne d’investissement (BEI) a octroyé un financement de 702 millions de dollars à Elia Transmission Belgium (ETB) pour la construction de la première île énergétique artificielle au monde, baptisée Princesse Elisabeth. "Cette île est une pierre angulaire de la transition énergétique belge et européenne", a déclaré Robert de Groot, vice-président de la BEI, soulignant son rôle central dans l’indépendance énergétique des pays de l’Union.


    Située à 45 km des côtes belges, l’île Princesse Elisabeth sera érigée à partir de cette année, avec un chantier prévu jusqu’en 2027, comme le rapporte Interesting Engineering. Les premières fondations sont d’ores et déjà en cours de réalisation à Flessingue, aux Pays-Bas. Combinant des infrastructures hybrides de courant continu haute tension (CCHT) et de courant alternatif (CVC) pour maximiser l’efficacité de transmission, cette île accueillera 3,5 GW d’énergie éolienne offshore pour alimenter le réseau belge. Ce dispositif permettra d’approvisionner plus de trois millions de foyers, tout en réduisant la dépendance aux énergies fossiles, selon les projections d’Elia Transmission Belgium. En plus de renforcer le réseau énergétique national, le projet contribuera aux objectifs climatiques de l’UE en matière de renouvelables et de neutralité carbone, avec des méthodes de construction respectueuses de la biodiversité marine.


    Par ailleurs, l’île servira de hub pour les échanges d’électricité entre la Belgique et ses pays voisins, notamment le Royaume-Uni. Grâce à des câbles haute tension, elle connectera les parcs éoliens de la mer du Nord aux centres de consommation continentaux, facilitant ainsi l’importation et l’exportation d’énergie renouvelable.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Ce n’est plus un secret pour personne : l'IA est une grande consommatrice d'énergie, un véritable casse-tête pour la planète et pour nous. Pourtant, cela n'empêche pas certains, comme Sam Altman, d'avoir des ambitions démesurées, avec par exemple la construction d’un centre de données pour OpenAI qui consommerait l'équivalent énergétique d'une ville de trois millions de foyers. Face à cette course effrénée à la puissance de calcul, la start-up britannique Oriole Networks a décidé de prendre le contre-pied en proposant une solution radicalement différente. Après deux décennies de recherche, l’entreprise a mis au point une technologie qui utilise la lumière pour former de grands modèles de langage (LLM), réduisant ainsi la consommation énergétique par un facteur de 1 000 grâce à une approche dite photonique.


    Mais concrètement, comment parviennent-ils à former ces modèles sans tout surchauffer ? La technologie d'Oriole repose sur des réseaux photoniques sophistiqués qui interconnectent les puces IA. Exploitant les propriétés uniques de la lumière, ce procédé permet non seulement d’accélérer le traitement des données, mais aussi de diminuer de façon drastique l’énergie requise. En d’autres termes, cette avancée permettrait d’entraîner les LLM jusqu'à 100 fois plus rapidement tout en consommant une fraction de l’énergie actuelle. Pour mieux comprendre l’ampleur du changement, il faut savoir qu’une seule requête sur un modèle comme ChatGPT consomme dix fois plus d’énergie qu'une recherche sur Google, selon l’Agence internationale de l’énergie. Dans ce contexte, où la demande énergétique des centres de données pourrait tripler d’ici 2035 d’après une étude du Rhodium Group, Oriole Networks se présente comme une alternative verte capable de réduire la pression sur les réseaux électriques.


    Pour financer cette révolution, Oriole Networks a levé 35 millions de dollars, avec le soutien de fonds spécialisés comme Plural et le Clean Growth Fund. L’objectif ? Accélérer la commercialisation de cette technologie révolutionnaire et mettre en service les premiers systèmes dès 2025. Alors que l’urgence climatique se fait de plus en plus pressante — comme le rappelait déjà Jacques Chirac en 2002 avec sa célèbre phrase « Notre maison brûle, et nous regardons ailleurs » — cette innovation pourrait bien être une véritable bouffée d'oxygène.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les grands modèles de langage nécessitent des capacités de calcul colossales. Un seul mètre carré d'un centre de données dédié à l’IA peut consommer jusqu'à 120 kilowatts d'énergie, soit l'équivalent de la consommation énergétique et de la chaleur dégagée par 15 à 25 foyers, selon Andrey Korolenko, directeur des produits et de l'infrastructure chez Nebius, un spécialiste du cloud. L'arrivée de nouveaux processeurs comme le Blackwell GB200 de NVIDIA ne fait qu'intensifier ce phénomène. Pourtant, l'Union européenne (UE) s'est fixé l'objectif ambitieux de réduire sa consommation d'énergie de 11,7 % d'ici 2030.


    Cette course à la puissance pousse les fournisseurs d'IA à privilégier des systèmes de refroidissement par eau de plus en plus performants. Les géants américains du secteur font ainsi pression sur les opérateurs européens pour faire passer la température de l'eau utilisée de 30-32° C à 20-24° C. Mais cette méthode, en plus d'entraîner une consommation d'eau élevée, exige davantage d'énergie pour maintenir les serveurs à des températures optimales. Michael Winterson, président de l'Association européenne des centres de données (EUDCA), met en garde : « La pression exercée par les fabricants de puces, qui sont engagés dans une véritable course à l’espace, risque de nous ramener à une situation insoutenable, similaire à celle que nous avons connue il y a 25 ans. »


    En 2018, l'UE anticipait déjà une augmentation de 28 % de la consommation d'énergie des centres de données d'ici 2030. Avec l'essor de l'IA, cette hausse pourrait être multipliée par deux, voire trois, dans certains pays. Les entreprises, quant à elles, s’efforcent de trouver un équilibre entre performance et efficacité énergétique. Les nouveaux centres de données intègrent des technologies de refroidissement liquide plus optimisées, mais la demande croissante en énergie reste un défi majeur, accentué par la concurrence entre les géants technologiques.


    Les responsables européens tentent d'élaborer des solutions en collaborant avec les acteurs clés, tels que NVIDIA. Cependant, aucune approche concrète n'a encore émergé. Il est important de rappeler que des entreprises comme Microsoft et Google ont vu leurs émissions de CO2 augmenter de manière significative en raison de l’essor de l’IA générative.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les centres de données, où les géants de la tech stockent des quantités massives d’informations, nécessitent des systèmes de refroidissement souvent très gourmands en eau. À Cerrillos, au sud-est de Santiago, Google projette de construire son plus grand centre de données d’Amérique latine, avec un investissement initial de 200 millions de dollars, où environ 40 % des infrastructures seraient dédiées au refroidissement.


    Depuis 2015, Google exploite déjà un centre de données au nord de Santiago, qui consomme 50 litres d’eau par seconde, soit près d’un milliard de litres par an – l’équivalent de 285 piscines olympiques. « Avec des milliards de transistors fonctionnant à haute fréquence, beaucoup de chaleur est générée, et ces circuits doivent être maintenus au frais, sous peine de fondre », explique Eduardo Vera, coordinateur au Centre de modélisation mathématique de l’Université du Chili.

    Face à la sécheresse historique qui touche Santiago, Google a dû revoir ses plans après qu’un tribunal environnemental ait bloqué le projet en janvier. En réponse, la firme a annoncé en septembre qu’elle opterait pour un refroidissement par air, une technologie plus coûteuse mais nettement moins consommatrice d’eau. Les écologistes, opposés au projet depuis le début, ont salué cette décision. « Ils ont dû faire face à notre résistance, mais au final, ils ont changé leur système de refroidissement, établissant ainsi un précédent », a déclaré Tania Rodriguez, du Mouvement socio-environnemental pour l’eau et le territoire.


    Un scénario similaire s’est produit en Uruguay, où Google avait annoncé en 2019 un projet de centre de données nécessitant 2,7 milliards de litres d’eau par an, l’équivalent de la consommation quotidienne de 55 000 personnes. Confronté à une grave sécheresse en 2023, le pays a dû faire face à des pénuries d’eau potable à Montevideo. Là encore, le projet initial a été revu. « Nous avons réussi à les faire adopter un système de refroidissement principalement basé sur l’air », a confirmé Raul Viñas, du Mouvement pour un Uruguay durable (Movus).


    Dans un message adressé à l’AFP, Google a souligné que son approche visait à minimiser l’impact climatique et à gérer les ressources naturelles de manière responsable, en fonction des conditions locales et de la disponibilité des énergies décarbonées. Amazon Web Services (AWS), quant à lui, a également deux projets de centres de données à Santiago et vise à rendre ses installations « positives en termes d’eau d’ici 2030 ». Will Hewes, responsable de la durabilité de l’eau chez AWS, a précisé que cela impliquait de « rendre plus d’eau aux communautés locales » en utilisant des outils cloud pour surveiller et optimiser l’utilisation de l’eau.


    En juin, le Chili a annoncé la construction de 28 nouveaux centres de données, en plus des 22 déjà en service. « Nous avons probablement l’une des meilleures connexions Internet au monde, avec un accès au haut débit à l’échelle nationale », a déclaré la ministre chilienne de la Science et de la Technologie, Aisén Etcheverry. Les nouvelles installations de stockage de données, dont les autorisations sont en cours d’approbation, auront une consommation d’eau quasiment nulle, selon le gouvernement, pour éviter les conflits sociaux liés à la pénurie d’eau. « L’industrie mondiale s’est adaptée », a assuré Mme Etcheverry.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Dans les profondeurs d’une mer ancienne, enfouie sous le sud de l’Arkansas, se trouve peut-être une clé majeure de la transition énergétique des États-Unis. Une vaste étude menée par des équipes de recherche fédérales et locales a récemment révélé l’existence d’un gisement de lithium de proportions impressionnantes.


    Pour explorer ce trésor géologique encore insoupçonné, les chercheurs ont mis en œuvre les dernières avancées en intelligence artificielle. Leur modèle d’apprentissage automatique, enrichi de données géologiques, géochimiques et thermiques, a permis d'estimer entre 5,1 et 19 millions de tonnes de lithium dissous dans ces saumures profondes. Un chiffre qui représenterait jusqu’à 136 % des ressources actuellement recensées aux États-Unis, réduisant potentiellement la dépendance du pays vis-à-vis des importations de ce métal stratégique. Actuellement, les États-Unis se fournissent principalement en lithium auprès de la Chine, de l’Australie et du Chili.


    À la différence des mines à ciel ouvert qui dénaturent les paysages ou des bassins d’évaporation énergivores comme ceux du Salar d’Uyuni en Bolivie, l’Arkansas dispose d’un atout de taille. L’industrie du brome y exploite déjà les saumures grâce à un procédé d’extraction et de réinjection des eaux, et en 2022, cette méthode a permis de récupérer 5 000 tonnes de lithium dissous. L’extraction du lithium pourrait donc s’intégrer dans ce système existant, réduisant théoriquement son impact environnemental. Cependant, Patrick Donnelly, biologiste au Center for Biological Diversity, appelle à la prudence : « Nous soutenons les véhicules électriques et le stockage par batteries, mais il n’existe pas de solution miracle. L’extraction directe du lithium a aussi des répercussions. » Cette découverte survient dans un contexte de demande croissante pour le lithium, stimulée en grande partie par l’industrie automobile. En 2023, l’Agence Internationale de l’Énergie a estimé que 85 % de la consommation mondiale de lithium était destinée aux batteries de véhicules électriques, soit une hausse de 30 % en un an.


    Si cette découverte ouvre des perspectives prometteuses pour l’industrie américaine du lithium, le chemin vers une exploitation à grande échelle reste semé d’obstacles. Les défis techniques sont considérables : le pompage et le traitement des saumures de Smackover nécessiteront des quantités d’eau et d’énergie énormes, et la gestion des résidus salins liés au processus soulève des questions environnementales complexes. De plus, convertir cette ressource souterraine en une production industrielle demandera des années de développement et des investissements colossaux. Un véritable défi technologique, écologique et financier s’annonce.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Avec l’essor des technologies reposant sur l’intelligence artificielle, la demande énergétique explose, posant un défi majeur pour les entreprises comme Google, désireuses de se montrer exemplaires sur le plan écologique. C’est ici que Kairos Power entre en jeu, avec ses réacteurs nucléaires modulaires refroidis au sel fondu, une technologie encore à l'état expérimental mais porteuse de grandes ambitions. Google prévoit que ces SMR (Small Modular Reactors) pourraient produire jusqu'à 500 MW d'ici 2035, de quoi alimenter une partie de ses infrastructures.


    Mais ce pari est-il véritablement visionnaire ? Si le nucléaire offre une énergie stable et sans carbone, il reste entouré d'incertitudes. Les SMR sont encore en phase de développement et le premier réacteur ne devrait voir le jour qu’à l’horizon 2030. De plus, leur rentabilité et sécurité à grande échelle restent à démontrer. Alors pourquoi ne pas se tourner davantage vers les énergies renouvelables, comme le solaire et l’éolien, qui sont déjà éprouvées et largement soutenues par l’opinion publique ? Contrairement à ces énergies, le nucléaire continue de diviser, avec des préoccupations persistantes sur les risques d'accidents et la gestion des déchets.


    Ce partenariat révèle aussi une autre réalité : la consommation énergétique de Google a bondi de 50 % depuis 2019, principalement à cause de ses datacenters. En adoptant le nucléaire, l’entreprise affiche une volonté de pionnier écologique tout en assurant un approvisionnement énergétique fiable pour ses opérations liées à l’IA. Néanmoins, ne s’agit-il pas aussi d’une manœuvre de communication, alors que des concurrents comme Microsoft et Amazon investissent eux aussi dans des projets nucléaires ? Ce revirement en faveur du nucléaire, autrefois écarté, deviendrait-il le nouvel argument marketing pour afficher une conscience écologique à moindre coût ? Au final, bien que l’engagement de Google en faveur du nucléaire puisse sembler audacieux, il n’échappe pas aux critiques. Les enjeux sont énormes, et seul l’avenir dira si cette technologie saura tenir ses promesses.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Chez Tesla, l’électrique ne se limite pas aux voitures ! Depuis quelques années déjà, le constructeur américain a développé un camion électrique baptisé *Tesla Semi*, dont les premiers modèles ont été livrés il y a près de deux ans. Si quelques-uns circulent déjà sur les routes américaines, ce n’est qu’un avant-goût de ce que prépare Elon Musk.


    « Les Tesla Semi seront disponibles partout dans le monde. » C’est l’annonce qu’a faite Elon Musk sur son compte X, laissant entendre que ces camions pourraient bientôt arpenter les autoroutes françaises. Cependant, aucun calendrier précis de déploiement n’a été communiqué pour l’instant. Pour rappel, la production du *Tesla Semi*, initialement prévue pour 2019, avait été retardée de trois ans. Ce n’est qu’à la fin 2022 que l’assemblage a réellement démarré dans la Gigafactory du Nevada.


    Bien que la production ait démarré à petite échelle, Tesla vise désormais bien plus grand. À proximité de cette première Gigafactory, une seconde usine est en cours de construction, avec l’objectif d’augmenter la cadence dès 2025. La firme ambitionne d’atteindre une production annuelle de 50 000 camions *Tesla Semi*. Un indice supplémentaire sur l’expansion mondiale du projet ? Le tweet d’Elon Musk s’accompagnait d’une vidéo de la Gigafactory de Berlin, où le *Tesla Semi* était présenté. Une façon subtile de suggérer une future production du camion électrique en Europe ? Affaire à suivre.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les attaques contre les API, ces interfaces qui facilitent l’interaction entre différents logiciels, dans l’industrie automobile ont connu une explosion de 380 % selon le dernier rapport Global Automotive Cyber Security. Cette hausse alarmante touche particulièrement les systèmes de recharge des véhicules électriques, devenus une cible privilégiée des cybercriminels. Ces derniers exploitent les failles pour voler des données sensibles ou perturber les services, et le rapport 2024 de Check Point souligne une augmentation de 90 % des attaques par ransomware sur les bornes de recharge au cours de l’année écoulée.


    Les bornes de recharge rapide, souvent installées dans des lieux très fréquentés, sont particulièrement vulnérables aux attaques de type "Man-in-the-Middle", qui permettent aux pirates de s’interposer entre le véhicule et la borne pour dérober des informations bancaires ou interrompre les sessions de recharge. En 2022, plusieurs réseaux de bornes ont été paralysés par des ransomwares sophistiqués, forçant les opérateurs à payer des rançons pour restaurer leurs systèmes. La technologie Vehicle-to-Grid (V2G), qui permet aux véhicules de renvoyer de l’électricité au réseau, amplifie le risque. Les experts avertissent qu'une cyberattaque réussie pourrait non seulement affecter les véhicules, mais également déstabiliser le réseau électrique, avec des conséquences potentiellement graves, telles que des coupures d’électricité à grande échelle.


    Pour faire face à ces menaces croissantes, les spécialistes recommandent l’adoption d’une architecture de sécurité Zero Trust, qui impose une authentification stricte pour chaque interaction au sein du réseau. Cette approche s’accompagne d’une surveillance continue pour détecter rapidement tout comportement suspect. De plus, la mise à jour régulière des logiciels via des solutions OTA (Over-The-Air) est essentielle pour corriger rapidement les vulnérabilités. De nombreuses entreprises se tournent également vers des fournisseurs de services de sécurité gérés (MSSP) comme IBM Security et Fortinet, pour garantir une surveillance constante et une réponse rapide aux incidents, tout en respectant les normes de sécurité du secteur, telles que l'ISO 15118.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Malgré les critiques fréquentes sur le manque d'efforts pour réduire notre dépendance au pétrole et au gaz, il y a des signes positifs. En effet, la part des énergies renouvelables dans notre consommation énergétique continue de croître à un rythme soutenu à travers le monde. Cette tendance profonde a récemment été soulignée par l'Agence internationale de l'énergie (AIE) dans son dernier rapport.


    Tout n’est donc pas sombre dans la lutte contre le changement climatique. Le rapport annuel de l'AIE révèle que « les énergies propres s'intègrent dans le système énergétique à un rythme sans précédent, avec plus de 560 gigawatts (GW) de nouvelles capacités renouvelables ajoutées en 2023. » Cette montée en puissance des énergies vertes devrait permettre aux sources à faibles émissions de produire plus de la moitié de l'électricité mondiale d'ici 2030. L'énergie nucléaire, souvent décriée, fait d'ailleurs l'objet d'un regain d'intérêt dans plusieurs pays. On constate également l'implication croissante des géants de la tech, qui signent d’importants contrats pour s'assurer une fourniture d'électricité nucléaire afin de répondre à leurs besoins énergétiques croissants tout en respectant leurs engagements environnementaux.


    Cette dynamique est d'autant plus cruciale que la demande en électricité est en pleine explosion. Selon Fatih Birol, directeur général de l'AIE, « après l'ère du charbon et du pétrole, le monde entre rapidement dans l'ère de l'électricité. » D’ici 2035, cette demande devrait croître six fois plus vite que celle des autres sources d'énergie, alimentée par les véhicules électriques, la climatisation, l’intelligence artificielle et bien d'autres technologies. Cependant, l'AIE insiste sur le fait qu'il reste du chemin à parcourir : malgré des niveaux record d'installation d'énergies propres en 2023, les combustibles fossiles continuent de satisfaire les deux tiers de l’augmentation de la demande mondiale.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • La semaine dernière, SpaceX a réalisé un exploit spectaculaire en réussissant à ramener son lanceur Super Lourd directement sur son pas de tir dès le premier essai. Ce succès marque une étape clé pour la méga-fusée Starship, qui comprend également un vaisseau spatial. Lors du test, après un vol suborbital d'environ une heure, ce vaisseau a amerri dans l'océan Indien. Mais l'objectif à terme est bien plus ambitieux : faire revenir ce vaisseau sur Terre sans toucher l'eau.


    Ramener le lanceur Super Lourd sur son site de lancement est une prouesse, mais SpaceX vise désormais à faire de même avec le vaisseau Starship. Et ce n’est pas qu’une idée en l’air. Elon Musk a récemment annoncé sur X (anciennement Twitter) qu'il espère récupérer le vaisseau lui-même dès le début de l'année prochaine. Cependant, avant d'atteindre cet objectif, SpaceX devra procéder à de nombreux tests.Dans le cadre de son projet de fusée entièrement réutilisable, SpaceX va répéter les essais de récupération du lanceur Super Lourd par son système Mechazilla, tandis que le vaisseau continuera d'amerrir pour l’instant. Une fois cette étape maîtrisée, la prochaine grande ambition sera de faire atterrir le vaisseau sur le pas de tir.


    Si SpaceX parvient à récupérer à la fois le lanceur et le vaisseau Starship directement sur le site de lancement, cela pourrait révolutionner la fréquence des missions spatiales. En effet, la réutilisation complète des deux éléments ne nécessiterait qu’une inspection rapide, un ravitaillement en carburant, et la préparation pour un nouveau décollage. Cette avancée pourrait permettre à SpaceX de multiplier les lancements à un rythme jamais vu auparavant, ouvrant ainsi la voie à une nouvelle ère d'exploration spatiale.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le programme Artemis, malgré quelques retards, continue d’avancer avec des missions prévues pour 2025 et 2026. L’objectif de la NASA est ambitieux : non seulement retourner sur la Lune, mais y installer une base permanente où les astronautes se relaieront pour diverses missions. Ce projet à long terme implique de surmonter plusieurs défis technologiques, notamment la gestion des déchets.


    Pour cela, l'agence spatiale américaine lance un appel aux « inventeurs, entrepreneurs, étudiants et visionnaires » afin de proposer des concepts innovants. L'idée est de concevoir un système capable de traiter les déchets inorganiques, tels que les emballages alimentaires, les vêtements usagés ou le matériel scientifique, et de les transformer en ressources réutilisables pour les activités lunaires. Les astronautes n'auront pas de poubelles ni de ressources illimitées sur la Lune, ce qui rend cette technologie cruciale pour la survie et l’efficacité de la mission.


    Comme souvent avec les innovations spatiales, ces avancées pourraient aussi bénéficier à la Terre. « Nous cherchons des approches novatrices en matière de gestion des déchets sur la Lune, et nous espérons tirer des enseignements applicables sur Terre », a déclaré Amy Kaminski, responsable des Prix et défis de la NASA. Le LunaRecycle Challenge, lancé par la NASA, s’articule autour de deux grands axes : la conception d’un jumeau numérique d’un système complet de recyclage, et la fabrication d’un prototype fonctionnel. Les participants peuvent choisir de concourir dans une ou les deux catégories, avec un total de 3 millions de dollars en jeu. Les meilleurs projets dans chaque catégorie recevront respectivement 400 000 et 600 000 dollars, avant une seconde phase où des prix plus conséquents seront attribués.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Une étude récente de l'Arcom, réalisée en partenariat avec l'Arcep et l'ADEME, révèle que l'audiovisuel représente près d’un tiers de l'empreinte carbone du numérique. Un chiffre surprenant, qui met en lumière l'impact environnemental de notre consommation quotidienne de vidéos. Ce rapport, qui s'appuie sur des recherches approfondies dans le secteur audiovisuel, pointe également du doigt la publicité comme un facteur aggravant, alourdissant significativement cet impact.


    Que ce soit devant la télévision, sur des plateformes de streaming comme Netflix ou YouTube, l’audiovisuel en France est responsable d’environ 5,6 millions de tonnes de CO2 par an, soit l’équivalent des émissions de 4 millions de voitures particulières. La majeure partie de cette empreinte carbone, soit 88 %, provient des terminaux que nous utilisons – téléviseurs, smartphones, ordinateurs – principalement en raison de leur cycle de vie, de leur fabrication à leur mise au rebut. Ces équipements pèsent aussi lourdement sur l’utilisation des ressources minérales. En matière de diffusion, l’étude montre que la télévision linéaire, diffusée via la TNT, est beaucoup plus économe que les réseaux fixes et mobiles, qui génèrent 95 % de l’impact carbone de l'audiovisuel. Ainsi, une heure de visionnage peut émettre jusqu’à 57 g de CO2, équivalant à un trajet de 20 kilomètres en TGV.


    Les perspectives à l’horizon 2030 laissent entrevoir une croissance rapide de la vidéo à la demande, dont l'impact pourrait grimper de 230 %, alors que la télévision traditionnelle verrait une légère régression. Pour contrer cette hausse des émissions, l’Arcom propose plusieurs scénarios, notamment des approches basées sur l’écoconception et la sobriété. Encourager la seconde main, prolonger la durée de vie des équipements et privilégier la réparation sont autant de pistes pour limiter cet impact.


    Étude : https://www.arcom.fr/nos-ressources/etudes-et-donnees/mediatheque/etude-de-limpact-environnemental-des-usages-audiovisuels-en-france


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les Zones à Faibles Émissions mobilité (ZFE-m) représentent une des mesures phares pour lutter contre la pollution atmosphérique dans les grandes agglomérations françaises. Soutenues par l’État, ces zones visent à réduire les émissions de polluants en limitant la circulation des véhicules les plus polluants. En Europe, plus de 230 ZFE sont déjà en place, et la France n'est pas en reste. Depuis la loi d'août 2021, toutes les villes de plus de 150 000 habitants devront mettre en place une ZFE avant le 31 décembre 2024.


    Le dispositif repose sur les fameuses vignettes Crit’Air, attribuées à chaque véhicule en fonction de ses émissions polluantes. Il existe six catégories, allant de la vignette 0 (réservée aux véhicules électriques et à hydrogène) à la 5, qui classe les véhicules selon leur norme Euro et leur date de mise en circulation. Les véhicules les plus anciens, qui ne répondent pas aux normes Euro 2, ne sont tout simplement pas éligibles.


    Dès janvier 2025, plusieurs grandes villes françaises, comme Paris, Lyon et Strasbourg, renforceront leurs restrictions. Les véhicules Crit’Air 3 – soit les diesels immatriculés avant 2011 et les essences datant d’avant 2006 – seront bannis de ces ZFE. D’après AutoPlus, cela représente environ 14,3 millions de véhicules encore en circulation en France. À Lyon et Strasbourg, ces restrictions s'appliqueront 24 heures sur 24, 7 jours sur 7, contrairement à Paris où des règles plus souples sont en vigueur. Et ce n'est pas tout : outre les contrôles routiers classiques, des radars spécifiques seront bientôt déployés pour scanner automatiquement les plaques d’immatriculation et vérifier la vignette Crit’Air associée. Un dispositif qui marque un tournant dans la gestion des mobilités urbaines et la lutte contre la pollution.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le marché automobile européen est en pleine mutation, et Bruxelles entend bien ne pas laisser les constructeurs chinois envahir ce secteur stratégique. L'Union européenne a obtenu l'accord des États membres pour instaurer une nouvelle surtaxe sur les véhicules électriques en provenance de Chine. À partir de la fin octobre, ces voitures pourraient être frappées d'une taxe pouvant aller jusqu'à 35 %, en plus des 10 % déjà en vigueur. Une décision qui vise à protéger les emplois européens, mais qui s'accompagne de nombreux risques, notamment celui de ralentir la transition écologique et de déclencher des représailles de la part de la Chine.


    Le vote de vendredi dernier a révélé des fractures au sein de l'UE. La France, l'Italie et la Pologne, défendant les 14 millions d'emplois du secteur automobile européen, ont mené le camp protectionniste, rejoints par dix autres pays. À l'inverse, l'Allemagne, dont l’industrie est profondément liée au marché chinois, a voté contre, craignant une guerre commerciale. D’autres pays, comme l’Espagne, ont affiché des positions hésitantes. Pedro Sanchez, après avoir soutenu des mesures protectionnistes, a soudain appelé à la prudence après une visite chinoise, évoquant des promesses d’investissements en coulisses.


    La nouvelle taxe sera appliquée de manière différenciée selon les constructeurs. SAIC, par exemple, se verra imposer une surtaxe de 35,3 %, tandis que le géant BYD sera frappé à hauteur de 17 %. Cette stratégie cible les entreprises les moins coopératives avec l’enquête européenne. En réponse, la Chine a déjà lancé des enquêtes antidumping sur des produits européens, tels que le porc ou les produits laitiers, laissant présager une escalade commerciale. Ce conflit automobile pourrait n’être que la première salve d’une guerre économique plus large, touchant des secteurs comme les éoliennes, les panneaux solaires et les batteries. Bruxelles a jeté le gant, mais l’Europe parviendra-t-elle à tenir tête face à la Chine dans cette longue bataille commerciale ? Seul l'avenir nous le dira.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Et si les plantes répondaient à la musique ? Une équipe de chercheurs australiens a découvert qu’un simple son monotone pouvait stimuler l’activité d’un champignon microscopique du sol, connu pour favoriser la croissance des végétaux. Face aux enjeux de l’érosion, de la pollution, et de la surexploitation agricole, cette découverte pourrait apporter un outil supplémentaire pour la restauration des sols, essentielle à la préservation de la biodiversité et à une agriculture durable.


    Dans une étude publiée dans *Biology Letters* de la British Royal Society, les chercheurs de l'Université de Flinders, en Australie, ont voulu explorer un domaine encore peu étudié : l’effet de la stimulation sonore sur le développement des micro-organismes. Le champignon en question, *Trichoderma harzianum*, est utilisé en agriculture biologique pour protéger les plantes et améliorer leur absorption des nutriments. Les chercheurs ont soumis ce champignon à des ondes sonores de 8 kHz, diffusées à 80 décibels pendant 30 minutes chaque jour, dans des chambres stériles.


    Le résultat ? Au bout de cinq jours, les champignons exposés à ce "paysage sonore" ont montré une croissance et une production de spores plus élevées que ceux cultivés en silence. Selon les scientifiques, ces effets pourraient être dus à des mécanismes tels que l’effet piézoélectrique, où la pression mécanique des ondes acoustiques est convertie en charge électrique, influençant les processus cellulaires. Une autre hypothèse pointe vers les mécanorécepteurs présents dans les membranes des champignons, similaires à ceux de la peau humaine, qui réagissent aux vibrations et pourraient activer des gènes liés à la croissance. « Pouvons-nous accélérer la restauration des sols avec des paysages sonores ? Quel impact sur la faune du sol ? » s’interroge Jake Robinson, co-auteur de l’étude. Une piste fascinante qui ouvre la voie à des recherches prometteuses.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.