PodcastsTechnologieChoses à Savoir TECH VERTE

Choses à Savoir TECH VERTE

Choses à Savoir
Choses à Savoir TECH VERTE
Nieuwste aflevering

1213 afleveringen

  • Choses à Savoir TECH VERTE

    Un data center avec 4 jours d’autonomie sans énergie fossile ?

    16-03-2026 | 2 Min.
    L’essor de l’intelligence artificielle pose un défi énergétique majeur. Selon l’Agence internationale de l’énergie, les centres de données devraient consommer entre 2 et 3 % de l’électricité mondiale dès 2026, soit environ 500 térawattheures par an. Pour donner un ordre de grandeur, c’est l’équivalent de la consommation électrique d’un pays comme la France. Et avec la généralisation de l’IA générative, cette demande pourrait doubler d’ici 2030. Face à cette explosion des besoins, les géants du numérique cherchent des solutions capables d’assurer une alimentation électrique stable, tout en réduisant les émissions de CO₂. L’une des pistes les plus prometteuses consiste à associer énergies renouvelables et stockage massif d’électricité grâce à de gigantesques batteries.

    C’est précisément la stratégie adoptée par Google, qui prépare un projet spectaculaire aux États-Unis, sur un site de 200 hectares à Pine Island. L’installation sera alimentée par un portefeuille d’électricité renouvelable, essentiellement éolien et solaire, capable de fournir 1 600 mégawatts de puissance. Mais la pièce maîtresse du projet réside dans son système de stockage. Google prévoit d’y installer une batterie géante de 300 mégawatts, capable de fournir de l’énergie pendant près de 100 heures consécutives, soit environ quatre jours d’autonomie. Une performance inédite pour ce type d’infrastructure.

    L’objectif est clair : garantir une alimentation continue du centre de données sans dépendre des centrales fossiles ou des générateurs diesel, encore utilisés par près de 80 % des centres de données dans le monde pour assurer les secours en cas de panne. La technologie retenue est développée par la start-up américaine Form Energy. Elle repose sur un système dit « fer-air », basé sur un principe chimique simple : l’oxydation et la réduction du fer. En stockant l’électricité sous forme de réaction chimique, ces batteries peuvent accumuler de grandes quantités d’énergie et la restituer pendant de longues périodes, tout en supportant des milliers de cycles.

    Par sa capacité énergétique, ce dispositif pourrait devenir la plus grande batterie du monde. À titre de comparaison, il serait capable d’alimenter plus de 100 000 foyers américains pendant une journée. Pour Google, ce projet constitue un véritable laboratoire. L’entreprise veut démontrer qu’il est possible d’alimenter ses centres de données 24 heures sur 24 et 7 jours sur 7 avec de l’énergie décarbonée, sans recourir à des compensations carbone. Un enjeu stratégique pour le groupe, dont les émissions de CO₂ ont augmenté d’environ 50 % depuis 2019, notamment en raison du développement massif de l’intelligence artificielle. L’équation énergétique du numérique devient donc l’un des grands défis technologiques de la décennie.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH VERTE

    Bientôt des satellites réutilisables qui reviennent sur Terre ?

    15-03-2026 | 2 Min.
    Dans l’industrie spatiale, un nouveau pari technologique pourrait bien changer les règles du jeu. La start-up américaine Lux Aeterna, fondée en 2024, veut rendre les satellites… réutilisables. À sa tête, on trouve Brian Taylor, un ingénieur chevronné passé par SpaceX et Amazon, où il a participé au développement des mégaconstellations Starlink et Project Kuiper.

    Aujourd’hui, la plupart des satellites ont une durée de vie relativement courte. En orbite basse, ils fonctionnent généralement entre cinq et dix ans, avant d’être désorbités, c’est-à-dire volontairement détruits dans l’atmosphère, ou envoyés vers une orbite cimetière, une zone éloignée où l’on place les satellites hors service. Ce modèle implique de fabriquer régulièrement de nouveaux engins, ce qui représente un coût très élevé.

    L’ambition de Lux Aeterna est de rompre avec cette logique. L’entreprise veut créer des satellites capables de revenir sur Terre, d’être remis à niveau, puis relancés. L’idée ressemble à ce que SpaceX a déjà réussi avec les fusées réutilisables, mais appliquée cette fois aux satellites eux-mêmes. Le principal obstacle est thermique. Lorsqu’un objet rentre dans l’atmosphère, il subit des températures extrêmes, parfois plusieurs milliers de degrés, à cause du frottement avec l’air. Pour survivre à cette phase critique, Lux Aeterna prévoit d’intégrer un bouclier thermique directement dans la structure du satellite.

    Ce système permettrait au satellite de revenir intact sur Terre, avec sa charge utile, c’est-à-dire les instruments embarqués, comme des caméras, des capteurs scientifiques ou des systèmes de communication. L’intérêt est évident : au lieu de construire un nouveau satellite pour chaque évolution technologique, les opérateurs pourraient mettre à jour les équipements puis relancer l’appareil. Le premier prototype de la start-up s’appelle Delphi. Il mesure environ 1,1 mètre de large pour une masse d’environ 200 kilogrammes. Son lancement est prévu pour le premier trimestre 2027, à bord d’une fusée Falcon 9 de SpaceX. Après sa mission, l’engin doit effectuer un retour contrôlé et être récupéré en Australie.

    Lux Aeterna travaille déjà sur une génération suivante de satellites plus grands, qui pourraient à terme être lancés par Starship, la future fusée géante de SpaceX. Mais le défi reste immense. La technologie doit non seulement fonctionner, mais aussi être économiquement rentable. Les économies réalisées grâce à la réutilisation devront compenser les coûts liés au retour, à la récupération et à la remise en état des satellites.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH VERTE

    La géothermie "profonde" va-t-elle tout changer ?

    12-03-2026 | 2 Min.
    Parmi les sources d’énergie renouvelable encore peu exploitées, la géothermie occupe une place particulière. Son principe est simple : utiliser la chaleur naturellement présente dans le sous-sol pour produire de l’énergie. Cette chaleur provient notamment des nappes d’eau souterraines et de la désintégration naturelle d’éléments radioactifs présents dans les roches, comme l’uranium, le thorium ou encore le potassium.

    Contrairement au vent ou au soleil, cette ressource présente un avantage majeur : elle est disponible en permanence. La chaleur de la Terre ne dépend ni de la météo ni de l’alternance jour-nuit. Les installations géothermiques peuvent donc produire de l’énergie 24 heures sur 24, avec des émissions de CO₂ très faibles pendant leur exploitation.

    À faible profondeur — généralement moins de 200 mètres — la géothermie est déjà utilisée dans de nombreux systèmes de chauffage ou de production d’énergie. Elle est considérée comme une technologie fiable et stable, capable d’assurer un approvisionnement continu. Mais de nouvelles perspectives apparaissent avec l’exploitation de la chaleur plus profonde. Les progrès réalisés dans les techniques de forage, souvent héritées de l’industrie pétrolière et gazière, permettent désormais d’atteindre des couches du sous-sol situées beaucoup plus bas.

    Dans une étude publiée dans la revue Cell Reports, des chercheurs de l’université Stanford s’intéressent notamment à une technologie appelée EGS, pour Enhanced Geothermal System, ou « système géothermique amélioré ». L’idée consiste à exploiter la chaleur présente entre 600 et 3 000 mètres sous terre, où les températures peuvent atteindre 90 à 300 degrés Celsius. Contrairement à la géothermie traditionnelle, qui dépend de réservoirs naturels d’eau chaude, ces systèmes permettent de créer artificiellement les conditions nécessaires pour récupérer la chaleur du sous-sol. Cela ouvre la possibilité d’exploiter cette énergie dans beaucoup plus de régions du monde.

    Les chercheurs soulignent aussi un autre avantage : la géothermie profonde pourrait réduire les besoins en infrastructures liées aux énergies intermittentes. Selon leurs calculs, si les systèmes EGS fournissaient 10 % de l’électricité, il serait possible de diminuer les nouvelles capacités nécessaires de 15 % pour l’éolien terrestre, 12 % pour le solaire et 28 % pour le stockage par batteries. La surface mobilisée pour produire de l’électricité bas carbone passerait alors d’environ 0,57 % à 0,48 % du territoire, une différence qui pourrait devenir importante à mesure que la demande énergétique augmente, notamment avec la multiplication des centres de données. Selon cette étude, le développement de la géothermie profonde, combiné aux autres énergies renouvelables, pourrait même permettre à terme de remplacer certaines sources d’électricité continues, comme le charbon ou le nucléaire, au cours de la prochaine décennie.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH VERTE

    L'or permettrait un vrai gain pour les panneaux solaire ?

    11-03-2026 | 2 Min.
    On l’ignore souvent, mais les panneaux solaires n’exploitent qu’une fraction de l’énergie lumineuse qui atteint la Terre. Les cellules photovoltaïques actuelles convertissent surtout la lumière visible, celle que l’œil humain perçoit, ainsi qu’une petite partie du proche infrarouge. Une grande portion du rayonnement solaire reste donc inutilisée, alors même que notre planète reçoit chaque seconde environ 174 000 térawatts d’énergie solaire. Des chercheurs de l’Institut coréen des sciences et de la technologie, le KAIST, pensent avoir trouvé une piste pour améliorer cette efficacité. Leur solution repose sur un concept issu de la nanotechnologie : les suprasphères plasmoniques.

    Ces structures microscopiques sont constituées de milliers de nanoparticules d’or qui s’assemblent spontanément pour former de minuscules sphères. À cette échelle, l’or possède des propriétés optiques particulières : il peut interagir avec la lumière de manière collective, un phénomène que les physiciens appellent résonance plasmonique. Concrètement, cela permet de capter et de piéger les photons — les particules de lumière — avec une efficacité bien supérieure à celle des matériaux classiques. Les chercheurs ont déposé ces suprasphères goutte à goutte sur une surface plane, où elles forment un film dense et texturé. Ce revêtement est capable d’absorber non seulement la lumière visible, mais aussi les rayonnements ultraviolets et une large gamme d’infrarouges, proches et lointains.

    La différence avec les films de nanoparticules déjà étudiés est importante. Les suprasphères combinent plusieurs types de résonances lumineuses, ce qui permet de capturer davantage de longueurs d’onde. Résultat : selon les simulations et les expériences menées par l’équipe coréenne, ce matériau pourrait absorber jusqu’à 90 % du spectre solaire, un niveau inédit. La puissance générée serait environ 2,4 fois supérieure à celle obtenue avec des revêtements de nanoparticules traditionnels. Pour tester leur approche, les chercheurs ont appliqué ce film sur la surface en céramique d’un générateur thermoélectrique, un dispositif capable de transformer la chaleur en électricité. Les mesures ont montré une absorption deux fois plus élevée que celle d’un film classique.

    Au-delà de la performance, cette technologie présente aussi un avantage pratique : elle peut être produite par dépôt en solution, une méthode relativement simple et peu coûteuse. À terme, ces suprasphères pourraient améliorer l’efficacité des systèmes solaires thermiques et photothermiques, qui utilisent la chaleur du soleil. Elles pourraient aussi renforcer les systèmes hybrides photovoltaïques-thermiques, capables de produire à la fois électricité et chaleur.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH VERTE

    Des data centers bientôt sous des éoliennes en mer ?

    10-03-2026 | 2 Min.
    La révolution de l’intelligence artificielle pose un problème très concret : où installer les serveurs capables de faire tourner ces modèles toujours plus gourmands en énergie ? Aux États-Unis, les centres de données ont consommé environ 183 térawattheures d’électricité en 2024, soit près de 4 % de toute la consommation du pays. Et selon plusieurs projections, cette demande pourrait plus que doubler d’ici 2030.

    Depuis quelques années, l’industrie explore donc des solutions inédites. Microsoft avait déjà expérimenté l’immersion de centres de données sous la mer avec son Projet Natick, au large de l’Écosse. L’idée : profiter de l’eau froide pour refroidir naturellement les serveurs. Mais une start-up californienne, Aikido Technologies, propose aujourd’hui d’aller encore plus loin.

    Son concept, présenté début mars 2026 et relayé par IEEE Spectrum, consiste à combiner éoliennes flottantes et centres de calcul pour l’IA dans la même infrastructure. Concrètement, les serveurs seraient installés directement dans les ballasts, ces grands réservoirs qui stabilisent les plateformes en mer. La structure imaginée repose sur une turbine éolienne posée sur une plateforme flottante. Trois bras descendent vers l’eau et se terminent par des ballasts situés à environ 20 mètres de profondeur. Dans la partie supérieure de ces réservoirs remplis d’eau douce, Aikido prévoit d’aménager des salles informatiques capables de fournir 3 à 4 mégawatts de puissance chacune. L’ensemble pourrait atteindre 10 à 12 mégawatts de calcul dédiés à l’intelligence artificielle.

    La turbine elle-même produirait 15 à 18 mégawatts d’électricité, complétés par des batteries intégrées. L’un des avantages majeurs serait la suppression des pertes liées au transport de l’électricité, puisque l’énergie serait produite et consommée au même endroit. Le refroidissement reposerait sur un mécanisme passif : la chaleur dégagée par les serveurs traverserait les parois métalliques des ballasts pour se dissiper dans l’eau de mer. Selon l’entreprise, l’impact thermique resterait limité à quelques mètres autour de la structure.

    Un prototype de 100 kilowatts est prévu au large de la Norvège d’ici la fin de l’année, avec l’ambition à terme de créer des fermes offshore dépassant un gigawatt de puissance de calcul. Mais le projet reste risqué. L’éolien flottant traverse actuellement une période difficile, avec des coûts élevés et des projets retardés. D’autres défis subsistent aussi : la corrosion due au sel, les débris marins ou encore les contraintes environnementales liées au rejet de chaleur dans l’océan.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Meer Technologie podcasts

Over Choses à Savoir TECH VERTE

Tout ce qu'il faut savoir dans le domaine de la Green Tech. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Podcast website

Luister naar Choses à Savoir TECH VERTE, Hard Fork en vele andere podcasts van over de hele wereld met de radio.net-app

Ontvang de gratis radio.net app

  • Zenders en podcasts om te bookmarken
  • Streamen via Wi-Fi of Bluetooth
  • Ondersteunt Carplay & Android Auto
  • Veel andere app-functies

Choses à Savoir TECH VERTE: Podcasts in familie

  • Podcast Choses à Savoir SCIENCES
    Choses à Savoir SCIENCES
    Wetenschap