Ce début février est marqué par le retour de températures hivernales classiques et négatives. C’est alors une floraison dans tous les journaux papiers ou télévisés d’une série de reportages et conseils plus ou moins pertinents liés à ces basses températures. Pourquoi Mediachimie ne s’y mettrait pas avant que le mercure ne remonte !
Chez vous
Pour un bon cocooning, vérifiez bien que l’isolation de votre maison est bonne. C’est d’abord 15 à 20 cm de laine de verre ou de cellulose dans vos combles qui vous font économiser 30% sur la fuite des calories (1). Les vitrages à haute isolation de vos baies vitrées et fenêtres avec deux lames de verre sodo-calciques séparées par un volume d’argon et disposant sur l’une des faces intérieures d’un micro-revêtement métallique renvoient les infrarouges vers l’intérieur et évitent de chauffer le jardin (2). Si vous avez un chauffage électrique vos murs sont équipés de contrecloisons en plâtre munies d’une bonne épaisseur de polystyrène. Pensez aux radiateurs à accumulateurs de chaleur qui, équipés d’une âme de céramique (silico-aluminates de calcium) chauffée la nuit, restituent ses calories le jour. Grâce à la chimie des matériaux vous économisez les kWh tarif nuit.
En voiture
Attention, au démarrage n’oubliez pas que votre bonne vieille batterie au plomb perd 33 % de sa puissance lorsqu’on atteint –5°C (3). Si vous roulez au diesel vérifiez bien que vous avez fait le plein à la pompe avec le gas-oil hiver qui a un point de cristallisation à –15°C et qu’il ne vous reste plus du gas-oil été (qui cristallise à 0°C), bien que pour des raisons commerciales il semble que certaines marques fournissent un carburant unique été – hiver. Si vous roulez à l’éthanol (E 85) le démarrage à froid est parfois plus difficile car les vapeurs d’alcool sont moins inflammables. Les pétroliers diminuent en hiver la proportion d’éthanol qui peut descendre à 60% eu lieu de 85% en été (4).
Assurez-vous que le liquide de refroidissement (souvent appelé antigel) de votre moteur est bien adapté à l’hiver afin qu’il ne gèle pas dans votre réservoir. Mélanges d’eau, d’éthylène glycol ou de propylène glycol et d’additifs, ils peuvent supporter sans geler des températures pouvant descendre à –25°C ou moins selon les proportions (5).
Si la route est glissante à cause du verglas, heureusement les municipalités et la DDE ont salé les revêtements (6). Mais roulez avec des pneus hiver qui ont une gomme tendre à base de caoutchouc naturel et de mélanges butadiène / acrylonitrile. En effet suivant la composition la température de transition vitreuse est abaissée et par temps froid le pneu reste souple procurant une meilleure tenue de route (7).
Si le matin vous déneigez carrosserie et pare-brise, utilisez une raclette en polystyrène ou polypropylène moins dure que le verre ou le vernis de peinture pour ne pas faire de rayures. Pour la couche de glace sur le pare-brise, une « pulvérisette » d’alcool ménager vaut mieux que l’eau chaude car le mélange eau – alcool se solidifie à bien plus basse température que 0°C. Enfin si les montants de portes ont leurs joints caoutchouc collés, pensez à les enduire d’une fine couche d’éthylène glycol qui tiendra jusque –45°.
À pied dehors
En promenade ou pour faire vos courses n’hésitez pas à vous couvrir en multicouches (8) :
- des sous-vêtements en microfibres très légers, des maillots en fibres creuses qui vont emprisonner de l’air qui est un isolant thermique efficace pour protéger du froid ;
- un « pull polaire » en fibres polyesters aérées qui viennent en partie du recyclage des bouteilles plastiques en PET ;
- une veste en textile imper respirant, imperméable à la pluie ou la neige mais laissant passer la transpiration, obtenu après enduction de polyuréthane ou des membranes hydrophobes comme les polyfluorothylène (9) ;
- ou mieux encore des textiles thermorégulants à changement de phase où sont encapsulées sur les fibres des cires qui se liquéfient à plus de 37°C lorsque vous êtes dans une pièce chauffée et qui, quand vous sortez à l’extérieur au froid, se solidifient en libérant de la chaleur.
On trouve aussi des vêtements et gants pour motards ou artisans du BTP avec des microcircuits de résistances alimentées par des piles ion-lithium qui sur commande peuvent chauffer soit les mains, soit le dos.
En cette période de COVID, vous sortez avec les masques sanitaires en polypropylène qui comportent une couche de « meltblown », microfibres qui par attraction électrostatique captent les nano-gouttes des aérosols pouvant véhiculer le virus (10). Si les masques sont humides les fibres ne servent plus de barrière, donc éviter de les mouiller par la respiration en hiver ou sous la pluie ou la neige. L’Académie de médecine canadienne recommande par grand froid de porter au-dessus une écharpe.
Mais que cela ne vous empêche pas de soigner votre visage et votre peau : par grand froid sec, elle souffre, alors n’oubliez pas les crèmes hydratantes et les rouges à lèvres protecteurs (11).
Parés pour le grand Nord ?
Jean-Claude Bernier
Février 2021
Pour en savoir plus
(1) Isolation dans l’habitat : la chimie pour ne pas gaspiller de calories !
(2) Les vitrages : laissez entre la lumière
(3) Applications présentes et futures des batteries
(4) Pourquoi met-on de l’alcool dans l’essence ? (Question du mois)
(5) Glycol / Éthane-1,2-diol / Éthylène glycol (Produit du Jour Société Chimique de France)
(6) Pourquoi met-on du sel sur les routes lorsqu’il gèle ? (Question du mois)
(7) Le pneumatique : innovation et haute technologie pour faire progresser la mobilité
(8) Vers des textiles intelligents pour des vêtements performants et innovants
(9) Les textiles imper-respirants
(10) Oui la chimie avance masquée
(11) La peau au quotidien : protection et embellissement
La situation actuelle
Il existe en France huit raffineries du pétrole, de la Normandie à la Méditerranée en passant par le sud de Lyon. La grande majorité du pétrole raffiné sert à l’obtention des carburants, une autre partie fournit la matière première pour la chimie des dérivés du pétrole. Ainsi ces sites sont aussi des complexes de pétrochimie.
La coupe pétrolière qui intéresse la chimie est essentiellement le « naphta » dont les chaines carbonées vont de 5 à 10 atomes de carbone. Celle-ci subit l’hydrocracking (ou craquage à la vapeur d’eau) permettant d’obtenir les intermédiaires majeurs pour la chimie organique tels que les oléfines (éthylène (1), propène, butène, benzène…). Pour éviter la pollution due à la présence de soufre et d’azote dans le pétrole, des unités d’hydrodésulfuration (2) sont également présentes sur les sites.
Ces fabrications utilisent actuellement environ 13% du pétrole (3), part qui pourrait monter à 22% d’ici 2050 sans régulation. Les politiques de transition énergétique vont limiter les objets en plastique, faire baisser la demande énergétique des bâtiments, économiser la consommation des véhicules en carburants, voire passer aux véhicules électriques, et donc baisser les volumes consommés de gas-oil et d’essence. C’est ainsi que les capacités de raffinage en France et en Europe n’ont cessé de diminuer. Les capacités de raffinage en Europe représentaient en 2008 21% des capacités mondiales et elles ne sont plus que de 17% en 2020. La consommation des produits pétroliers (carburants compris) dans l’hexagone a suivi la même pente, 98 millions de tonnes (Mt) en 1998, 89 Mt en 2000 et 73 Mt en 2019 qui plombent cependant encore notre balance commerciale de quelques dizaines de milliards d’euros.
L’évolution due aux huiles de schiste
Il faut se rappeler que la stratégie des grandes compagnies pétrolières a évolué dans les années 2010 avec l’arrivée de l’huile et du gaz de schiste américain sur le marché mondial. Historiquement les pétroliers européens utilisaient la coupe « naphta » pour la production de l’éthylène intermédiaire essentiel pour la chaine de valeur en chimie organique notamment pour les polymères résines et plastiques (4). Pour ce faire il faut casser les chaines carbonées des hydrocarbures du naphta à l’aide des vapocraqueurs qui malheureusement en Europe avaient plus de 25 ans. Aux États-Unis de nouveaux vapocraqueurs à base éthane produit en abondance par les gaz de schiste ont abaissé le prix de l’éthylène d’un facteur 2 à 3 ! Pour ne pas « mourir » les Européens ont investi soit dans de nouveaux vapocraqueurs en Écosse et en Norvège, soit dans la modernisation d’anciens vapocraqueurs au sein de plateformes chimiques pour leur donner plus de flexibilité. Fournir l’éthylène, le butadiène et des aromatiques sur place limite les émissions et les besoins logistiques. C’est ainsi que TOTAL a investi à Gonfreville et à Anvers, de même INEOS à Anvers. Ces deux acteurs majeurs européens comme ExxonMobil (USA) souffrent de la crise de 2020 qui a non seulement entrainé une chute de la vente des carburants mais aussi de produits chimiques et de matières plastiques pour l’automobile. Tout en proclamant que le pétrole n’a pas dit son dernier mot notamment en Chine, aux USA et dans les pays émergents, il se prépare des stratégies à long terme dans le ton européen de la transition énergétique en « verdissant l’or noir ».
Vers le « zéro carbone » ?
INEOS lance ainsi à Anvers le « Project One » d’un vapocraqueur base éthane qui devrait produire 1,5 Mt d’éthylène, le plus important en Europe et le plus économe, avec d’une part la récupération d’hydrogène dévolu à la mobilité et d’autre part un contrat avec ENGIE qui doit lui apporter toute l’énergie électrique éolienne pour son futur complexe. Pour la France on se rappelle la reconversion de la raffinerie de La Mède condamnée à la fermeture et transformée en bioraffinerie avec un investissement de plus de 275 millions d’euros devant produire des agrocarburants avec le procédé HVO (Hydrotreated Vegetable Oil), un procédé français. Cette unité traite en partie de l’huile de palme, ce qui a soulevé diverses réactions (5). TOTAL annonce en 2020 la transformation de la raffinerie de Grandpuits (77) en investissant 500 millions d’euros dans une plateforme « zéro pétrole » afin de fournir 400 000 t/an de biocarburants majoritairement destinés au secteur aérien, à partir de graisses animales, huiles de cuisson usagées et végétales recueillies régionalement. Sur le même site, associé au néerlandais Corbion, il veut produire du bioplastique centré sur le PLA (6) et développer une unité de recyclage de plastique par pyrolyse.
Après avoir fermé le vapocraqueur sur le site de Carling (57), TOTAL, après l’acquisition de Synova, veut devenir un acteur majeur dans le recyclage chimique des plastiques. Sur ce site pétrochimique, l’association Chemesis (Total, Arkema, Air Liquide, etc.) promeut la chimie verte avec Metex Noovista qui produit du propanediol et de l’acide butyrique biosourcés, et Afyren synthétise des molécules pour l’alimentation et des conservateurs aromatiques à partir de sous-produits de betterave. Et, dernier venu, Circa Sustainable Chemicals produira à partir de coproduits du bois 1000 t/an de Cyrène, un solvant fluide biosourcé (encres) (7). C’est ainsi qu’à proximité de l’Allemagne se transforme un site de chimie performant compatible avec les exigences environnementales, et générateur d’emplois dans le Grand-Est (8).
Les nouveaux marchands d’énergies
L’annonce de la nouvelle stratégie des pétroliers est celle de devenir, comme le dit Total, une entreprise de « multi-énergies ». Plusieurs facettes apparaissent dans ces stratégies : donner une plus grande part au gaz liquéfié (GNL, constitué majoritairement de méthane) et une nouvelle part à l’électricité à partir des renouvelables. Après l’expérience décevante de SunPower c’est entre 2 et 3 milliards d’euros par an qui seront consacrés à la production et au stockage d’électricité bas-carbone jusqu’en 2030. Pour cela TOTAL a racheté SAFT pour les batteries de stockage et s'allie à Peugeot et à Michelin pour le projet d’une giga factory en France de production de batteries ions-lithium. Les ventes de Total se répartiront alors entre 30% de produits pétroliers et 5% de biocarburants, 15% pour l’électricité bas carbone et 50% pour les gaz dont l’hydrogène. Le défi est lancé entre Shell, BP, Exxon et d’autres : ce sera à qui s’imposera pour la capture du CO2, les énergies propres et l’hydrogène vert ? (9) Ce qui est sûr cependant, c’est qu’à moins d’une catastrophe mondiale, la demande d’énergie ne va pas se tarir d’ici 2050.
Jean-Claude Bernier et Françoise Brénon
Janvier 2021
Pour en savoir plus
(1)° Éthylène, fabrication industrielle (site l'Élémentarium)
(2) Comment assainir l’atmosphère des villes ? L’hydrotraitement (Réaction un clin d'oeil)
(3) L’extraction du pétrole et du gaz (vidéo CEA)
(4) L’Union des industries chimiques (UIC) tire la sonnette d’alarme
(5) Polémiques dans le monde des biocarburants
(6) Zoom sur l'amidon : de l’amidon aux polymères biosourcés
(7) Les solvants biosourcés : opportunités et limitations
(8) Pour une industrie chimique propre et durable (Chimie et…junior)
(9) Qu’est-ce que l’hydrogène vert ?
Illustration : Raffinerie de Port-Jérôme-Gravenchon, Wikimedia, Gérard-travail personnel, CC BY-SA 4.0
En cette fin d’année l’expression « ça sent le sapin » doit perdre son sens argotique pessimiste et plutôt se compléter par « ça sent bon le sapin de Noël ». À l’approche du 25 décembre 2020 nous avons besoin d’une bouffée d’optimisme et, même si nous sommes déconfinés ou confinés, le sapin traditionnel dans le salon va agir comme une douce thérapie.
Nous l’avons acheté « bio », ou même « loué » si nous sommes d’abord écologistes, puis décoré avec nos guirlandes aluminisées et celles parsemées de LED multicolores.
Nous avons ainsi déjà profité de ses odeurs fraiches et boisées (1). Le pin sylvestre dégage plus de 44 composés olfactifs (2). Le principal responsable est la pinène (C10H16), présente sous ses deux formes isomères α et β. L’α-pinène présente dans l’essence de térébenthine est aussi connue comme antiseptique présente aussi dans la sauge. L’autre odeur fraiche du sapin est celle de l’acétate de bornyle à l’odeur de résine fraîche, utilisé aussi dans les parfums ou les désodorisants. Synthétisé par plusieurs conifères il est aussi utilisé en phytothérapie pour ses propriétés sédatives (3).
On notera en passant que la structure des molécules peut avoir une influence forte sur la chaine cellules olfactives - transmissions nerveuses au cerveau et - codes de reconnaissance. C’est le cas par exemple des deux énantiomères S-(-) limonène α et R–(+) limonène β : le premier à l’odeur de citron et le second à l’odeur d’orange (4).
Mais il n’y a pas que le sapin et ses parfums pour vous réconforter en cette période de Noël. Il y a bien sûr l’odeur du chocolat chaud qui contient des polyphénols excellents pour l’organisme mais aussi des endorphines stimulantes et euphorisantes idéales en hiver (5).
Ainsi le pain d’épices avec le gingérol du gingembre, mais aussi sa saveur douce, sucrée et légèrement épicée et due à la zingérone qui s’est développée durant la cuisson.
Si vous aimez les marrons chauds, lorsqu’elles sont grillées les châtaignes dégagent quantité de composés volatils par réactions à haute température. La chaleur développe aussi diverses molécules dont le ? butyrolactone qui donne en bouche un léger gout sucré caramélisé ainsi que le furfural qui apporte le côté boisé avec une légère odeur d’amande (6).
Vous aurez aussi pour vous réchauffer un incontournable des marchés de Noël, hélas si peu nombreux cette année, le vin chaud. Même sans en abuser vous reconnaitrez son odeur avec les vapeurs d’alcool qui entrainent les parfums d’agrume, l’aldéhyde cinnamique et les phénols comme l’eugénol de la cannelle.
Voilà une thérapie simple et joyeuse pour les fêtes (7). Si vous n’avez pas de sapin, la chimie extractive peut vous fournir les huiles essentielles pour une aromathérapie. Vous avez le choix entre l’huile essentielle de coriandre, l’essence d’orange douce, ou les extractions de cannelle de Ceylan ou encore de sapin bouvier : alors à vos diffuseurs, mais attention comme dans tout traitement c’est la dose qui compte (8) !
Joyeuses fêtes.
Jean-Claude Bernier
Décembre 2020
Pour en savoir plus :
(1) Quand la chimie a du nez (vidéo)
(2) Les méthodes de mesure des odeurs : instrumentales et sensorielles
(3) Un exemple de production de substances actives : le pouvoir des plantes
(4) Zoom sur la chiralité et la synthèse asymétrique
(5) Les emplois thérapeutiques du chocolat
(6) Sucre et huile : des ingrédients clés pour la chimie biosourcée
(7) La nature pour inspirer le chimiste : substances naturelles, phytochimie et chimie médicinale
(8) La bonne chimie est-elle dans le bon dosage ?
Les bonnes nouvelles de novembre annonçant le début de la fin de l’épidémie du Covid-19 ont rempli d’espoir nos concitoyens qui lors du deuxième confinement ont plutôt le moral dans les chaussettes. Ce fut d’abord les laboratoires germano-américain Pfizer-BioNTech puis l’américain Moderna qui ont annoncé l’efficacité de leur vaccin respectivement à 90% et 94,5% à l’issue de données intermédiaires des essais de la phase 3. Il faut bien sûr attendre les rapports scientifiques complets des dossiers d’autorisation qui seront déposés à la Food and Drug Administration (FDA) aux États-Unis et à l’autorité sanitaire européenne qui doivent donner leur avis fin décembre. Ces deux vaccins sont composés de fragments d’ARN messager qui provoquent la synthèse de la protéine Spike qui induira une réponse immunitaire protégeant contre le Covid-19 (1). C’est apparemment la méthode d’approche scientifique (ARNm) la plus rapide mais à côté de ces deux laboratoires il y en a encore 9 dont on sait qu’ils ont déjà des résultats des essais de la phase 3 engagés sur plusieurs dizaines de milliers de volontaires : Johnson&Johnson – Janssen (vecteur viral), CanSino Biologics (Chine, vecteur viral), Sinopharm (Chine, virus inactivé), Gamaleya Research Institut (Russie, vecteur viral), Astra Zeneca (vecteur viral), Novavax (fragment d'antigène), Sinovac (Chine, virus inactivé), Bahrat Biotech (Inde, virus inactivé) (2).
Tous ont des essais cliniques importants dans de nombreux pays en particulier sur les soignants et les militaires dans les pays peu démocratiques. Par ailleurs Sanofi Pasteur avec GSK développe son vaccin en phase 3 (protéine recombinante) et Pasteur avec Themis (une autre protéine recombinante) serait en phase 2. La course au vaccin, avant même les autorisations de mise sur le marché, entraine des investissements énormes sur les chaines de fabrication et la logistique de l’acheminement des vaccins, car on parle ici non pas de millions de doses mais de milliards.
Prenons l’exemple des deux vaccins ARNm de Pfizer et Moderna, l’ARN est très instable et se dégrade rapidement à température ordinaire. C’est pourquoi on entrepose les molécules d’ARNm à basse température -80°C, elles baignent dans une solution aqueuse ionique enfermée dans des nanoparticules de lipides (capsules de gras) elles aussi sensibles à la chaleur. Pour éviter toute dégradation de l’efficacité du vaccin, Pfizer les conserve à -80°C et Moderna a su trouver une astuce pour ne les conserver qu’à -20°C.
Il faut donc de la fabrication à l’entrepôt du transport à la distribution aux hôpitaux ou pharmacies conserver la chaîne du froid. Si à -20°C les containers frigorifiques et les congélateurs dévolus à la conservation des matières alimentaires sont bien connus, à -80°C les ennuis commencent.
Les supercongélateurs (-80°C) sont pour l’instant des équipements de laboratoire avec des groupes frigorifiques qui fonctionnent avec le nouveau F-Gaz agréé en Europe. Plusieurs fabricants allemands dont Binder et un français Froilabo à Meyzieu près de Lyon peuvent livrer des armoires de 300 à 700 litres à des prix avoisinant 10 000 €, difficile cependant à équiper tous les hôpitaux et pharmacies d’ici le printemps 2021.
Il faut donc penser à des containers ou coffres isothermes qui pourront conserver à basse température durant plusieurs jours les doses de vaccins. Une entreprise spécialisée Olivo en France fabrique des armoires et conteneurs isothermes transportables fonctionnant avec deux types de réfrigérants :
- les cartouches en polyéthylène avec un gel eutectique. Ce sont, suivant les températures visées entre -21°C et -50°C, des solutions salines (3) avec NaCl (-21°) ou CaCl2 (-51°) pouvant contenir plusieurs centaine ou milliers de doses.
- à glace sèche. Les conteneurs comportent une certaine quantité de CO2 solide en neige ou en bâtonnets, on sait qu’à la pression atmosphérique il se sublime sans fondre à -78°C en absorbant pas mal de calories.
Ces containers sont isolés par plusieurs couches de polystyrène expansé avec des coefficients de qualité isotherme de 0,40W/(m2.K) qui permettent de maintenir plusieurs jours des températures aussi basses et pouvant aussi se recharger en CO2 solide. C’est une des solutions qui est retenue pour transporter par avion les millions de doses avec cependant une contrainte de sécurité pour la manipulation en zone de stockage et dans les avions, la ventilation nécessaire pour ne pas accumuler le gaz carbonique au-delà de 8% dans l’air pour les employés et pilotes.
Un aspect qui est aussi important est la mise sous flacon car il semble que l’on ne pourra distribuer les vaccins que sous forme multi-doses. C’est pourquoi les usines du verrier allemand Schott et de la filiale SGD Pharma de Saint-Gobain tournent à bloc pour l’intense fabrication de tubes et flacons en verres borosilicatés (type Pyrex bien connu des chimistes) (4) pouvant bien tenir aux variations de température. Encore faudra-t-il les remplir c’est ce que fera Delpharm en Eure-et-Loir qui vient d’investir plusieurs millions d’euros pour une chaine de remplissage stérile spécifique pour les paramètres de froid, capable de traiter plusieurs dizaines de millions de doses fournies par les deux sites de BioNTech en Allemagne.
Espérons que les autres vaccins en développement permettront d’être conservés entre -5°C et 0°C, ce qui simplifierait la fabrication, le transport et la distribution. Les chiffres annoncés par les laboratoires et les états qui frisent au total de 5 à 10 milliards de doses en flux tendus pour la population mondiale avec la mobilisation de plusieurs milliers de Boeing 747 et des centaines de millions d’emballages donnent le vertige. Pour Sanofi la production de l’antigène a déjà démarré à Vitry sur Seine en R&D. Les usines dans le Rhône, en Allemagne en Italie et aux États-Unis sont prêtes à démarrer sitôt la phase 3 terminée et les autorisations délivrées, les capacités seraient de l’ordre du milliard par an.
Alors qu’en France la campagne de vaccination dès 2021 est programmée, penchez-vous sur les coulisses du chemin abrupt du labo à l’aiguille sur votre bras. C’est assez fantastique, non ?
Jean-Claude Bernier
Décembre 2020
Pour en savoir plus :
(1) Zoom sur les vaccins
(2) Un vaccin, oui, mais quel vaccin ?
(3) Pourquoi met-on du sel sur les routes lorsqu’il gèle en hiver ?
(4) Comment faire des vitres avec du sable ? La réaction de fusion du verre
C’est le dimanche 8 novembre que sont partis des Sables d’Olonne les 33 voiliers du Vendée Globe 2020. Comme précédemment on s’attend à ce que le record de 2016 (1) soit battu compte tenu des innovations et nouveaux matériaux appliqués à ces voiliers IMOCA de 18 mètres préparés pour la course autour du monde depuis plusieurs années. Ce sont en effet des vitrines de technologie : mâts et coques en fibres de carbone, accastillages en titane, voiles en Kevlar ou fibres de carbone tissées, informatique et caméras embarquées du dernier cri. Mais cette année l’innovation la plus importante est sans doute la quasi-généralisation des « foils » (2).
Alors que dans la précédente édition 7 bateaux étaient pourvus de foils, cette année c’est plus de la moitié de la flottille, 19 navires sur 33, qui portent ces impressionnantes moustaches. De plus elles ont grandi. En 2016 les foils mesuraient 2 à 3 mètres, en 2020 ils font de 5 à 6 mètres. Conçus sur le même principe que les ailes d’avion, leur profil permet, lorsque plongés dans l’eau avec une certaine vitesse, de soulever la coque et donc de réduire les frottements et la prise au vent et ainsi gagner 20 à 30% en vitesse pure. Ces foils sont maintenant fabriqués par plusieurs entreprises du Morbihan. Ils sont en fibres de carbone entremêlées en 3D imprégnées de polyester (3). Un moule spécial en mousse reçoit les différentes couches de drapages sur plusieurs centimètres d’épaisseur. Après démoulage la cuisson permet de polymériser la résine (4) et donne la forme rigide du foil. Bien que légers les foils doivent cependant être très résistants car en plus des forces aérodynamiques ils supportent le poids du voilier qui se soulève et qui fait en tout 7 à 8 tonnes. Les cabinets d’études et les entreprises bretonnes ont dû repenser l’architecture des bateaux en fonction de ces foils et de leurs puits qui vont donner des allures inédites à ces « Imoca » de folie. Parallèlement c’est toute une industrie de R&D et de PME innovantes qui font de la Bretagne une vitrine des matériaux composites (5) de hautes performances qui est maintenant sollicitée pour des projets de navires de haute mer (6).
Il y a aussi cette année des originalités marquantes. Le skipper Sébastien Destremau sur son bateau « Merci » dans un souci écologique s’est équipé d’une « casquette » en carton. Dans le jargon nautique la « casquette » n’a rien d’un couvre-chef, c’est une pièce à l’arrière du bateau qui sert à protéger le barreur des embruns et du vent glacial. C’est la société DS Smith de Loire-Atlantique spécialisée dans les emballages recyclés qui a fourni 100 m2 de carton ondulé. Et c’est Stéphane Munoz « sculpteur cartonniste », créateur de meubles en papier rigide, qui a fabriqué la pièce de 3,6 m de longueur jusqu’à la veille du départ et qui a reçu un glaçage avec une résine époxy sans solvant. La casquette gardera-t-elle son imperméabilité lors du voyage ? Le skipper est engagé dans une démarche de réduction de son empreinte carbone (7) et il ne vise pas une place parmi les premiers de cette édition 2020.
Un autre bateau, l’Imoca « Newrest – Arts & Fenêtres » avec son skipper Fabrice Amedeo, mène aussi une démarche écologique. Il veut, avec trois laboratoires de l’IFREMER, de l’université de Bordeaux et de l’IRD, profiter de son périple dans des zones océaniques peu explorées pour recueillir et analyser les microplastiques. On sait qu’avec la dispersion des matières plastiques, on trouve dans les océans des milliards de billes de plastique de tailles comprises entre 300 et 50 microns qui suscitent des inquiétudes pour l’équilibre marin et des menaces pour la vie des poissons. Le bateau est équipé d’un capteur disposant de trois filtres de calibres différents. Le skipper devra changer les filtres toutes les 24 heures en notant sa position et recueillir les boites à filtres pour les analyses chimiques (8) ultérieures (polystyrène, polyéthylène, polyamide…) qui doivent permettre d’établir une cartographie de ces microplastiques dans les océans. Fabrice Amedeo ne vise pas le record de 74 jours : il emporte avec lui 85 jeux de filtres pour 85 jours en mer.
Cela rappelle l’aventure et le projet « Plastic Odyssey » lancés en 2018 par deux jeunes ingénieurs dont l’ambition est de faire marcher un navire avec les déchets plastiques trouvés sur les plages les plus polluées d’Afrique et d’Asie. Après une maquette de démonstration, ils ont acquis avec l’aide de nombreux sponsors et ONG un vieux navire océanographique le « Victor Hansen » qu’ils sont en train d’aménager avec un réacteur de pyrolyse à 400°C qui va dépolymériser ces déchets et les recycler sous forme d’une huile lourde récupérée par distillation, pouvant alimenter les moteurs de leur navire. Après avoir été bloqué plusieurs mois à Boulogne pour cause de désamiantage, le rétrofit est en cours. Ils pensent partir en 2021 pour un tour du monde avec multi-escales pédagogiques pour démontrer les possibilités du recyclage chimique des plastiques dont l’Europe et le monde auraient bien besoin.
Jean-Claude Bernier
Novembre 2020
Pour en savoir plus :
(1) Moins de 80 jours grâce à la chimie ?
(2) La chimie, une histoire de foils
(3) Les chimistes dans l’aventure des nouveaux matériaux
(4) Les polymères, ce qu’il faut savoir ! (vidéo)
(5) Les matériaux composites dans le sport
(6) Chimie et construction navale
(7) Papiers/cartons : les bons élèves du recyclage et du bilan carbone
(8) Techniques analytiques et chimie de l’environnement
Crédit photo : IMOCA Merci © Sébastien Destremau
Le prix Nobel de chimie 2020 vient d’être attribué à la française Emmanuelle Charpentier et à l’américaine Jennifer Doudna. Elles sont récompensées pour la découverte d’un outil génétique formidable, le CRISP-Cas9. On connait tous l’ADN molécule charpente de nos génomes (1) et caractéristique de toutes les cellules, dont les nôtres. Pour modifier ou éditer le génome il faut pouvoir modifier les séquences de cette molécule. Jusqu’en 2012 on utilisait d’abord des nucléases dites à doigt de zinc, des méganucléases puis des nucléases de type activateur de transcription (2). Ces méthodes nécessitaient des opérations de biologie moléculaire et étaient longues et exigeantes en instruments et équipements spéciaux donc onéreuses.
Or, dans la nature, de nombreuses bactéries possèdent dans leurs génomes de longues séquences qui se répètent régulièrement appelées CRISPR (Clustered Regurarly Interspaced Short Palindromic Repeats). Ces séquences permettent aux bactéries de conserver la mémoire d’une infection par un virus pour s’en débarrasser lors d’une prochaine attaque.
En effet lors de l’infection par un virus, des séquences de celui-ci sont intégrées au sein des propres séquences CRISPR du génome de la bactérie. Lors d’une nouvelle infection, l’ADN viral au sein du CRISPR est recopié en ARN associée à la protéine Cas9 qui alors se fixe sur l’ADN du virus et l’inactive en le coupant (3).
Toute l’intelligence d’Emmanuelle Charpentier et de Jennifer Doudna a été de s’inspirer de ce mécanisme mis en jeu par des bactéries pour couper des brins d’ADN à un endroit précis du génome pour n’importe quelle cellule, comme un ciseau moléculaire. L’outil biologique est alors constitué d’une ARN guide associée à l’enzyme Cas9. Une fois l’ADN coupée on peut intervenir dans le système de réparation qui va recoller les deux extrémités du brin d’ADN soit :
- en ajoutant ou en enlevant des nucléides à chaque extrémité des morceaux du brin. On provoque alors une anomalie de la séquence cible, le gène devient alors inactif ou réparé.
- en ajoutant une séquence d’ADN synthétique (4) sur l’anomalie génétique repérée sur la séquence. Le système de réparation l’intègre au niveau de la coupure et le gène est corrigé et réparé.
Le schéma suivant résume assez bien l’opération. Cette méthode découverte par les deux chercheuses est précise, peu coûteuse et facile à mettre en œuvre, ce qui a permis à des milliers de laboratoires de l’utiliser dans le monde entier après 2015 car les applications sont nombreuses.
Sur les animaux, des chercheurs après identification des gènes responsables ont pu grâce à cette méthode augmenter la masse musculaire de chiens, créer des vaches laitières sans cornes.
Sur les végétaux par CRISPR on a créé des champignons de Paris qui ne brunissent pas lorsqu’on les coupe. On a aussi imaginé des plantes vivrières résistantes mieux à la sécheresse pour les pays chauds…
L’INSERM a ainsi travaillé sur les gènes d’anophèles pour donner une race de moustiques résistante au paludisme et qui en se multipliant ne peuvent plus transmettre ce fléau (5).
De nombreux chercheurs dont Jennifer Doudna ont attiré l’attention sur les problèmes éthiques posés par cette découverte qui peut multiplier à l’échelle de la planète les modifications génétiques. Déjà en Europe il y a une retenue générale sur les applications aux plantes « génétiquement modifiées ». Dans le monde il semble aussi y avoir un consensus sur les applications à l’homme et la recherche sur les fœtus. Plusieurs biologistes éminents se sont prononcés sur les dangers de modifier le patrimoine génétique germinal qui peut le transmettre à la descendance et toucher ainsi au patrimoine génétique de l’humanité. Pour l’instant, en 2020 Jennifer Doudna poursuit ses recherches à l’université de Californie à Berkeley et Emmanuelle Charpentier est directrice de l’Institut Max Planck « sur la science des pathogènes » à Berlin où elle continue ses recherches en biologie commencées à l’Institut Pasteur de Paris (1992-1995).
Jean-Claude Bernier
Octobre 2020
Pour en savoir plus
(1) La chimie dans les empreintes génétiques
(2) L’édition du génome : une révolution en marche
(3) Outils CRISPR pour étudier et combattre les bactéries pathogènes
(4) De la chimie de synthèse à la biologie de synthèse
(5) Les maladies tropicales négligées. Un modèle coopératif au service de l’innovation scientifique et médicale
Ciblage des défauts de réparation de l’ADN : nouvelles molécules et approches thérapeutiques utilisant la létalité synthétique
Manipulation génétique : des ciseaux moléculaires à double tranchant
Crédits : infographie © Ask Media pour le Parisien ; portraits © Nobel Media. III. Niklas Elmehed
Les annonces se sont multipliées cet été sur « les vaccins » contre la Covid-19 (1). Un vaccin américain promis en juin par Donald Trump avant octobre, l’homologation d’un vaccin russe annoncée en août par Vladimir Poutine… Sont sur les rangs 167 projets dont 30 sont en phase préclinique et 8 qui seraient dans les dernières phases de tests en Chine, aux États-Unis, au Royaume-Uni, en Russie. Ces annonces plus politiques que scientifiques montrent s’il en était besoin l’importance du challenge à la fois nationaliste et financier de cette course au vaccin.
Qu’est-ce donc qu’un vaccin ?
Un vaccin peut être une macromolécule chimique ou un produit d’origine biologique composé de plusieurs entités moléculaires.
Son objectif est de protéger d’une maladie les populations auxquelles il est administré. Ils font tous appel au même principe : stimuler les défenses immunitaires contre un agent infectieux en introduisant dans l’organisme cet agent ou une fraction de cet agent (un antigène) rendu inoffensif pour l’homme. C’est ce même principe qui permit à Edward Jenner en 1796 d’expérimenter sur un jeune garçon l’inoculation du pus d’une maladie de la vache « la vaccine » qui l’a protégé d’une maladie qui faisait des ravages depuis l’Antiquité « la variole » : la vaccine contenait un antigène bénin de la maladie qui tuait l’homme. Puis Louis Pasteur en 1880 fit un pas de plus en proposant « l’atténuation de la virulence » en laboratoire et l’a appliquée contre le charbon et la rage (2).
La mise au point et la fabrication d’un vaccin sont souvent longues et complexes avec un chemin marqué à chaque étape par les contrôles de qualité et de sécurité.
La substance active
Il faut produire un antigène (3) provenant du germe qui provoque la maladie, virus, bactérie ou parasite. Cet antigène va par la suite déclencher une réponse immunitaire par la synthèse de nouvelles molécules dirigées contre lui. Ces molécules, dites anticorps, sont produites par des cellules immuno-compétentes qui vont renseigner les caractéristiques de l’ennemi et mémoriser l’ensemble de ses caractéristiques. Ainsi en cas de nouvelle attaque l’ennemi est vite repéré, reconnu et neutralisé.
L’antigène peut être un germe vivant atténué (cas des vaccins contre les oreillons, la rougeole, la tuberculose) ou un germe ou une fraction de germe inactivé. Maintenant certains vaccins sont produits par génie génétique, ils sont appelés vaccins vivants recombinants (vaccin contre l’hépatite). Les gènes responsables du pouvoir pathogène sont inactivés ou éliminés. Les bactéries ou les virus sont alors inoffensifs mais reconnus comme identiques aux souches naturelles par le système immunitaire.
La fabrication du vaccin et la mise en forme pharmaceutique
La fabrication se fait selon les étapes suivantes. Il faut :
- caractériser le germe au sein d’une banque regroupant des virus ou des bactéries avec des propriétés constantes ;
- maitriser la culture et multiplier les germes grâce au contrôle des différents paramètres : durée, température, pression… ;
- récolter par extraction du milieu de la culture l’antigène ou tout facteur antigénique identifié ;
- purifier et concentrer en enlevant les impuretés à travers des procédés chimiques (extraction, centrifugation) ;
- inactiver la substance, en fonction des cas par la chaleur ou un agent chimique (par exemple le formaldéhyde – méthanal - qui supprime le pouvoir pathogène, en gardant la capacité à déclencher la réponse immunitaire ;
- utiliser des techniques de recombinaisons génétiques qui permettent aussi de susciter par le virus ou la bactérie des antigènes d’autres organismes. Le rassemblement des valences antigéniques dans un seul composé permet alors de vacciner contre plusieurs bactéries ou virus (cas du vaccin antipoliomyélite contre 3 types de poliovirus).
La mise en forme pharmaceutique passe par les étapes suivantes :
- assemblage des valences pour les vaccins combinés, comme le TABDT (typhoïde, paratyphoïde A et B, diphtérie et tétanos) ou le DT-Polio (diphtérie, tétanos, poliomyélite)
- formulation par ajout d’adjuvants pour améliorer l’efficacité et augmenter la réponse immunitaire (sels d’aluminium) et stabilisants (4). Cette étape est très critique dans l’ensemble du processus, car le vaccin préparé n’est pas forcément très immunogène, il doit être accompagné de substances capables de l’aider à déclencher une réponse immunitaire parfaitement maitrisée. Il faut savoir que la réponse immunitaire implique une coopération cellulaire. Elle est très dépendante des caractéristiques de chaque individu, d’où la difficulté de trouver un vaccin universel sans effets secondaires majeurs pour l’ensemble de la population ;
- répartition aseptique en flacon ou en seringue en milieu stérile ;
- lyophilisation pour enlever l’eau si nécessaire et obtenir une poudre ;
- conditionnement, étiquetage et mise en boite des lots qui peuvent représenter des millions de doses ;
- contrôle par l’industriel et une autorité indépendante et libération des lots ;
- livraison des lots en pharmacie, hôpitaux, centres de vaccinations.
Et pour la Covid-19 ?
il faut se rappeler ici que nous avons affaire à un virus et comprendre comment se font aussi les vaccins contre la grippe (5) causée par des virus de même genre, dits mixovirus. Chaque année des experts sélectionnent une collection d’agents infectieux qui varient d’une campagne à l’autre par mutations et constituent une banque de virus pathogènes. Les industriels cultivent alors ces virus sur des œufs de poules puis en extraient l’antigène ou des substances antigéniques, et les concentrent suivant les étapes de fabrication déjà décrites. La stratégie pour le coronavirus peut être la même en s’assurant que l’inactivation du virus sera stable.
L’autre stratégie consiste à se focaliser sur la protéine Spike cette fameuse « clé » qui se dresse autour de la sphère du coronavirus et qui se fixe sur les cellules nasales. Cette protéine peut être aussi synthétisée et produite par génie génétique (injection de l’ARN correspondante et production en masse de cette protéine d’intérêt) (6).
On dispose donc plusieurs stratégies : celle de la protéine recombinante (génie génétique) ou celle de l’extraction du virus de base.
Le groupe Sanofi Pasteur, un des leaders des vaccins contre la grippe et vaccins pédiatriques, mise comme pour la grippe sur ces deux aspects en association avec la société GSK (GlaxoSmithKline). Le vaccin semble être en phase de développement clinique, ce qui permettrait si tout se passe bien une mise sur le marché de plusieurs milliards de doses courant 2021. Il en est de même avec l’américain Translate Bio.
Il n’en reste pas moins vrai que la route avant la commercialisation est longue (7). Après les essais précliniques sur animaux, intervient la phase 1 où l’administration de doses est faite sur 10 à 100 personnes, puis l’administration concerne 50 à 500 personnes en phase 2 et lors de la troisième phase plusieurs milliers de personnes dans une zone où le virus circule activement. Déjà AstraZeneca a suspendu ses essais le 8 septembre à la suite de troubles graves sur certains patients au Royaume-Uni puis a pu reprendre les essais après quelques jours.
Le vaccin russe n’a pas encore entamé la phase 3, de même aux États-Unis. On ne sait pas grand-chose pour les vaccins chinois. C’est lors de la phase 3 que se manifestent les problèmes de sécurité et d’efficacité avec un lot de surprises. Les premiers à entrer dans la dernière phase ne seront pas forcément les premiers sur le marché et c’est encore là que se testeront les vaccins avec des efficacités plus ou moins bonnes.
Jean-Claude Bernier, Danièle Olivier et Constantin Agouridas
Octobre 2020
Pour en savoir plus
(1) Le coronavirus, un défi pour la chimie du vivant
(2) Pasteur et le vaccin contre la rage (vidéo)
(3) Immunoconjugués cytotoxiques, anticorps « armés » contre le cancer
(4) Les adjuvants aluminiques dans les vaccins
(5) Frimas, rhumes et grippes…
(6) L’innovation diagnostique au service des défis de la médecine personnalisée pour la prise en charge du sepsis et des maladies infectieuses
(7) La chimie dans la vie quotidienne : au service de la santé (Chimie et… junior)
Le 23 juillet 2020, la Commission européenne a présenté à Bruxelles les plans pour le système énergétique de l’avenir et pour l’hydrogène propre. Ces plans doivent ouvrir la voie à un secteur de l’énergie plus efficace et plus interconnecté. Les stratégies prévoient un nouveau programme d’investissements dans les énergies propres dans le cadre du plan de relance, pour stimuler la reprise économique suite à la crise du coronavirus. Parmi ces programmes s’inscrit « la stratégie de l’Union européenne pour l’hydrogène » et dans la foulée se crée « l’alliance européenne pour un hydrogène propre » avec les industriels du secteur, la société civile, les ministères nationaux et la Banque européenne d’investissement.
À cet effet et concrètement, la feuille de route de la transition est la suivante :
- de 2020 à 2024 installer 6 GW d’électrolyseurs, avec l’objectif de produire un million de tonnes d’hydrogène « vert » (1)
- de 2024 à 2030 dans un système énergétique intégré, disposer de 40 GW d’ électrolyseurs pour produire annuellement 10 millions de tonnes d’ hydrogène renouvelable (on peut rappeler que la production électrique en France a été de 537 TWh pour une puissance installée de 133 GW)
- au-delà et jusqu’en 2050 déploiement à grande échelle dans tous les secteurs à décarboner.
Emboitant le pas à la marche politique triomphale vers le verdissement de ce gaz léger cher aux chimistes, l’Allemagne a annoncée fin juin vouloir devenir le numéro 1 du secteur avec 9 milliards € d’investissement suivi par la France qui en ce début septembre annonce y consacrer 2 milliards € dans le plan de relance.
L’hydrogène serait-il devenu comme le protoxyde d’azote un gaz hypnotique pour nos politiques ? Nos lecteurs de mediachimie.org connaissent bien l’hydrogène comme vecteur énergétique et ses applications.
C’est un gaz industriel important, 75 millions de tonnes sont fournis annuellement à l’industrie pour la désulfuration en pétrochimie (2), la synthèse de l’ammoniac et des engrais azotés (3), mais aussi pour l’alimentaire, l’électronique, la métallurgie sans oublier le spatial. En France la production est de 1 million de tonnes et à 96% cet hydrogène vient du vaporeformage (4) qui correspond à la réaction suivante 2 H2O + CH4 = CO2 + 4 H2 . Une réaction similaire est possible avec les hydrocarbures, et la production d’une tonne d’hydrogène s’accompagne donc de 6 à 10 tonnes de gaz carbonique d’où le nom d’ « d’hydrogène gris », dont le prix de revient est de l’ordre de 1 € /kg.
Actuellement, pour moins de 4%, l’hydrogène est produit par l’électrolyse de l’eau. Le procédé le plus mature est l’électrolyse alcaline avec une solution de potasse comme électrolyte. Les procédés modernes utilisent des électrodes bipolaires et travaillent sous une pression de 30 bars pour un rendement électrochimique supérieur à 70%. À l’anode on dégage de l’oxygène
2 OH- → ½ O2 + H2O + 2e-
et à la cathode se dégage l’hydrogène
2 H2O + 2e- → H2 + 2 OH-
Une autre méthode est l’échange sur membrane polymère avec catalyseur platine dite PEM pratiquement l’inverse de la pile à hydrogène, qui a un bon rendement mais moins mature du point de vue industriel.
Cet hydrogène issu de l’eau revient de 3 à 6 €/kg en fonction du coût de l’électricité. Si celle-ci est produite par procédé renouvelable, éolien, photovoltaïque ou l’hydraulique alors il est dit « hydrogène vert ». On comprend bien que la politique de décarbonisation de l’énergie (5) conduit à condamner le vapo reformage et à fixer comme objectif la croissance des couples électricité renouvelable-électrolyseur.
Voyons si la stratégie européenne est compatible avec les contraintes électrochimiques, thermodynamiques et économiques.
De nombreux industriels maitrisent assez bien l’électrolyse. Plusieurs français dont McPhy commercialisent des installations de plusieurs MW. L’exemple d’Apex Energy ,qui dispose d’électrolyseur des 2 MW, produit environ 1000 m3/h soit environ 700 t /an. Si elle fonctionne avec une énergie renouvelable dont le taux de charge est au mieux de 25% on peut compter par MW de 100 à 120 t/an. Une installation de 1 GW produira alors 120.000 tonnes et les 6 GW prévus en Europe en 2024, 720.000 tonnes soit 7% de la consommation européenne de 10 millions de tonnes.
À quel prix ?
Une très belle étude de l’APHYPAC * donne pour 2020 un coût de l’ordre de 1000 € à 800 € /kW pour un électrolyseur couplé à un réseau d’électricité renouvelable soit donc 1 milliard € à 800 millions € par GW. On comprend alors le prix du ticket d’entrée pour cette transition.
Sur quelle surface ?
Avec les derniers progrès des électrodes bipolaires et la pressurisation pour l’électrolyseur on compte 45 m2 d’emprise au sol /MW soit donc 4,5 hectares pour 1 GW, auquel il faudrait ajouter l’emprise au sol du champ d’éoliennes ou de panneaux photovoltaïques, soit 200 éoliennes de 5 MW sur 100 hectares ou 1 GW de photovoltaïque sur 2000 hectares, à moins de produire en off-shore. On voit que les contraintes financières et physiques à l’échéance 2050 ou même 2030 ne sont pas aussi simples que l’on pense.
Alors, pourquoi cet emballement politique, financier et médiatique ?
C’est que les promesses de l’industrie de l’hydrogène sont importantes. Passons sur l’opportunité de l’hydrogène décarboné pour l’industrie chimique et métallurgique si son prix arrive à concurrencer celui du vaporéformage.
Le secteur du transport est lui bien concerné par un carburant non polluant ne laissant comme gaz d’échappement que de l’eau et de l’azote grâce à la pile à hydrogène (6) (7) fournissant l’électricité aux moteurs. Grâce à des champions européens Alstom, Air liquide et Linde les trains Coradia iLint (8) roulent déjà en Allemagne et vont bientôt remplacer nos vieux TER régionaux. Le secteur des poids lourds qui peuvent eux aussi supporter le poids du « pack » de la pile à hydrogène est en attente. L’exemple de la jeune société américaine Nikola Corporation spécialiste des camions à hydrogène valorisée à 30 milliards de dollars à son entrée en bourse est tout simplement fou. Pour l’automobile des particuliers, la bataille sera rude entre le véhicule électrique et celui à hydrogène (9). Le poids et le prix du « pack » et du réservoir composite tenant à la pression de 700 bars représentent près de 50% du prix de l’automobile (32.000 € sur 70.000 €). Le prix à la pompe du kg d’hydrogène, le manque de station haute pression, le mauvais rendement thermodynamique, handicapent pour l’instant son développement.
En sachant qu’un électrolyseur de nouvelle génération fournit environ 1 Nm3 d’hydrogène par 3,5 kWh, et si on suppose que l’hydrogène vert est issu d’une source électrique ne dégageant pas de CO2 alors l’électricité nucléaire à 4 centimes du kWh mettra le kg d’hydrogène à 1,30 € concurrent de l’hydrogène gris. Serait-ce l’hydrogène « vert clair » ?
* Production d’hydrogène par électrolyse de l’eau (fiche 3.2.1)-Association française pour l’hydrogène et les piles à combustible
Septembre 2020
Jean-Claude Bernier
Pour en savoir plus
(1) Qu’est-ce que l’hydrogène vert ? (Question du mois)
(2) Comment assainir l’atmosphère des villes ? L’hydrotraitement (Fiche Réaction en un clin d’oeil)
(3) Comment fabriquer des engrais avec de l’air ? La synthèse de l’ammoniac (Fiche Réaction en un clin d’oeil)
(4) Et revoilà l’hydrogène
(5)L’hydrogène, une source d’énergie pour le futur
(6) H2O ou comment la synthèse de l’eau conduit à la pile à hydrogène ? (Fiche Réaction en un clin d’oeil)
(7) Hydrogène, la roue libre (vidéo)
(8) Vive le Coradia iLint
(9) De nouveaux véhicules automobiles pas très verts !
La récente explosion à Beyrouth au Liban qui a entrainé une véritable catastrophe humaine et matérielle est, semble-t-il en attendant les conclusions d’une commission d’enquête, due à l’explosion de 2700 tonnes de nitrate d’ammonium (NH4NO3) stockés depuis plusieurs années dans un entrepôt sur le port avec d’autres produits inflammables.
On peut rappeler que pour augmenter la production des cultures depuis l’Antiquité les hommes ont cherché à amender leurs terres. Les plantes pour croître ont besoin de soleil, de CO2 et d’eau pour la photosynthèse (1), mais aussi d’éléments minéraux comme l’azote, qu’ils ne peuvent fixer dans l’air. On ajoute alors des engrais azotés pour améliorer les rendements, l’ammonitrate a permis depuis deux siècles de multiplier par 10 les rendements des plantes vivrières et de faire face à l’augmentation de la population de la planète. Ce fut d’abord l’importation du « guano », excréments marins riches en azote des îles proche du Pérou, puis les nitrates de soude du Chili jusqu’au début des années 1900. Après 1909 deux chimistes allemands Fritz Haber et Carl Bosch (2) mettent au point la synthèse de l’ammoniac à partir de l’azote de l’air et d’hydrogène (N2 + 3H2 = 2 NH3), puis, par barbotage de l’ammoniac dans l’acide nitrique ou oxydation catalytique, on produit le nitrate d’ammonium NH4NO3. Cet engrais sous forme de granulés est très employé en agriculture. La production mondiale est proche de 120 millions de tonnes (en tonnes d’azote).
Le problème est que durant la Grande Guerre de 14-18 l’industrie allemande a utilisé le nitrate mélangé avec environ 6% d’hydrocarbure pour en faire des explosifs qui ont servi à faire des milliards d’obus et de munitions. Lors du traité de paix de Versailles en 1919 les brevets allemands furentl’objet de tractations sévères pour que la France puisse à son tour produire le nitrate qui a conduit à l’usine ONIA (Office national industriel de l’azote) à Toulouse devenue plus tard AZF, usine qui a explosée en septembre 2001. en effet, mélangé à certains produits réducteurs (cellulose, huile, fuel) ou à des catalyseurs, le nitrate peut être déstabilisé. De même, avec la température, il peut se décomposer, fondre, puis au bout d’un certain temps, pris dans un incendie, exploser après l’apparition de vapeurs rousses qui sont de l’oxyde d’azote NO2 car NH4NO3 fait partie des « groupements explosophores » (3). NO3 est une réserve d’oxygène qui peut se combiner avec le carbone, l’hydrogène ou le soufre en dégageant des quantités phénoménales de gaz qui vont provoquer une onde de choc s’ils sont confinés dans une enceinte fermée, bâtiment ou navire. Regardons en effet la décomposition thermique :
NH4NO3 → NO + N + 2 H2O
La réaction stœchiométrique montre que 80 grammes de nitrate vont donner environ 80 litres de gaz. Comme la densité du nitrate est proche de 2 on a donc une expansion volumique d’un facteur 2000 cela veut dire que 8 tonnes de nitrates occupant approximativement un volume de 4 m3 vont exploser en donnant 8000 m3 de gaz dans une enceinte fermée de 100 m3 cela entraîne une pression de plus de 80 atmosphères qui fait tout voler en éclat. Imaginez alors que les 2700 tonnes de Beyrouth prises dans l’incendie vont dégager d ‘abord une fumée rousse de NO2 (NO oxydé avec l’oxygène de l’atmosphère) puis un mélange blanc d’azote et de vapeur d’eau d’un volume total de l’ordre de 3 millions de m3. Si le bâtiment de stockage faisait 3000 m3 la pression de l’onde de choc est de plus de 1000 atmosphères détruisant tout dans des kilomètres à la ronde. Décomposition et confinement sont les deux artisans de l’explosion destructrice.
Au cours du temps les accidents n’ont pas manqué :
- en 1921 à Oppau sur le grand complexe chimique de BASF près de Ludwigshafen. Pour éviter de gratter à la pioche les tas de nitrates une équipe utilise des cartouches de dynamite. L’une d’elle, trop forte, provoque l’explosion de tout le stockage entrainant 586 morts, des milliers de blessés et la destruction du complexe chimique.
- en 1947 à Brest un Liberty Ship norvégien avec 300 tonnes de nitrates prend feu. Le navire est éloigné du quai mais pour étouffer l’incendie on ferme les cales, entrainant confinement et explosion et causant 26 morts et plusieurs milliers de blessés.
- en 1947 encore, à Texas City sur le port, un Liberty Ship français explose avec 2000 tonnes de nitrates. Presque tous les pompiers qui étaient mobilisés sur l’incendie sont tués.
- en 2001 à Toulouse le dépôt de 300 tonnes de nitrate d’AZF explose : 31 personnes tuées, 2500 blessés et des dégâts considérables sur Toulouse.
- en 2013, au Texas l’usine de la West Fertilizer Company explose lors un incendie : plusieurs centaines de morts.
- en 2015, au nord de la Chine à Tianjin, l’incendie de plusieurs tonnes de produits chimiques dont 800 tonnes de nitrates provoque une explosion et plusieurs centaines de morts.
Ce sont les accidents les plus connus et les plus récentes catastrophes, cela n’empêche cependant pas que des millions de sacs de granulés sont chaque année utilisés par l’agriculture mondiale dans des conditions de sécurité exemplaires et respectées.
Jean-Claude Bernier
Août 2020
Pour en savoir plus
(1) Le CO2, matière première de la vie
(2) Comment fabriquer des engrais avec de l'air ? La synthèse de l'ammoniac
(3) Les nouvelles techniques d’investigation des explosifs
On sait que pour être en bonne santé, les oligoéléments jouent un rôle majeur dans notre organisme ce sont des composés du zinc, du fer, du manganèse, du magnésium… En revanche on connait moins les vertus antibactériennes (antivirales ?) des métaux purs. En cette période de pandémie de la covid-19, il n’est pas étonnant qu’un renouveau des recherches sur des applications sanitaires se manifeste et notamment sur l’or, l’argent et le cuivre dans l’ordre décroissant des prix !
L’or (1) par sa couleur jaune a des reflets complexes dus au plasma de surface fluctuant qu’engendrent ses électrons de valence faiblement liés. Les plasmons de surface font actuellement l’objet d’études en particulier pour les nanoparticules (2) sans cependant que ces propriétés de surface fassent l’objet d’applications autres qu’en catalyse. L‘or métal est toutefois utilisé en chrysothérapie et en homéopathie.
L’argent est un métal qui a des propriétés germicide et bactéricide. Dans l’Antiquité (3) on se servait de plaques d’argent pour purifier l’eau. Couverts et plats revêtus d’argent eurent une réelle utilité tant qu’on ne pouvait pas disposer d’eau potable. De là vient l’usage d’offrir en cadeau de baptême aux enfants une timbale en argent. Cette propriété est maintenant redécouverte et utilisée avec les nanoparticules d’argent issues de solutions colloïdales (4). Elles sont utilisées comme germicides dans les textiles sportifs et pour les chaussettes afin d’éliminer les odeurs de transpiration. Dans les dispositifs médicaux, bandages et pansements, ce sont leurs propriétés bactéricides qui sont recherchées, de même dans les emballages alimentaires et les revêtements de parois de réfrigérateur. Avec la pandémie, des tissus imprégnés de particules d’argent et résistant plus de 20 fois au lavage ont été utilisés pour la fabrication de masques de protection.
Le cuivre (5). Parmi les nombreuses études sur le coronavirus, celles des universités de Californie (Los Angeles et Princeton) publiées dans le New England Journal of Medicine ont montré que le coronavirus SARS-CoV-2 (6) peut subsister entre 2 et 3 jours sur du plastique ou de l’acier inoxydable mais disparaît en moins de quatre heures sur le cuivre. Ces observations rejoignent les travaux du professeur Bill Keevil de l’université de Southampton qui depuis plusieurs années étudie la diminution drastique de colonies bactériennes sur le cuivre : Legionella, Escherichia coli par exemple, sont éliminées en quelques heures sur les surfaces, voire quelques minutes sur une poignée de porte en cuivre. Il semblerait d’après l’auteur que les ions Cu(I) et Cu(II) pénètrent dans la cellule des bactéries, y empêchent le transfert d’oxygène et cassent son ADN. Les vertus sanitaires du cuivre sont bien reconnues, ne serait-ce que par l’utilisation massive du cuivre dans nos habitations pour les canalisations et la distribution de l’eau sanitaire. En cette période, les fabricants innovent : une société américaine a sorti un masque en tissu imprégné de cuivre CuTEC antibactérien et le teste contre la Covid-19, une société chilienne a multiplié sa production par 25 en trois semaines avec un masque réutilisable contenant de fins fils de cuivre incrustés dans le tissu. Le Chili, qui est le premier producteur mondial de cuivre, espère profiter de ce marché nouveau. Dans les hôpitaux de ce pays le cuivre est largement utilisé pour les plans de travail, les ustensiles médicaux, les poignées de portes… Un industriel français Lebronze alloys (alloys signifiant alliages en anglais) précise ainsi que ses poignées de portes et ses mains courantes en alliage de cuivre sont aussi une barrière à l’infection, notamment dans les EHPAD.
La lutte contre la pandémie (7) est ainsi devenue métallurgique et variée, des autocollants en cuivre des universitaires américains aux masques à nanoparticules de cuivre (moins chers que l’argent) au Chili jusqu’aux équipements d’hôpitaux. On est loin des bassines en cuivre pour les confitures (8) qui nous paraissent d’un autre temps... Le temps d’avant ?
Jean-Claude Bernier et Catherine Vialle
Juin 2020
Pour en savoir plus
(1) L’or, élément chimique ou magique ?
(2) Nanomatériaux et nanotechnologie : quel nanomonde pour le futur ?
(3) Les métaux au fil de l’histoire (dossier pédagogique) (1266)
(4) Caractérisation des nanoparticules inorganiques dans les produits du quotidien : les méthodes d’analyse et les applications (2548)
(5) Comparaison de quelques alliages de cuivre et de zinc (956)
(6) Le coronavirus, un défi pour la chimie du vivant (2919)
(7) Covid-19 : la chimie médicinale à l’assaut des mécanismes de propagation virale (3032)
(8) Peut-on faire de bonnes confitures sans bassine en cuivre ? (1261)
Illustration : casque de cavalerie de Nimègue, masque de fer gainé de bronze et d'argent, seconde moitié du premier siècle, Museum het Valkhof, Nimègue (Pays-Bas)
Following Hadrian/ Flickr - Licence CC by-nc-sa 2.0
On a lu et entendu des arguments contradictoires sur l’influence du confinement imposé après le 15 mars sur la pollution à Paris. Une polémique avec sans doute quelques intentions électorales opposait les partisans d’une réduction drastique de la circulation automobile aux automobilistes convaincus que la pollution n’était pas seulement imputable à leurs engins. La réduction de la circulation automobile de plus de 80% en mars et avril était bien sûr une façon de vérifier les deux options et dire si la pollution à Paris avait vraiment diminué.
Notons en passant que le discours dominant repris par tous les media véhicule souvent des approximations. Il ne faut que se pencher sur les résultats d’un sondage Ipsos de 2018, qui posait la question : la pollution dans vos villes augmente-t-elle ou diminue-t-elle ? Les réponses étaient : elle augmente beaucoup pour 63%, un peu pour 25%, elle ne diminuait que pour 1% des sondés. En réalité depuis 20 ans grâce au sans plomb, à la désulfuration des carburants, aux pots catalytiques et au AdBlue, la chimie et les progrès en catalyse (1) ont réussi à faire diminuer nettement l’émission des polluants : -87% pour le CO, -80% pour C6H6, -44% pour NOx, -70% pour les particules fines, -80% pour SO2, et -100% pour le plomb (*).
Il était donc très intéressant de se faire une opinion basée sur des chiffres de mesures officielles d’Airparif et non sur des impressions vagues ou tendancieuses (2).
En effet l’île-de-France est particulièrement bien fournie en capteurs spécialisés par polluant et dispersés de façon très intelligente pour gommer tous aléas climatiques ou accidentels. C’est près de 110 stations qui traquent et mesurent SO2, CO, O3, NOx, PM2,5, PM10 24 heures par jour et 365 jours par an (3).
Airparif donne chaque jour l’indice Atmo et l’indice européen Citeair noté de 0 à 100 et il a été possible de consulter les graphiques mensuels (0 à 50 vert, 50 à 70 orange, plus de 70 rouge).
Pour février 2020 les indices sont tous verts avec une moyenne de 30 sauf 2 jours orange à 50. Jusqu’au 15 mars on est aussi dans une moyenne de 30 après le 15 apparaissent 6 jours consécutifs orange avec des indices supérieurs à 50-60 puis deux jours, le 27 orange et le 28 rouge avec un indice à 80. Pour le mois d’avril : 7 jours orange au-dessus de 50 jusqu’au 21 avril, ce qui est assez comparable à avril 2019 avec 14 jours orange au-dessus de 50.
On aurait vite fait pour certains de dire que les moyennes des indices de pollution pendant le confinement sont plus élevées qu’en période normale alors que le trafic automobile a diminué de plus de 80% et l’activité économique de plus de 30% et donc que la pollution a été plus importante durant le confinement à Paris. En réalité les choses sont bien plus complexes. Pour les 6 polluants mesurés l’indice Citeair est « l’indice du pire », il ne fait pas une moyenne pondérée des sous-indices. Si par exemple pour SO2, NOx, O3, PM10 les mesures donnent respectivement 50, 30, 70, 40 l’indice Citeair prendra le plus élevé (70) sans tenir compte des autres même s’il y a amélioration pour l’un.
On peut alors faire des moyennes en teneur réelles à partir des chiffres Airparif. De février jusqu’au 15 mars et du 16 mars au 20 avril sur le tableau suivant (**) :
stations | sans confinement | avec confinement | différence | |
trafic | 83 | 14 | 83% | |
PM10 | 23 | 17,6 | 24,4 | +39% |
PM 2,5 | 13 | 7,9 | 14,7 | +87% |
NOx | 40 | 57 | 36 | -37% |
O3 | 22 | 56,6 | 67,5 | +19% |
CO | 5 | 0,124 | 0,006 | -71% |
SO2 | 6 | 0,66 | 0,58 | -12% |
On peut alors voir que la baisse de la circulation a fait nettement baisser la teneur en oxydes d’azote mais pas dans les mêmes proportions que la baisse de la circulation (40% comparée à 80%), ainsi que la teneur en oxyde de carbone et oxyde de soufre (4). On pourrait aussi y ajouter que les émissions de CO2 ont aussi baissées. Par contre, et c’est un peu paradoxal, on constate une augmentation des particules fines dont on sait qu’elles sont encore plus nocives que les oxydes d’azote ainsi que la teneur en ozone qui tendrait à dire que la qualité de l’air s’est détériorée au cours du confinement.
Plusieurs explications sont proposées par les spécialistes. Tout d’abord les particules notamment les PM2,5 les plus petites peuvent provenir de l’agriculture avec une saison printanière marquée en Île- de-France et aussi du chauffage au bois lors des soirées plus fraiches (5). Pour l’ozone on sait que les réactions entre les oxydes d’azote et les composés organiques volatils conduisent à sa production, on peut soupçonner les émissions volatiles des arbres et parcs reverdis et non taillés durant la période, plus importantes qu’en hiver (6).
La conclusion est que si le confinement et la baisse drastique de la circulation automobile a montré une diminution des oxydes d’azote et de carbone, elle n’a pas mis en évidence une remontée spectaculaire de la qualité de l’air dans Paris. D’autres sources de pollutions, le chauffage au fuel ou au bois, les vents apportant les poussières et aérosols de l’agriculture y contribuent. C’est donc, malgré les contraintes sanitaires de la distanciation, les recours aux transports en commun et pour les plus riches au véhicule électrique qui devraient être encouragés, en sachant cependant que cela ne résoudra pas l’équation complexe de la pollution des grandes villes.
Jean-Claude Bernier
Mai 2020
(*) Ch Gerondeau, L’air est pur à Paris… mais personne ne le sait ! (éd. L’artilleur, 2018)
(**) Rémi Prud’homme, Confinement : moins de voitures, plus de pollution
Pour en savoir plus
(1) Un exemple de matériau spécifique : pots catalytiques et dépollution automobile
(2) Démocratiser l’information environnementale pour mieux respirer en ville
(3) Les défis de la santé et du bien-être en ville : pollution atmosphérique, nuisance thermique, odeurs
(4) Comment assainir l’atmosphère des villes ? L’hydrotraitement
(5) Ah, un bon feu de bois dans la cheminée !
(6) Chimie atmosphérique et climat
Illustration : Avenue de la Grande Armée, Paris 26 mars 2020, Eric Salard/FlickR, Licence CC BY-SA 2.0
Avec la crise sanitaire occasionnée par le Covid-19 et avec le déconfinement qui s’annonce, la France veut devenir auto-suffisante en masques sanitaires, chirurgicaux mais aussi FFP2 et FFP3 (1). Il existe déjà plusieurs producteurs français Kolmi-Hopen, près d’Angers, qui a reçu récemment la visite du président Macron, Paul Boyé Technologies en Haute-Garonne, Valmy dans la Loire, Macopharma à Mouvaux dans le Nord. Depuis le début de la crise et devant la demande en masques, ils ont accéléré leurs productions, ce qui a permis d’arriver progressivement à 10 millions par semaine fin avril, avec pour objectif 20 millions fin mai puis 40 millions en octobre. Devant la demande importante sur ce marché et avec l’appel à manifestation d’intérêt (AMI) par le ministère de l’Économie, de nouveaux acteurs se lancent aussi dans cette fabrication.
Ce sont à nouveau la chimie, et notamment la chimie des matériaux, qui est alors sollicitée. En effet pour que la France soit indépendante elle doit assurer son approvisionnement en matières premières, en particulier celles qui permettent d’obtenir la composition des 3 couches du masque standard SMS (spunbond-meltblown-spunbond) de tissus non tissés. Or il n’existe qu’une seule unité de production de textile non tissé par extrusion-soufflage (meltblown), Fiberweb, une filiale d’une société américaine située dans le Haut-Rhin, qui annonce investir dans une nouvelle ligne pour tripler sa production, mais qui ne couvrira pas sans doute les besoins des producteurs de masque de l’hexagone.
Deux techniques de production des non-tissés (2) sont possibles :
- l’extrusion-soufflage ou meltblown qui consiste à extruder rapidement un polymère fondu et à le souffler sous forme de fibres, un peu comme on couvre nos greniers de laine de verre en soufflant les fibres pour l’isolation thermique. On utilise des thermoplastiques comme le polypropylène (3) ou le polyester (4).
- l’electrospinning ou électrofilage qui permet l’obtention de micro et même nanofibres par extrusion fine assistée par électrostatique, également à partir de polymères fondus ou en suspension dans un solvant.
Ces techniques sont matures et connues dans l’ingénierie des polymères, la seconde permet l’élaboration de membranes non tissées (5). La maîtrise de la structure des fibres, le contrôle de l’organisation des nanofibres dans la micro-structuration du matériau et la composition chimique à l’échelle de quelques dizaines de microns permettent aussi les applications pour la santé (6). On peut aussi jouer sur les mélanges de polymères hydrophobes ou hydrophiles ; polypropylène, polyimide, sur les électrostatiques ; polyester, acrylique. Selon les combinaisons et leurs tailles, les microfibres ou nanofibres piègent par liaisons de van der Waals ou par électrostatique les gouttes des aérosols et/ou les bactéries ou les virus (7).
Espérons que de nouveaux candidats plasturgistes se déclarent intéressés par ces nouvelles activités, le ministère de l’Économie est prêt à subventionner à hauteur de 30% les investissements encore faut-il assurer l’émergence d’un marché pérenne.
Jean-Claude Bernier et Catherine Vialle
Mai 2020
Illustration : Fibres polymères vues au microscope électronique à balayage (Daltster - travail personnel, CC BY-SA 3.0, Wikimedia)
Pour en savoir plus
(1) Comment fonctionnent les masques de protection respiratoire (sur le site de Pour la Science)
(2) Le textile, un matériau multifonctionnel
(3) Polypropylène (produit du jour de la SCF)
(4) Les chimistes dans l’aventure des nouveaux matériaux
(5) L’intelligence textile (vidéo)
(6) Chimie du et pour le vivant : objectif santé
(7) Electrospinning et nanofabrication pour la santé et l’énergie – ICPEES (CNRS - Université de Strasbourg)
Parmi les objectifs de la PPE (programmation pluriannuelle de l’énergie) figure l’objectif en 2030 de 30 % de production électrique par les énergies renouvelables (1). Si près de la moitié est déjà fournie par l’hydraulique, on se base alors sur le développement de l’éolien et du photovoltaïque (2) qui ne représentent respectivement que 5,2 % et 2 % de la production nationale. Un volet encore modeste est celui de la géothermie qui peut apporter sa contribution non seulement à l’électrique mais aussi aux réseaux de chaleur.
La production d’électricité géothermique (3) est une technologie mature avec de nombreux exemples aux États-Unis avec 19 TWh de production, suivis par les Philippines et l’Indonésie autour de 10 TWh. On sait aussi que l’Islande avec 5 TWh et ses réseaux de chaleur est quasi autonome. La France avec seulement 1,5 TWh, soit moins de 0,3 % de la production, révèle un potentiel croissant.
Le site principal utilisant une nappe d’eau chaude est situé à Bouillante en Guadeloupe qui va porter sa puissance à 25 MW en 2020. Le second site, alsacien, à Soultz-sous-Forêts, utilise une autre méthode de géothermie profonde en récupérant la chaleur des roches granitiques poreuses à 5000 m de profondeur, profitant du gradient thermique exceptionnel du sol près de l’arc de la fosse géologique rhénane. La plateforme expérimentale de Soultz, créée en 1987 par une poignée d’ingénieurs et de chercheurs soutenus par Électricité de Strasbourg (ÉS) et le BRGM, a permis jusqu’en 2007 d’accroître les connaissances sur la fluidité des roches et la récupération de la chaleur (4). Depuis 2008 elle est exploitée industriellement par une société franco-allemande (ÉS et EnBW) et fournit 1,5 MW de puissance. Elle a essaimé à 7 km de là, à Rittershoffen, avec un nouveau forage qui fournit, depuis 2016, 24 MW thermique au circuit de vapeur de l’usine Roquette grâce à un réseau de chaleur de 15 km. Depuis, les projets de forage dans le Bas-Rhin se sont multipliés surtout depuis que les analyses des eaux de forage sur la plateforme de Vendenheim-Reichstett ont montré qu’elles contenaient de 0,15 g à 0,2 g/L de chlorure de lithium. Rappelons que le lithium est actuellement un métal très demandé, dont le prix à la tonne augmente fortement à cause de son utilisation croissante dans les batteries ion–lithium (5). Dans ce cadre un consortium international de recherche EuGeLi (European Geothermal Lithium Brine) s’est formé pour exploiter le procédé propre d’Eramet qui consiste par procédé membranaire à retenir le chlorure puis le transformer en carbonate et à réinjecter les eaux après échange de chaleur et production d’électricité. Les promoteurs du projet veulent implanter un démonstrateur en 2021 et tablent prudemment sur une production annuelle de l’ordre de 1500 tonnes de carbonate de lithium vers 2025.
Restent encore quelques obstacles : les acteurs de la géothermie profonde conditionnent ce développement prometteur à un soutien public pour un complément rémunérateur, situé à 246 € le MWh, voire 200 € si la commercialisation du lithium vient abaisser le prix de revient (6) (notons qu’il y a quelques années le rachat du solaire photovoltaïque était à 600 €/MWh). Il faudra ensuite faire une étude sérieuse du coût de carbonate de lithium au niveau européen sachant cependant qu’une production nationale serait favorable à « l’Airbus européen des batteries ».
Enfin et ce n’est pas le moindre, la mise en place et le fonctionnement de ces forages à proximité du domaine de l’Europole de Strasbourg » a provoqué de micro-secousses sismiques (7) certes inférieures à 2 sur l’échelle de Richter mais qui inquiètent les riverains à tel point que le préfet a demandé un rapport des universitaires et chercheurs du centre de surveillance de l’Institut du globe de Strasbourg.
Souhaitons que ces problèmes économiques et géophysiques ne stoppent pas ces développements que les initiateurs des années 80 que j’ai bien connus n’avaient jamais imaginés même dans leurs rêves.
Jean-Claude Bernier *
Avril 2020
* Remerciements à Andrée Harari pour avoir initié cet éditorial.
Pour en savoir plus :
(1) Une électricité 100% renouvelable : rêve ou réalité ?
(2) Stocker l’énergie du Soleil (vidéo)
(3) La géothermie (vidéo)
(4) La maison écologique
(5) Les batteries sodium–ion
(6) Le lithium, nouvel or blanc ?
(7) Gaz de schistes : quels problèmes pour l’environnement et le développement durable ?
Le microbiote humain
Le microbiote humain ou flore commensale (du latin con massa = manger ensemble) représente 10 fois plus de microorganismes que les cellules humaines qui nous composent : 1014 pour la flore et 1013 pour les cellules humaines.
Ces bactéries qui composent le microbiote n’ont pas de raison pour la plupart de nous effrayer. Mieux encore, elles agissent comme boucliers contre les agressions extérieures : pathogènes divers, pollution, UV solaire…
Le microbiote est utilisé par l’hôte (l’homme) pour se protéger contre les organismes pathogènes invasifs soit par une action directe anti-infectieuse due à la sécrétion des peptides antibiotiques, soit par une action indirecte à travers le système immunitaire avec lequel il a su bien s’adapter. Tel un professeur, le microbiote éduque en permanence notre système de défense contre les envahisseurs externes.
Il va de soi que les organes humains les mieux équipés sont les intestins et la peau qui sont le plus exposés aux agents extérieurs, les intestins par la nourriture et la peau par les contacts.
Le microbiote de la peau
La peau, organe le plus large du corps (1,8 m2 environ), est un écosystème composé de microorganismes tels que les bactéries (staphylocoques, Corynebacterium…), les champignons (Malasseziae…) et les acariens (Demodex). Toute cette flore est appelée microbiote ou microbiome cutané. Elle vit en symbiose (du grec vivre ensemble) avec notre épiderme, soit à la surface, soit en profondeur.
Répartition de la flore dans le corps humain (source : LEEM / source schéma : Dethiefsen et al. Nature 2007)
Tout individu possède sa propre flore microbienne laquelle est repartie en microenvironnements cutanés suivant la classification :
- zones grasses, par exemple le visage
- zones humides, par exemple les narines
- zones sèches, par exemple les paumes de mains
Pour faire court, les paumes de main abritent des microorganismes qui survivent en zones grasses ou humides, principalement des β-protéobacteries.
L’application des gels hydroalcooliques et conséquences
Les gels hydroalcooliques sont composés pour l’essentiel d’alcool éthylique (de 70 à 90 %), d’eau oxygéné, de glycérol et d’eau purifiée. Des alcools autres que l’alcool éthylique peuvent être utilisés.
Dans tous les cas de figure les gels tuent tous les agents infectieux sans discrimination et ne différencient pas le biotope des autres agents exogènes. Cette perturbation peut avoir des conséquences fâcheuses parfois dangereuses pour les individus.
Elle peut conduire entre autres à des eczémas et dermatites atopiques qui fragilisent l’épiderme, le rendant davantage perméable aux agents infectieux exogènes. La barrière externe de la peau présentant des fissures les agents peuvent être directement en contact avec le derme lui-même irrigué par du sang qui peut servir de véhicule de transmission systémique.
Une expérience originale menée par R. Gallo (1) a démontré que des doigts ainsi désinfectés peuvent facilement par la suite être surinfectés par des bactéries telles que le streptocoque du groupe A ou le staphylocoque.
Cette réalité dépend des individus, leur état de santé et concerne davantage les personnes âgées à peau fine et fragile dû à l’âge (peau en général sèche, dite papier de cigarette, facilement irritée).
Que dois-je faire ?
Il faut suivre strictement les règles d’ANSM (Agence nationale de sécurité du médicament et des produits de santé).
L’ANSM recommande l’utilisation de solutions et gels hydroalcooliques EN L’ABSENCE DE POINT D’EAU DISPONIBLE : transports en commun…
Dans tous les cas il faut privilégier le lavage de mains lorsqu’un point d’eau potable est disponible.
Un dernier conseil : n’utiliser que de savons avec des agents surfactants ou tensioactifs neutres.
Les virus comme le Coronavirus (2) ne sont pas considérés comme des organismes vivants mais plutôt comme des agrégats ordonnés des molécules chimiques. Ces molécules peuvent être de nature hydrophile (qui aiment l’eau), de nature hydrophobe (qui ont peur de l’eau) ou amphiphiles (aimant l’eau et la graisse).
Dans tous les cas de figure, les molécules hydrophiles sont entrainées par l’eau, les molécules hydrophobes se complexent avec les agents surfactants existants dans les savons pour être par la suite entrainées par l’eau. Pour les amphiphiles cela va de soi (3).
Et si un lavage pas assez méticuleux n’a pas permis d’entrainer l’ensemble des particules nous pouvons considérer qu’il ne reste du virus que quelques débris moléculaires incapables d’assurer les fonctions du virus, c’est-à-dire infecter les organes cibles pour se démultiplier et nous coloniser.
Pr. Constantin Agouridas
Mars 2020
Pour en savoir plus :
(1) Le microbiote cutané : le poids lourd sort de l’ombre, J. di Domizio et al., Rev Med Suisse, 2016, 12:660-664
Status report from the scientific panel on Antibiotic use in dermatology of the American Acne and Rosacea Society, J.Q. Del Rosso et al., J. Clin. Aesthet. Dermatol., 2016
Epithelial antimicrobial defence of the skin and intestine, R. Gallo et L.V. Hooper, Nat. Rev. Immunol., 2012 Jun 25;12(7):503-16
(2) Le coronavirus, un défi pour la chimie du vivant
(3) La chimie et les produits d’hygiène et de soins corporels (Chimie et… Junior)
Télécharger les Indications pour l’hygiène des mains sur le site de l'OMS
La maladie à coronavirus COVID-19, apparue en décembre 2019 à Wuhan en Chine sur un marché de la ville, a surpris les autorités chinoises par la rapidité de sa propagation. Elle a très vite touché des centaines d’habitants. Malgré la quarantaine qui a confiné 11 millions de Chinois chez eux fin janvier, la contagion a gagné plusieurs autres villes et d’autres foyers se sont fait jour non seulement en Chine mais au Japon, en Corée du Sud, en Iran, et tout récemment en Italie du Nord. Fin février, ce sont plus de 82 000 malades atteints et 2800 décès dans le monde, et outre les villes de la province de Hubei dont Wuhan est la capitale, plusieurs villes d’Italie sont fermées. Le patron de l’OMS s’inquiète d’une pandémie qui pourrait s’étendre mondialement, et la France, comme d’autres pays, s’y prépare.
Qu’est-ce qu’un virus ?
Plus petit que 100 nanomètres un virus ne peut pas être considéré comme un organisme vivant car il ne peut pas se répliquer seul. Il est constitué d’un assemblage de molécules, pour l’essentiel des ADN ou ARN et des protéines. Lors du contact avec un organisme vivant (homme, animal, plante…) le virus va utiliser la machinerie moléculaire de cet organisme vivant pour se répliquer et se démultiplier en plusieurs copies qui vont coloniser plusieurs centres vitaux de son hôte : voies respiratoires, intestins, sang…
Comment le virus nous attaque ?
Les coronavirus sont presque toujours d’origine animale, l’habitude chinoise d’acheter sur les marchés de petits animaux vivants comme les poissons, les volailles, les petits mammifères, confinés dans un espace restreint, ont sûrement développé une énorme charge virale. De plus la concentration des habitants en mégapoles de plusieurs millions d’habitants a probablement favorisé la propagation du virus. Il faut y ajouter le fort développement de la Chine depuis plusieurs années qui entraîne des migrations humaines nationales et internationales dans tous les secteurs : commercial, technique et scientifique.
Les coronavirus doivent leur nom à une petite couronne de protéines pointues dites spicules. Il y a deux sortes de coronavirus : ceux peu pathogènes qui circulent en France chaque année par temps froid et humide en hiver et disparaissent en été, provoquant les rhumes, laryngites et grippes saisonnières et ceux au comportement hautement pathogène dont deux sont déjà connus le SARS-CoV en 2003 responsable du SRAS (Syndrome Respiratoire Aigu Sévère) et le MERS-CoV responsable du MERS (Middle East respiratory syndrome) en 2012, qui ont fait des victimes en Chine et au Moyen-Orient. Ce nouveau virus, temporairement appelé en janvier 2019–nCoV et définitivement nommé SARS-CoV-2 le 11 février 2020 par l’ICTV (Comité international de taxonomie des virus), était inconnu jusqu’à ce que plusieurs laboratoires dans le monde dont celui de l’Institut Pasteur en France l’isolent, grâce aux prélèvements positifs. Le laboratoire parisien commence à le cultiver sur des souches pathogènes dès le 24 janvier 2020. La collaboration internationale a alors permis très rapidement le séquençage complet du génome de ce coronavirus et ainsi de commencer à étudier sa structure pour comprendre la façon dont il nous attaque (1).
Le virus transmis par des postillons ou des aérosols émis par les malades pénètre dans les cellules nasales. Grâce à cette couronne de protéines pointues (spicules) il se verrouille sur une protéine de surface des cellules appelée récepteur. On peut aussi assimiler les spicules à une « clé » qui se fixe sur la « serrure » du récepteur (2). Le virus libère alors via une vésicule dite endosome son ARN (3) dans le cytoplasme de la cellule qui produit alors les protéines virales nécessaires à sa réplication. Avec son enzyme viral il fait alors de multiples copies de son ARN et donne naissance à plusieurs virus répliqués qui s’échappent de la cellule pour attaquer d’autres cellules et ceci en quelques heures.
Comment réagir et se protéger ?
Grâce à la rapidité du séquençage de son génome, on a pu remonter à la structure du coronavirus. Il y a une semaine une équipe de chercheurs de l’université d’Austin (Texas, USA) a pu mettre au point sa structure 3D et de la partie des spicules (la clé) en utilisant la cryomicroscopie électronique moyen d’étude dont les inventeurs avaient obtenu le prix Nobel de chimie 2017 (4). On peut par ce moyen obtenir de multitudes d’images des molécules figées à basse température et même en faire de petits films. Cette étude a montré de plus que la porte d’entrée dans les cellules humaines était bien le récepteur ACE2 déjà identifié lors du SRAS, mais la « clé » était ici semble-t-il encore mieux adaptée à sa serrure, ce qui pourrait expliquer la rapidité de sa propagation.
Les pistes pour traiter les malades sont alors de deux types :
- des antiviraux qui empêchent la réplication du virus à l’intérieur des cellules comme la chloroquine, une molécule utilisée comme antipaludique et qui bloque la capacité du virus à acidifier les endosomes pour libérer l’ARN, ou le remdesivir qui agit comme un nucléotide sur l’élément constitutif de l’ARN, en s’immisçant dans la séquence copiée, créant une « faute de frappe » et la rendant inutilisable pour la réplication (5).
- des inhibiteurs de protéase déjà testés pour le traitement du VIH, du SRAS et du MERS. Ils bloquent la capacité de la protéine « protease » à couper une longue protéine non fonctionnelle en protéines plus petites nécessaires à la réplication du virus.
L’immunologie par biosynthèse consiste à produire des anticorps dans la cellule en y transférant deux ADN, ces deux ADN seront transcrits en ARN messagers qui vont migrer dans le cytosol et s’ajouteront à la protéine de surface empêchant le virus de se fixer sur sa cible (si la serrure change la clé ne marche plus) (6). C’est aussi une piste pour la vaccination, comme celle d’injecter des anticorps venus de malades guéris. Pour l’instant, les traitements des malades utilisent des molécules comme la chloroquine, le remdesivir ou des inhibiteurs tels que le lopinavir ou le ritonavir et l’interféron déjà connus et utilisés dans les cas de syndromes respiratoires aigus et donnant de bons résultats comme à Bordeaux sur le malade qui est sorti récemment de clinique. Pour un éventuel vaccin il faudra sans doute attendre plusieurs années malgré le nombre de laboratoires de recherche en biochimie et pharmacie qui se sont mis sur le sujet.
En France un plan de veille et de prévention est mis en place en mobilisant plus de 100 hôpitaux et en passant les laboratoires d’analyses à une capacité de plusieurs milliers de tests de dépistage par jour. Une bonne règle personnelle d’hygiène est de se laver les mains régulièrement et de protéger la bouche en cas de toux, cela vous évitera sans doute déjà le rhume ou la grippe de saison (7).
Jean-Claude Bernier, Constantin Agouridas et Catherine Vialle
27 février 2020
Pour en savoir plus
(1) Chimie du et pour le vivant : objectif santé
(2) La chimie supramoléculaire et ses formes modernes
(3) Cibler l’ADN : pour la compréhension du vivant
(4) Le prix Nobel 2017
(5) Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?
(6) De la biologie de synthèse aux biomédicaments
(7) La chimie et les produits d’hygiène et de soins corporels (Chimie et… Junior)
L'image d'illustration, réalisée par Centers for Disease Control and Prevention (CDC), révèle la morphologie des coronavirus.
Les 28 et 29 février 2020 se tient, au parc floral de Paris au bois de Vincennes, le
Village de la chimie des sciences de la nature et de la vie
Les collégiens, lycéens et étudiants avec leurs professeurs ou leurs parents sont comme chaque année les bienvenus, et nombreux sont ceux qui grâce aux différents espaces et stands vont pouvoir trouver une orientation scolaire, un parcours professionnel, un stage en entreprise, un futur job.
Comment rendre efficace votre venue ?
- 1 – En rencontrant les professionnels à votre disposition : ingénieurs, recruteurs, techniciens de grandes entreprises internationales, de PME, de start–up, d’organismes de recherche ; ils vous parleront métiers et carrières.
- 2 – En vous renseignant auprès des établissements de formation et des filières : Bac Pro, BTS, DUT, Universités, Écoles d’ingénieurs, qui vous accueilleront au cours de ces deux journées.
- 3 – En préparant votre future insertion professionnelle grâce aux ateliers pour peaufiner votre CV, utiliser mieux internet, bâtir ou améliorer votre entretien d’embauche,
Vous aurez aussi la possibilité d’écouter et de vous instruire, au cours des conférences d’experts ou de chercheurs en chimie, sur le traitement des surfaces, l’innovation dans les verres, une méthode révolutionnaire de dépollution des sols.
Ne loupez pas les démonstrations spectaculaires de réactions chimiques et une découverte amusante des éléments de la classification périodique.
Enfin Jean Marie Lehn prix Nobel de chimie sera présent à l’occasion de la remise des prix des Olympiades de la chimie en Île-de-France et parlera de « la chimie de la vie ».
Venez en famille ou avec vos professeurs à Vincennes. L’industrie chimique emploie 165 000 salariés, et il y a de très nombreux chimistes dans d’autres industries comme la pharmacie, la métallurgie, l’automobile, l’aéronautique, la plasturgie, les cosmétiques et parfums. Cela représente chaque année des dizaines de milliers d’embauches. De plus, avec le développement de l’alternance et de l’apprentissage, de nombreuses possibilités sont offertes : venez à la table ronde spécialement consacrée à ces voies le samedi 29.
Préparez votre venue avec votre classe ou vos parents en consultant sur Mediachimie.org l’espace métiers, les fiches métiers par fonction et domaine d’activité et la série de fiches « Les chimistes dans… ». Vous y découvrirez des dizaines de métiers de l’agent de laboratoire à l’ingénieur procédé, du biochimiste au commercial, du responsable du laboratoire d’analyse au chercheur, tout un panel de métiers est décrit.
Mediachimie sera aussi présent au village (stand M6) et une équipe de Mediachimie assurera deux conférences / ateliers : « La chimie, une grande diversité de métiers riches d’avenir » les vendredi et samedi à 14h.
Jean-Claude Bernier et Catherine Vialle
Février 2020
Plus d'informations : Village de la chimie des sciences de la nature et de la vie
#villagechimie
#gracealachimie
Préparez votre venue au Village de la chimie en testant vos connaissances sur les métiers (quiz)
Les marchés de Noël ont déménagé, les décorations et guirlandes de nos rues sur le point d’être démontées se balancent encore, et alors que sonne encore dans nos têtes le tube désenchanté de Gold « Ville de lumière, j’ai besoin de toi ! », peu savent la quantité de découvertes et de travaux qui ont conduit à de telles profusions de beauté visuelle (1).
Oublions les vieilles lampes à filaments aux verres colorés qui se balançaient entre les platanes des places des villages le soir du 14 juillet. La lampe à incandescence inventée par Thomas Edison avec filament de carbone en 1879 puis de tungstène au XXe siècle est maintenant bannie de la vente au profit des ampoules à basse consommation ou mieux encore des LED (Light Emetting Diode) qui ont envahi toutes les décorations lumineuses de Noël.
L’émission de lumière par des diodes semi-conductrices de SiC était connu depuis 1907 mais ce n’est qu’en 1929 qu’un brevet sur le principe d’émission fut déposé et il fallut plus de trente ans pour qu’une première LED donne une émission dans le rouge en 1962 (2).
Le principe des émissions par des semi-conducteurs électroluminescents est assez simple. Ils sont caractérisés par une bande de valence et une bande de conduction séparées par un « gap » d’énergie Eg. Lorsqu’un courant électrique active le semi-conducteur, un déséquilibre se crée entre les deux bandes et les électrons de la bande de conduction se combinent avec les trous créés dans la bande de valence en émettant un photon de fréquence ν tel que hν= Eg liée à la valeur du gap. Les chimistes du solide ont fait leur gamme en partant des semi-conducteurs de type III-V (3) pour obtenir du rouge avec GaAs et AlGaAs, du jaune avec GaAsP, du vert pour GaN. Ce n’est qu’en 1993 que des chercheurs japonais, prix Nobel en 2014 (4), ont obtenu la LED bleu avec la composition InGaN permettant grâce à une émission vers 480 nm de relancer la commercialisation des lecteurs sur support optique des DVD et de relever le défi économique de la lumière blanche pour le grand public. En effet plutôt que la recomposer avec trois LED bleu-rouge-vert on utilise maintenant l’émission d’une LED bleu encapsulée dans un dôme de silicone sur lequel on a une couche mince de luminophore émettant dans le jaune dont la composition est par exemple à base de YAG dopé au cérium (Y3Al5O12 : Ce3+). Les recherches actuelles tendent à diminuer la proportion d’émission bleue qui donne une lumière blanche trop froide pour une lumière plus chaude dans le jaune avec des luminophores (5) dopés à l’europium Eu2+ ou des oxysulfures avec des défauts structuraux pour limiter le recours aux lanthanides.
Les LED sont concurrencées par les OLED (Organic Light Emetting Diode) (6) qui sont constituées d’une couche mince de polymère semi-conducteur entre deux électrodes. Ces semi-conducteurs organiques sont caractérisés par l’alternance de simples liaisons et doubles liaisons carbones dites π-conjuguées. Les orbitales moléculaires ont alors deux niveaux, la plus basse est liante (HOMO), la plus haute antiliante (LUMO) qui s’assimilent aux deux bandes des semi-conducteurs métalliques avec les mêmes processus de recombinaison électrons-trous s’accompagnant d’émission de lumière. Si les OLED ont conquis les écrans plats des télévisions et des smartphones, elles ne sont pas encore concurrentielles pour les décorations lumineuses.
Mais la chimie est encore présente lors des nuits du nouvel an avec les incontournables feux d’artifices qui enflamment le ciel des métropoles (7). Leur principe est lié à la réaction chimique de combustion qui mêle un oxydant (nitrate, perchlorate) et un réducteur (carbone, soufre, magnésium) avec fort dégagement de chaleur et de gaz. Pour colorer les flammes on y ajoute des sels métalliques ; de strontium pour le rouge, sodium pour le jaune, baryum pour le vert, cuivre pour le bleu et poudres de magnésium ou aluminium pour le blanc éclatant. Notons que le tir et les explosions en altitude imposent que ce soient des professionnels qui sont en charge de ces feux et qu’il est toujours déconseillé que de simples amateurs s’y impliquent car leur sécurité est en jeu (8). C’est avec quelques regrets que janvier moins lumineux se déroule. Adieu la chimie des couleurs… À la fin de l’année 2020 !
Jean-Claude Bernier et Catherine Vialle
Janvier 2020
Pour en savoir plus :
(1) Lumière et couleurs (vidéo)
(2) EnLEDissez-vous !
(3) Les radars des avions Rafale (Chimie et… junior)
(4) Un prix Nobel éclairé
(5) Fluorescence (vidéo)
(6) Les diodes électroluminescentes organiques : des sources « plates » de lumière
(7) Les feux d’artifice des frères Proust (Petites histoires de la chimie)
(8) Une enquête explosive (Chimie et… junior)
Deux mois après l’incendie de l’usine Lubrizol nous avons un peu de recul pour revenir sur les risques des usines fabriquant ou stockant des produits chimiques (1). Depuis l’accident ayant frappé une ville du nord de l’Italie, Seveso, consécutive à une fuite de dioxine d’un site industriel voisin, l’Europe a imposé un haut niveau de prévention pour les sites présentant des risques majeurs. Le classement Seveso identifie pour l’environnement les risques suivants :- les effets de surpression (souffle d’une explosion) –les effets thermiques (rayonnement d’un incendie) – les effets toxiques (rejets de polluants) (2).
C’est ainsi qu’en France 1312 installations industrielles sont classées Seveso dont 607 seuil bas et 705 seuil haut dont Lubrizol de Petit-Quevilly. Après la catastrophe AZF à Toulouse qui fut bien plus meurtrière, la loi Bachelot en 2003 a institué en France les plans de prévention des risques technologiques (PPRT) qui visent à limiter l’urbanisation autour des sites dangereux. Comme hélas les municipalités jusque-là avaient laissé les constructions gagner les terrains proches, plus de 180 PPRT imposent des travaux de protection des habitations voisines.
Dans le cas de Lubrizol, soumis à une surveillance très stricte de la part de la DREAL Normandie comme ICPE (installation classée pour la protection de l’environnement), de nombreuses visites d’ingénieurs et de cadres pompiers vérifient la conformité et l’application des règles de sécurité (3). Et cependant fin septembre plusieurs milliers de tonnes de produits sont partis en fumée. Quels sont ces produits ? Dans la liste des 10 tonnages les plus importants on relève principalement des alcanes en C15 – C20, des graisses en C20 – C50 issus des distillats du pétrole, des additifs et des sels détergents pour l’essence comportant des dérivés d’amines, des sulfides ou des phosphates. Des lubrifiants (4) comportant des dithiophosphates, des oléfines et des produits insecticides avec des polysulfides. Par combustion ces produits vont émettre principalement CO, CO2 et H2O, mais aussi NO2, NOx et SO2, H2S, P2O5, ZnO et CaO. Mais comme les oxydations sont incomplètes également des suies principalement composées de carbone C qui vont composer ce nuage noir impressionnant de plusieurs kilomètres et se déposer aux alentours.
Les analyses de l’air sur Rouen menées par Atmo Normandie les 27 et 28 septembre sur NO2, SO2, CO, H2S et les PM10, ne montrent pas de valeurs supérieures aux moyennes habituelles dans l’agglomération (5). Des prélèvements sur le site de Lubrizol et les dosages sur le toluène, l’éthylbenzène, H2S et plusieurs COV (composés organiques volatils) donnent des valeurs en µg/m3 inférieures aux valeurs de référence d’exposition aigue sauf pour le benzène très largement au- dessus du seuil de 30µg. Raison pour laquelle il a fallu protéger la trentaine de personnel Lubrizol d’intervention et les pompiers. Depuis les prélèvements et analyses autour du site et sur le trajet du nuage faits par canisters, lingettes et jauges atmosphériques n’ont pas non plus donné des valeurs supérieures au seuil de dangerosité notamment sur les HAP (hydrocarbures aromatiques polycycliques), COV et dioxine. Les analyses sanguines opérées sur les sauveteurs n’ont rien décelé d’anormal une semaine après leur intervention.
Ces résultats n’empêchent pas une partie des Rouennais qui ont souffert de nausées (*), de problèmes respiratoires (6) et de nombreux maraîchers et agriculteurs qui ont perdu plus de deux semaines de ventes de légumes ou produits laitiers par mesure de précaution de s’élever contre la concentration industrielle de la banlieue ouest de Rouen.
Il n’est pas évident de rendre intelligible pour le grand public les résultats des analyses chimiques, surtout à l’heure où la parole des élus, des hauts fonctionnaires de l’État et des experts est systématiquement dévaluée et mise en cause. Même si les produits de Lubrizol sont indispensables dans de nombreux secteurs en particulier pour le fonctionnement des moteurs et les carburants automobiles où leur pénurie se fait déjà sentir, il n’est pas question pour l’instant d’imaginer une reprise possible d’activité sans que les règles ICPE (installation classée pour la protection de l'environnement) soient à nouveau respectées et que l’autorisation d’exercer soit donnée par le CODERST (conseil départemental de l'environnement et des risques sanitaires et technologiques) et le Préfet.
Communication difficile en ces circonstances, mais pour nous aussi chimistes, la communication est difficile et souvent insuffisante. Nous ne disons pas assez que l’industrie chimique (7) est indispensable à la fabrication d’objets de tous les jours, médicaments, shampoings, textiles, carburants, automobiles… Nous nous cachons dans l’ombre. Sur l’hexagone 3300 entreprises chimiques sont implantées avec 6000 sites de production dont 400 classés Seveso. C’est l’industrie qui est la plus réglementée. Depuis 2003, 500 millions € ont été investis pour la mise en place des PPRT, 300 millions pour la modernisation des installations et chaque année, 600 millions € (20% des investissements) sont consacrés à la sécurité et l’environnement.
Nous manquons de communicants et de communication pour rappeler que le secteur chimie est indispensable à l’économie avec 220000 salariés (8) qui contribuent au bien-être de nos concitoyens et à la balance commerciale avec plus de 60 milliards d’exportation.
(*) Sur le site il y avait une unité de fabrication de mercaptan à forte odeur écœurante. Le mercaptan est notamment utilisés à quelques ppm dans le gaz de ville pour détecter immédiatement une fuite.
Jean-Claude Bernier
Décembre 2019
Pour en savoir plus sur Mediachimie.org :
(1) Le paradoxe apparent de REACH : contrainte et source d’innovation pour la chimie
(2) La compétitivité plombée par un excès de règlementations ?
(3) Enquête technique après accidents industriels
(4) Les lubrifiants - « un point sur… »
(5) Techniques analytiques et chimie de l’environnement
(6) Pollution : comment améliorer la qualité de l’air dans nos habitations
(7) Pour une industrie chimique propre et durable (Chimie et… junior)
(8) Les chimistes dans : L’industrie chimique
Résultats d’analyses :
• Lubrizol: explications par Atmo Normandie
• Rouen : le point sur la situation sur le site gouvernement.fr. L’analyse des canisters est disponible ici à la date du 28 septembre 2019.
Près d’un Français sur quatre s’est vu répondre par son pharmacien « désolé, pour votre médicament nous sommes en rupture de stock » ou « désolé, votre médicament n’est plus fabriqué ». Rien qu’en France sur les traitements jugés essentiels on est passé de 44 signalements de pénuries en 2008 à 871 en 2018, près de vingt fois plus ! Quelles sont les raisons de cette évolution qui menace la santé publique (1) ?
Elles sont multiples. La première raison est la décomposition et la délocalisation de la chaine de fabrication des médicaments (2). Une part croissante de la production des principes actifs est délocalisée dans les pays où la main d’œuvre est moins coûteuse et les normes environnementales moins contraignantes, comme la Chine et l’Inde. Cette part est passée de 20% à 80% entre les années 90 et 2018. La deuxième étape, le mélange avec les excipients, est souvent faite en Amérique du Nord et enfin la présentation en gélules et l’emballage en Europe (3). Comme tout ce processus se fait en flux tendu par mesure d’économie, le moindre incident sur une chaine peut bloquer une usine sur plusieurs semaines . Par ailleurs, les agences du médicament nationales ou européennes, soucieuses de la protection des consommateurs, durcissent les normes de fabrication et de traçabilité des composants chimiques, ce qui amène parfois à ne plus importer tel générique de ces pays asiatiques dont la fabrication a été jugée trop opaque.
Bien que la pénurie frappe la France mais aussi la Belgique, le Royaume Uni, l’Italie, des experts pointent du doigt l’attitude de certains grossistes européens revendeurs de médicaments. Ils les accusent de faire passer en dernier la France où les prix des médicaments sont les plus bas, imposés par convention avec la sécurité sociale, et dont les remboursements sont sous surveillance à cause d’un budget qui souvent explose ! Par exemple les prix en France sont inférieurs de 20% à ceux pratiqués en Allemagne N’oublions pas non plus que les entreprises pharmacochimiques ne sont pas des bienfaitrices ; la concurrence internationale et la financiarisation de la profession exigent des investissements que les actionnaires souhaitent rémunérer. C’est ainsi qu’elles abandonnent progressivement la production de génériques trop bon marché et non rentables au profit de molécules nouvelles, susceptibles d’apporter des bénéfices, et de médicaments innovants parfois vendus à des prix exorbitants.
Alors, quels remèdes ? La relocalisation en Europe : c’est ce que font en France les 86 PME (petites et moyennes entreprises, entre 50 et 250 salariés) et ETI (établissements de taille intermédiaire, entre 250 et 5000 salariés) de la chimie, producteurs sous-traitants de principes actifs (4) en insistant sur l’aspect qualitatif et transparent des fabrications malgré un coût salarial et une exigence environnementale plus élevés. Ces entreprises bénéficient d’un très bon positionnement des compétences et d’un chiffre d’affaires en progression qui devrait encore s’améliorer en développant les médicaments issus des biotechnologies, médicaments qui manquent encore trop à leur catalogue (5).
Il n’y a pas que la santé qui souffre de causes de pénurie par manque de chimie. La guerre quasi idéologique que se livrent le Japon et la Corée du Sud pourrait avoir des répercussions en Europe. Le Japon a jeté l’embargo pour la Corée sur les résines photosensibles, les films minces de polyamide et… l’acide fluorhydrique. Ces composés représentent entre 60 et 80% des importations de deux géants de l’électronique Samsung et LG. Cela handicape fortement le gravage des micro-circuits (6) intégrés (résines de photogravure), le nettoyage des circuits silicium (HF) et la fabrication des Oled pour téléviseurs plans et smartphones (polyimides).C’est l’électronique grand public mondiale qui risque de tousser si d’autres approvisionnements ne sont pas trouvés. Or ni l’Europe ni la France ne sont capables à court terme d’y remédier. La chimie de base (fluor) et la chimie de spécialité (résines et polyimides) (7) n’y sont pas développées, en raison d’un marché intérieur insuffisant et des normes réglementaires.
Cela impacte également la transition écologique, actuellement très médiatisée, dont les objectifs sont menacés faute de chimie des matériaux. On oublie que l’objectif zéro carbone en 2030 ou 2050 sera très gourmand en matériaux de haute technologie. Pour les milliards de cellules photovoltaïque (8), on n’est pas inquiet pour le silicium abondant, mais plutôt pour le cuivre, le tungstène et l’argent. Les millions d’éoliennes et de véhicules électriques vont consommer des millions de tonnes d’aimants riches en néodyme et dysprosium (l’éolienne de General Electric de 12 MW annoncée pour 2021 comporte une tonne d’aimant au néodyme - aimant NdFeB). Les véhicules électriques seront aussi bourrés d’aimants et les batteries exigeront des millions de tonnes de Cu, Co, Ni et Li. L’Agence internationale de l’énergie estime qu’il faudra multiplier par 10 la production, la transformation et le recyclage de ces matières premières, avec toujours l’épée de Damoclès d’un éventuel quota chinois.
Militons pour l’implantation en France de la « Megafactory » l’Airbus des batteries et du complexe des aimants à base de terres rares, nous avons chez nous les meilleurs spécialistes mondiaux en électrochimie et magnétisme et le leader mondial de la séparation des terres rares. Re-industrialisons l’hexagone,, implantons de nouvelles usines chimiques propres, nous créerons de la valeur ajoutée nationale et de l’emploi et nous sauverons peut-être la planète.
Jean-Claude Bernier et Catherine Vialle
Octobre 2019
Pour en savoir plus sur Mediachimie.org :
(1) La chimie dans la vie quotidienne : au service de la santé (Chimie et… junior)
(2) Les chimistes dans l’industrie pharmaceutique
(3) De la conception du médicament à son développement : l’indispensable chimie
(4) La fabrication d’un principe actif (vidéo)
(5) Bioraffinerie et biologie de synthèse
(6) La chimie au cœur des (nano)transistors
(7) Les chimistes dans l’aventure des nouveaux matériaux
(8) Les panneaux solaires (animation)
L’Académie suédoise vient de couronner les inventeurs des batteries ion-lithium (1). Voilà un prix Nobel de chimie qui va parler à tout le monde. Les utilisateurs de téléphones portables, de tablettes et d’ordinateurs, les conducteurs de véhicules hybrides et d’automobiles électriques se servent tous les jours de ces réservoirs de puissance électrique (2).
Ce sont trois chimistes qui ont permis il y a maintenant plus de trente ans la découverte, puis l’amélioration et enfin la commercialisation de ces batteries.
Stanley Whittingham, chercheur britannique, dirige l’institut des matériaux de l’université de Binghamton de l’État de New York. Il fut le premier à créer une cathode en sulfure de titane TiS2 dans une pile utilisant un sel de lithium, dans les années 1970.
John Goodenough, américain, est professeur de science des matériaux à l’université d’Austin au Texas. Il suggéra dans les années 1980 l’utilisation, à la cathode, d’oxydes mixtes de type LiCoO2 et ses dérivés Li(CONi)O2, Li(CoNiMn)O2. Il inventa également une nouvelle cathode Li FePO4.
Akira Yoshino, japonais, est professeur à l’université Meijo et membre de l’Asahi Kasei Corporation. Il est à l’origine de la commercialisation dans les années 1990 de ces batteries avec maintenant la forme cylindrique (D=1,8 H = 6,5cm) norme 18650, fabriquée à des milliards d’exemplaires.
Dans ces batteries, à la cathode, le lithium perd un électron qui passe dans le circuit extérieur et l’ion lithium Li+, issu de la cathode, rejoint l’anode en graphite à travers l’électrolyte. Avec la généralisation des objets portables et connectés, smartphones, tablettes, ordinateurs, outils, véhicules électriques, ce sont plus de 100 000 tonnes de lithium qui sont actuellement en usage dans les batteries ion-lithium. Les « mégafactories » construites ou en projet font craindre des cours élevés du carbonate de lithium et des métaux comme le cobalt ou le nickel (3). C’est dire l’incroyable succès de cette invention qui a mis vingt ans à se mettre au point avant commercialisation et moins de trente ans à devenir indispensable à notre quotidien.
Tous les chimistes du solide, les électrochimistes et spécialistes des matériaux se réjouissent de ce prix Nobel cher à leur discipline, spécialement en France où John Goodenough venait souvent discuter et faire des séminaires. Sa dernière venue en France, à 95 ans, lors de la journée hommage à Bordeaux le 26 mars 2018 à son grand ami le professeur Paul Hagenmuller, nous a permis de le rencontrer et de réécouter son rire légendaire et communicatif. Notons également que la communauté Française à Amiens, Bordeaux et Nantes est très active sur ce sujet et reconnue internationalement, sans oublier Michel Armand qui fut aussi l’un des novateurs sur ce sujet dans les années 1975.
Jean-Claude Bernier
Pour en savoir plus sur Mediachimie :
(1) Meilleurs matériaux pour batteries à ions Li. L’approche déductive et intuitive du chimiste (conférence vidéo)
(2) Le transport ou le stockage de l’énergie électrique (Chimie… et junior)
(3) Et si le cobalt manquait… quel serait l’avenir des véhicules électriques ?
Il y a pas mal de curiosités en chimie, les oxydes d’azote (1) en montrent une belle collection. Le monoxyde NO a une activité biologique importante et bénéfique pour notre corps, notamment dans la neurotransmission. Le dioxyde d’azote NO2 est beaucoup moins sympathique, il est caractérisé par des vapeurs rousses, irritantes et toxiques. Il se forme à haute température au-dessus de 1000°C par réaction entre l’azote et l’oxygène de l’air dans les brûleurs des centrales thermiques ou dans les moteurs à combustion interne (2). Le protoxyde d’azote N2O serait plus amusant car il est connu sous le nom de gaz hilarant. La description de la molécule N2O oscille entre 2 formes : N≡N+-O- et -N=N+=O.
Découvert par Joseph Priestley en 1772, les propriétés euphorisantes du protoxyde d’azote sont trouvées par Humphry Davy 25 ans après (3), mais c’est un dentiste Horace Wells qui découvre en 1844 qu’il peut être utilisé comme anesthésiant. Après quelques échecs en milieu médical, il fallut les études de William T. G. Morton en anesthésie pour que le protoxyde d’azote après le chloroforme soit utilisé en chirurgie après 1846. S’ensuivirent des progrès importants en médecine chirurgicale, la douleur et l’infection étant alors les deux grandes limites de la chirurgie.
C’est en réalité après 1960 puis 1980 que son usage médical s’est répandu et fut réglementé en associant le protoxyde d’azote à l’oxygène, ce qui élimine le risque d’asphyxie. La médecine utilise donc le MEOPA (mélange équimolaire d’oxygène et de protoxyde d’azote) depuis l’Autorisation de Mise sur le Marché (AMM) en 2001 dans les établissements hospitaliers. L’AFSSAPS (devenue depuis l’ANSM) contrôle et régularise depuis 2010 son utilisation dans les établissements de santé dans le cadre du plan national de la gestion des risques. Pourquoi ? Car comme le disait une publication dans la revue Science « N2O pas de quoi rire ! » (Nitrous oxide: no laughing matter). En effet même si dès le XIXe siècle le protoxyde était utilisé dans les foires pour mettre en joie quelques joyeux lurons, ses propriétés ne sont pas très bénéfiques.
D’abord dans l’atmosphère le protoxyde d’azote est un gaz à effet de serre plus de 250 fois plus absorbant que la même masse de CO2 (4), sa concentration a atteint 330 ppb (parties par milliard) en 2018. Plusieurs articles scientifiques le mettent aussi en cause comme agent destructeur de la couche d’ozone (5) en haute atmosphère. Les principales sources sont l’agriculture avec l’utilisation des engrais azotés et la décomposition du lisier ainsi que l’industrie et les transports, les rejets de ces derniers diminuant, surtout depuis que la dépollution des échappements automobile a fait des progrès (6).
Un nouveau danger qui guette les jeunes adolescents est une nouvelle forme de toxicomanie : le protoxyde d’azote est utilisé sous forme de drogue (7), inhalé pur dans un ballon de baudruche. Il procure un effet euphorisant qui dure environ 5 minutes sans laisser de traces. Cependant une utilisation répétée ou chronique provoque des troubles cardiaques ou neurologiques et des asphyxies ont été signalées. Très peu coûteux, il remplit les cartouches des siphons à chantilly qui sont en vente dans les supermarchés ou sur internet. L’inhalation directe à partir de ces cartouches sous pression peut également provoquer des brûlures et embolies pulmonaires. Un regain de cette mode est constaté depuis 2016/2018 chez les groupes d’étudiants ou d’adolescents. Certains élus, notamment des Hauts de France, souhaitent interdire la vente libre de ces cartouches ménagères.
Pour ma part je souhaiterais que le protoxyde d’azote ne soit pas accessible au grand public mais il pourrait être utilisé à la place du 2-chlorobenzylidène malonitrile (gaz CS) des grenades lacrymogène (8) des forces de l’ordre. Lors des manifestations on assisterait alors à une réconciliation euphorique entre CRS et manifestants au cours d’affrontements sans violences.
Jean-Claude Bernier
Septembre 2019
Pour en savoir plus
(1) Oxydes d'azote, Les produits du jour de la Société chimique de France
(2) La chimie atmosphérique : contexte, récents développements et applications
(3) La découverte des propriétés du gaz hilarant par Humphry Davy (1778 – 1829)
(4) Nom de code : CO2
(5) Chimie, atmosphère, santé et climat, une histoire partagée
(6) La catalyse au service de l'automobile
(7) Outils et techniques de profilage des drogues
(8) Il y a cent ans : la guerre chimique
C’est la période des grandes migrations. Paris et les grandes métropoles vont se vider et l’A7 et l’A10 vont nous montrer leurs périodiques bouchons. Vous allez profiter de la mer, de la montagne, de l’air non pollué et… du soleil. Comme il risque cette année de se montrer très généreux, faites attention à votre exposition et prenez un certain nombre de précautions. La chimie est là pour vous protéger.
Les rayons du soleil nous envoient une lumière avec un spectre de longueurs d’ondes très large allant de l’infrarouge aux ultraviolets (1). Ce sont ces derniers qui sont les plus dangereux pour la peau. Les UVC (100 à 280 nm) sont arrêtés dans la stratosphère par l’ozone (2) qui joue un rôle de barrière. Les UVB (280 à 315 nm) sont arrêtés par la peau au niveau de l’épiderme. Ils peuvent causer des coups de soleil et favorisent l’apparition de cancers de la peau, mais ils contribuent à la synthèse de la vitamine D. Les UVA (315 à 400 nm), les plus « durs », pénètrent jusqu’au derme et vont accélérer le vieillissement cutané. Ils peuvent provoquer des stress oxydants aigus (3) et entrainer mélanomes et cancers de la peau. 95% des UV qui traversent la couche d’ozone sont des UVA, le reste des UVB.
Pour vous protéger de ces UV on recommande d’appliquer généreusement les crèmes solaires (4) qui comportent des filtres solaires organiques ou minéraux. Plusieurs molécules telles les butyl méthoxydibenzoylméthane ou les bis-ethylhexyloxyphenol methoxyphenyl triazine absorbent en se transformant les UV. D’autres oxydes minéraux comme l’oxyde de titane (TiO2) (5) ou l’oxyde de zinc (ZnO) arrêtent et réfléchissent ces UV en laissant parfois des traces blanches sur la peau qui identifient leur protection.
N’hésitez donc pas à utiliser les crèmes solaires avant de vous exposer au soleil, que ce soit pour une séance farniente, du sport ou une balade. Consultez les indications figurant sur le tube ou le flacon. L’IP ou indice de protection, parfois noté SPF (Sun Protection Factor), va de 6 ou 10 pour une faible protection à 30 ou 50 pour une forte protection ou même 50+. Pour l’indice 10 cela signifie que c’est 1/10 du rayonnement UVB qui est transmis, pour l’indice 50 c’est 1/50 soit 2% des UVB qui atteignent la peau. Pour les UVA on admet que la protection est le tiers de celle des UVB.
Le problème est que la plupart des vacanciers au soleil ne connaissent pas leur taux d’exposition aux UV et donc le moment où il faut se protéger ou renouveler la protection.
C’est encore grâce à la chimie des encres polymères qui permettent de fabriquer des circuits électroniques imprimées (6) que le problème est maintenant en partie résolu. Après le patch « My UV » en 2016 qui, appliqué sur la peau, changeait de couleur en fonction de l’exposition et, après photo via une application sur smartphone (7), donnait le taux d’UV, L’Oréal a lancé l’an passé « UV Sense » un capteur d’UV connecté et sans batterie commercialisé cette année par La Roche-Posay. Ce dispositif de moins de 2 mm d’épaisseur et de 9 mm de diamètre se colle sur l’ongle du pouce. Il comporte un condensateur, des LED, un capteur et un circuit électronique imprimé (PCB – printed circuit board) flexible. Sensible aux UV il peut donner en temps réel l’évolution d’exposition et la garder en mémoire jusqu’à trois mois. Il suffit à l’utilisateur d’indiquer dans l’application disponible sur iOS et Android son phototype (blond aux yeux bleus et carnation claire ou noir aux yeux marron et peau mate) (8) pour recevoir et lire les recommandations personnalisées. Le design de la petite pastille a été particulièrement bien étudié et plait esthétiquement. Selon une étude auprès des consommateurs, plus de 35% d’entre eux appliquent plus souvent la crème solaire ou restent davantage à l’ombre. Si cette innovation permet de bloquer l’augmentation des cas de mélanomes, voilà une bonne contribution au bien-être estival.
Jean-Claude Bernier et Catherine Vialle
Août 2019
Pour en savoir plus
(1) Spectre et composition chimique du soleil (vidéo)
(2) Chimie atmosphérique et climat
(3) L’homéostasie redox de la peau et sa modulation par l’environnement
(4) Un exemple de composé chimique bénéfique à la santé de la peau : la crème solaire
(5) Les enjeux de la vectorisation et de la pénétration transcutanée pour les actifs cosmétiques
(6) La chimie des écrans souples (Chimie et… junior)
(7) Exploser un smartphone (Chimie et… junior)
(8) Les enjeux de la cosmétologie
Thomas Ebbesen, professeur à l’université de Strasbourg, vient de se voir décerner la médaille d’or 2019 du CNRS, l’une des plus prestigieuses récompenses scientifiques françaises. C’est au Japon lorsqu’il travaillait pour la société NEC en 1988 qu’il mène des recherches sur les nanomatériaux (1) à base carbone : d’abord les fullerènes (2), ces arrangements d’hexagones de carbone C60 ressemblant à de micro-ballons de football, puis il met au point les nouvelles synthèses des nanotubes de carbone (NTC) (3) et commence des travaux sur le graphène (4). Il met en particulier en évidence un état supraconducteur (5) à 33 K pour un C60 dopé au rubinium.
Ce n’est qu’après 1998 qu’il rejoint Strasbourg à l’Institut de science et d’ingénierie supramoléculaire (ISIS) dirigé alors par J.-M. Lehn. Il poursuit alors en France ses recherches commencées au Japon sur l’interaction lumière–matière (6) et « la transmission extraordinaire » ou comment faire passer de la lumière à travers une plaque métallique. « Physicien de l’impossible », il montre la possibilité de transmission de la lumière à travers de nano-trous du métal, dont la dimension est inférieure à la longueur d’onde du rayonnement. Cette découverte donnera lieu à deux publications fondatrices où il montre l’influence des plasmons de surface, ou capture d’une onde par une surface. Ces publications seront citées des milliers de fois.
Après 2012 Thomas Ebbesen se lance sur un « nouveau terrain de jeu », celui de la chimie polaritronique. S’inspirant des travaux théoriques de Serge Haroche et de Claude Cohen-Tanoudji sur les cavités quantiques, il arrive avec son équipe à changer les propriétés des molécules en les enfermant dans une cavité nanométrique entre deux plaques miroirs et en ajustant très précisément l’espace entre ces plaques dans un environnement électromagnétique - il faut réaliser que cet espace doit être de quelques nanomètres c’est-à-dire 1000 fois plus petit que l’épaisseur d’un cheveu. Il y alors échange mécanique de la molécule en résonance avec la cavité et échanges de photons virtuels. Sont alors créés ce qu’on appelle des états hybrides lumière–matière, dits états « polaritoniques ». Le plus surprenant est alors que l’on peut modifier ou exalter une réaction chimique dans ces conditions, des essais ont été réalisés avec des semi-conducteurs organiques, des enzymes, des systèmes biologiques. C’est une « chimie résonante ». Et plus qu’étonnante car Il y a cinq ans, les éditeurs scientifiques étaient incrédules et pensaient qu’il s’agissait de science-fiction. En 2019, avec les résultats qui s’accumulent, sa découverte suscite de nombreuses études théoriques et expérimentales.
Actuellement, Thomas Ebbesen, après avoir dirigé l’ISIS, est directeur de l’Institut d’études avancées de l’université de Strasbourg (USIAS). Il a déjà reçu de nombreux prix prestigieux dont en 2018 le Grand prix de la Fondation de la maison de la chimie pour ses recherches. Elles récompensent un chercheur imaginatif, aventureux, pluridisciplinaire et éminemment sympathique.
Jean-Claude Bernier et Catherine Vialle
Juillet 2019
Pour en savoir plus
(1) Colloque chimie, nanomatériaux, nanotechnologies 7 novembre 2018
(2) Les fullèrenes
(3) Nanotubes et nanofilaments de carbone
(4) Le graphénomène
(5) Les matériaux stratégiques pour l’énergie
(6) Emettre de la lumière grain à grain : échange quantique d’énergie (vidéo)
Image : © C. SCHRÖDER/UNISTRA
Alors que le 53e salon de l’aéronautique et de l’espace (1) vient d’avoir lieu au Bourget on peut rappeler que le premier salon en 1908 s’était tenu à Paris au Grand Palais sous l’égide de l’Automobile club. Ce rapprochement initial entre l’avion et l’auto semble à nouveau se réaliser en 2019. On voit en effet Airbus s’allier à Audi et Renault et expérimenter deux « taxis volants » City-Airbus et Vahana et par ailleurs plusieurs constructeurs de nouveaux hélicoptères se lancent dans l’exploitation de lignes taxi reliant le centre-ville aux aéroports des mégapoles.
Plusieurs raisons expliquent ces convergences :
- la croissance du trafic qui, selon l’IATA, devrait doubler d’ici 2040 et atteindre plus de 8 milliards de passagers avec une croissance annuelle de 4,5% nécessitant 37 000 avions pour Airbus et 42 000 pour Boeing. En conséquence, les procédés de fabrication et de montage des appareils devront mieux s’automatiser comme sur les chaines des constructeurs d’automobiles.
- une sécurité de plus en plus accrue, avec des commandes électriques nombreuses sûres et intelligentes. Cette évolution a été suivie par les équipementiers automobiles dont les véhicules électriques sont quasi prêts à la conduite autonome. Le développement du trafic va aussi conduire à une pénurie des pilotes dont les compagnies estiment le besoin entre 500 000 et 700 000 d’ici vingt ans. Sans évidemment passer par « zéro pilote dans l’avion », passer de 2 à 1 pour les moyen-courriers et de 5 à 2 pour les long-courriers avec des algorithmes de pilotages plus automatiques serait source d’économie financière et de formation.
Il est déjà vrai que le secteur aérien est devenu de plus en plus sûr grâce aux améliorations technologiques et à l’informatisation des commandes. Les risques et accidents ont été divisés par 8 ces 30 dernières années (avec cependant l’exception du Boeing 737 max) alors que le trafic a été multiplié par 4. L’apport de l’intelligence artificielle comme pour l’automobile devrait encore améliorer la sécurité.
Mais voilà que s’invite dans ce ciel bleu un nuage noir venu de Suède le « flygskam » ou « la honte de prendre l’avion » pour des raisons écologiques (2). En effet le prix à payer en équivalent CO2 du km passager en avion est largement prohibitif. L’exemple de Paris-Lyon, 2 heures en TGV 1,5 kg équivalent CO2, 5 heures en voiture et 80 kg équivalent CO2, 1 heure en avion et 97 kg équivalent CO2, montre une facture carbone élevée. C’est pourquoi un mouvement gagne la France, via la Scandinavie, les Pays-Bas et la Belgique, où certains citoyens souhaitent ne plus prendre l’avion pour des vols intérieurs européens et préférer le train. L’objection contraire la plus souvent observée est la durée du voyage et son prix. L’exemple du Paris Londres en avion 1h05 et 58€ ou par le Thalys en 2h28 et 157 € est démonstratif. Il faudrait donc que les sociétés de chemin de fer et les États fassent baisser le prix du rail et taxent les airs pour encourager ces comportements.
D’autres solutions sont possibles (3). Déjà un logiciel utilisé par deux compagnies permet d’optimiser les trajets pour les long-courriers et les approches des aéroports, entrainant une économie de 20 à 30% de kérosène. De nouveaux moteurs, tels ceux de Safran équipant les nouveaux appareils, sont robustes et économes (4). L’allègement des structures en passant des métaux aux matériaux composites a drastiquement diminué les consommations (5). On se rappelle « Solar impulse » et ses multiples innovations en chimie : cet avion a fait le tour du monde grâce à l’électricité (6), sans une goutte de carburant, et a ouvert le champ de recherche de la propulsion électrique (7). Même si actuellement on bute encore sur le verrou technologique du ratio énergie stockée / poids des batteries, on devrait à l’avenir rendre possible au moins les appareils hybrides pouvant parcourir une partie du trajet avec des hélices mues par des moteurs électriques à coté de moteurs thermiques classiques. À l’heure actuelle les packs de batteries ion-lithium (8) permettent déjà sur le tarmac des roulages et manœuvres au sol économes et plus silencieuses. Il reste enfin la possibilité d’utiliser grâce à la chimie du kérosène issu de la biomasse, soit des algocarburants issus des microalgues (9) soit des biokérosènes venant des huiles végétales par le procédé Vegan (HVO - Hydrotreated Vegetable Oil) mis au point par l’IFPEN et utilisé par TOTAL à la raffinerie de la Mède (10).
Je ne sais pas si vous vous priverez de vacances au soleil au Maroc aux Baléares ou pire à la Réunion pour ne pas augmenter votre empreinte carbone. Pour que vous n’ayez pas trop de honte à prendre l’avion on peut rappeler que les milliers de participants à la COP 24 à Katowice en décembre 2018 ont généré 55 000 tonnes de CO2, soit l’équivalent de l’empreinte carbone de 4600 Français en un an !
Jean-Claude Bernier
Juin 2019
Pour en savoir plus
(1) Colloque la chimie, l'aéronautique et l'espace
(2) Atmosphère ! Atmosphère ! Alerte !
(3) Demain, l’aviation plus verte et plus autonome
(4) Les défis matériaux et procédés pour les équipements aéronautiques
(5) Les nouveaux matériaux composites pour l’aéronautique
(6) Solar impulse 2 et la chimie
(7) Sur les ailes de l’avion solaire (vidéo)
(8) Le transport ou le stockage de l’énergie électrique
(9) Zoom sur la valorisation des algues
(10) Polémiques dans le monde des biocarburants
Image : Wikimedia / Julian Herzog. Licence CC-BY 4.0
Dans les années 1970 après le choc pétrolier, les prévisionnistes auguraient du « peak oil » (pic pétrolier) qui marquerait le moment où la production mondiale plafonnerait avant de diminuer en raison de l’épuisement des réserves mondiales. Cinquante ans après, alors que l’exploitation des huiles de schistes (1) américaines est passée par là, l’horizon du pic pétrolier a bien reculé, d’autant que les découvertes de gisements géants en Afrique, à Bahreïn, en Afrique subsaharienne, en Chine, en Alaska… se chiffrent à plus de 200 milliards de barils *.
En 2019, les prévisionnistes parlent maintenant d’un « peak oil demand » (pic de la demande pétrolière), c’est-à-dire que la consommation en pétrole diminuera avant que la production ne décroisse. Ainsi, la consommation, notamment en Europe, est de plus en plus sensibilisée par les alertes alarmistes sur le climat, les GES (gaz à effet de serre), les particules fines, la pollution et aussi par le prix des carburants à la pompe, ce qui nous incite à la diminution de l’usage des ressources fossiles.
Des faits et comportements nouveaux apparaissent. Alors que près de 60% du pétrole est encore consommé au niveau mondial par les véhicules particuliers et les transports (dont un peu moins de la moitié par nos véhicules particuliers et un peu plus par les autres transports), plusieurs pays annoncent la fin des véhicules thermiques d’ici 2040. Déjà, la réglementation européenne Euro 6 impose aux constructeurs des normes drastiques de consommation les obligeant à des prouesses techniques de « downsizing ** » et la mise sur le marché d’un nombre croissant de véhicules électriques (2). Certains gouvernements (France, Danemark) ne délivrent plus de permis d’exploration exploitation du pétrole sur leur territoire.
Même les compagnies pétrolières se diversifient en privilégiant d’abord le gaz, puis les énergies renouvelables (3). Shell annonce devenir un des premiers fournisseurs d’électricité. Total a racheté le fabriquant de batteries Saft (4) et vient d’investir sur l’emplacement de son ancienne raffinerie de Grande-Synthe les infrastructures test du projet BioTfuel destiné à l’élaboration de biocarburants de seconde génération à partir de biomasse lignocellulosique (5). Ceci-dit, même si en Norvège 60% des véhicules neufs sont électriques, il n’y a au monde en 2018 que 2,7 millions d’automobiles électriques sur le milliard de véhicules en circulation. Le calcul montre que l’électrification complète du parc mondial des véhicules particulier n’économiserait que 18 millions de barils/jour sur les 100 millions barils/jour actuels.
Pour la chimie et notamment la pétrochimie, les prévisions sont plus difficiles et suivant les agences intergouvernementales les chiffres varient. À partir du pétrole on extrait un certain nombre de produits :
- en tête de colonne d’abord le méthane pour le formaldéhyde et l’hydrogène,
- puis le butadiène pour les caoutchoucs, l’éthylène, le propylène, le butadiène pour les plastiques, les engrais et mousses isolantes,
- viennent ensuite les aromatiques pour les polyesters, les polystyrènes et les produits de base pour les médicaments,
- enfin les huiles et produits lourds.
Toutes ces fabrications utilisent environ 13% du pétrole, part qui pourrait monter à 22%, voire doubler, d’ici 2040 sans régulation comme par exemple l’interdiction mondiale des objets en plastique à usage unique et l’obligation planétaire du recyclage (6).
Pour les bâtiments, l’isolation et la réglementation thermique de la très basse consommation (BBC) va entrainer une baisse de la consommation du gasoil que l’on estime de l’ordre de 70 millions de TEP d’ici 2040.
La chimie verte aura aussi sa part dans l’économie des ressources carbonées fossiles. Arkema, par exemple, investit des centaines de millions en Asie pour sa 4e usine de polyamide fabrication à base de plante de ricin (7). La chimie végétale comme la chimie durable entrainera une baisse de la consommation d’énergie, de solvants et de déchets. Les procédés biotechnologiques se sont développés par crainte du manque de ressources fossiles mais aussi au début de notre décennie à l’approche de la barre des 120 $ le baril. Les procédés de fermentation bactérienne des sucres, des déchets végétaux et du bois pour la production d’isobutène matière première pour le caoutchouc et les plastiques ont été multipliés par des start-ups et les investissements de grands groupes, mais la chute du baril à 60$ a aussi fait chuter les espoirs des industriels confrontés à la concurrence et la compétitivité des mêmes produits issus de la pétrochimie (8). En Europe, on estime que les produits biosourcés, bien que ne représentant en 2019 que 3% du total des produits chimiques, ont un réel potentiel de progression. La condition est d’une part qu’ils présentent de meilleures propriétés et d’autre part de trouver des créneaux comme l’alimentation et la cosmétique où les consommateurs et les grandes enseignes demandent plus de « naturalité ».
Il est clair que toutes ces évolutions feront baisser les besoins mais il reste à prévoir la date à laquelle la courbe de consommation s’inversera et le « pic oil demand » interviendra. Les cabinets d’experts qui partagent cette analyse donnent une fourchette assez large : 2030 pour BP, 2050 pour l’AIE (agence internationale de l’énergie) avec des valeurs de production de 150 millions de barils/jour. Alors oui, au Japon la consommation stagne, l’Europe a réduit sa consommation de 4% en 5 ans mais le reste du monde l’a augmentée de 16%. L’accès à l’énergie, même chère, de plus de 5 milliards d’humains doit nous faire encore patienter de quelques dizaines d’années pour « l’après-pétrole ».
Jean-Claude Bernier et Catherine Vialle
Juin 2019
* Un baril est une unité de mesure pour le pétrole, qui vaut exactement 42 gallons américains, soit environ 159 litres.
** Le downsizing des moteurs vise à diminuer la cylindrée d’un moteur en gardant la même puissance finale et ainsi réduire la consommation.
Pour en savoir plus :
(1) Gaz de schistes : quels problèmes pour l’environnement et le développement durable ?
(2) L’industrie chimique au service de l’automobile
(3) Un exemple d’énergie renouvelable : l’essence verte
(4) Applications présentes et futures des batteries
(5) Des carbohydrates aux hydrocarbures
(6) Panique sur les déchets
(7) La grande aventure des polyamides
(8) Les variations de prix du baril et les énergies renouvelables
Non le gaz carbonique n’est pas un polluant, chimistes et biochimistes répètent à l’envie : le CO2 c’est aussi la vie ! (1) En effet si le carbone est l’élément essentiel du monde vivant, couplé à deux oxygènes et caressant une feuille sous le soleil et en présence d’eau, il permet aux végétaux de produire des molécules organiques telles que les sucres et la cellulose, âmes de la biomasse. Cette réaction naturelle de la photosynthèse fascine depuis longtemps les chercheurs qui rêvent de la reproduire (2).
Depuis plus de vingt ans, l’imagination des électrochimistes a permis de belles avancées (3). Le schéma le plus efficient couple une cellule photovoltaïque (4) qui sous rayonnement solaire fournit des électrons à une cellule électrochimique qui oxyde l’eau à l’anode et réduit le CO2 à la cathode.
Plusieurs réalisations ont déjà vu le jour fournissant à partir du CO2 du CO, des alcools, des acides organiques et même du méthane. Les rendements ont été parfois très corrects et supérieurs à celui de la photosynthèse naturelle, mais ils nécessitent le plus souvent des matériaux peu abondants et coûteux - des semiconducteurs de type AsGa, des catalyseurs à base de métaux précieux (rhodium, iridium, platine…) - rendant ces cellules difficilement extrapolables à grande échelle.
Pour passer à une échelle industrielle, ces systèmes mimant la photosynthèse naturelle doivent remplir plusieurs conditions :
- une réduction catalytique efficace du CO2 avec des électrocatalyseurs ne comportant pas de métaux rares ou chers (5) ;
- un milieu électrolytique stable et de pH peu acide pour limiter la corrosion ;
- un design de cellule avec une répartition des compartiments anodiques et cathodiques optimales pour éviter les pertes ohmiques ;
- un couplage à un système photovoltaïque robuste et peu coûteux.
C’est ce qu’a réussi un groupe de chercheurs européens coordonné par le Laboratoire de Chimie des Processus Biologiques (LCPB) du Collège de France (*). Après des années de recherche ce groupe a mis au point un système comprenant :
- une cellule d’électrocatalyse optimisée avec une distance anode-cathode réduite permettant un courant stable sous une tension inférieure à 3V ;
- des solutions électrolytes peu corrosives comportant des concentrations stabilisantes de bicarbonate ou carbonate de cesium ;
- des matériaux d’électrodes à base de cuivre où à la cathode sont présentes des couches d’oxyde Cu2O et CuO (6), la dernière montrant une structure dendritique nanostructurée poreuse ;
- une cellule photovoltaïque originale constituée de pérovskite (7) de type CH3NH3 Pb I3-x Brx fabriquée simplement par multicouches fonctionnelles avec des éléments abondants.
En fonctionnement, sous un flux de gaz CO2, la réduction de ce gaz et l’oxydation de l’eau fournissent des mélanges d’hydrocarbures tels que C2H4, C2H6, et CO, H2 bases de la chimie organique. Le rendement calculé par rapport à CO2 est de 2,3% (plus élevé que les 1% de la photosynthèse naturelle). Ce qui est important à souligner est que ce nouveau procédé mêle au moins deux innovations :
- une cellule électrocatalytique utilisant un métal abondant et très utilisé le cuivre
- et un générateur photovoltaïque à base de pérovskite se fabriquant à température ordinaire par sérigraphie de multicouches de matériaux peu coûteux, dont la fabrication industrielle commence.
Bien sûr des études complémentaires de procédés sont à faire car la cellule fonctionne avec du dioxyde de carbone pur alors que dans l’atmosphère (8) il est dilué à 400 ppm. L’augmentation des surfaces de contact ou le captage et la concentration peuvent être des solutions futures pour le développement industriel (9). Alors on peut se mettre à rêver à une économie de carbone en cycle fermé, en imaginant que nos combustibles seraient issus du même dioxyde de carbone produit par leur combustion. Voilà une belle solution à l’épuisement des ressources carbonées fossiles.
Jean-Claude Bernier et Catherine Vialle
Mai 2019
Pour en savoir plus
(1) Le CO2, matière première de la vie (Chimie et … Junior)
(2) Que faire du CO2 ? De la chimie ! 1334
(3) Les nouvelles cellules solaires nanocristallines 242
(4) Le soleil comme source d’énergie – le photovoltaïque 268
(5) Énergie électrique et réduction du dioxyde de carbone : quels électrocatalyseurs ? 878
(6) Expérience de réduction de l’oxyde de cuivre II (The reduction of copper oxide) 987
(7) Cristaux, cristallographie et cristallochimie 934
(8) Atmosphère ! Atmosphère ! Alerte ! 1555
(9) Le dioxyde de carbone : enjeux énergétiques et industriels 875
(*) Low-cost high-efficiency system for solar-driven conversion of CO2 to hydrocarbons, Tran Ngoc Huan, Daniel Alves Dalla Corte, Sarah Lamaison, Dilan Karapinar, Lukas Lutz, Nicolas Menguy, Martin Foldyna, Silver-Hamill Turren-Cruz, Anders Hagfeldt, Federico Bella, Marc Fontecave, Victor Mougel, Proceedings of the National Academy of Sciences Mar 2019, 201815412
DOI: 10.1073/pnas.1815412116
Cela fait déjà presque six mois que deux trains à hydrogène Coradia iLint d’Alstom sont exploités commercialement en Allemagne sur la ligne Cuxhaven - Buxtehude de 100 km. La France se réveille à peine et un chargé de mission le député Benoit Simian a remis en novembre un rapport sur l’utilisation de tels trains pour les nombreuses petites lignes non électrifiées (1).
Vous avez tous sans doute emprunté des TER régionaux marchant au gazole avec des moteurs diesel, bruyants et dont les fumées noircissent les quais et halls des gares. Ce nouveau train franco-allemand est plus silencieux et n’émet que de la vapeur d’eau dans ses fumées. Il a été mis au point par le constructeur en 2016 grâce aux innovations menées par deux centres, celui de Salzgitter en Allemagne pour la partie électrique et celui de Tarbes en France pour la partie traction et moteurs.
Quelle est son originalité ? L’énergie électrique lui est fournie par une pile à hydrogène (2) qui transforme ce gaz combiné à l’oxygène de l’air en eau et électricité.
Faisons un peu de chimie (3). Dans la pile à hydrogène à l’anode se produit la demi-réaction H2 → 2 H+ + 2e-. Les électrons passent alors dans le circuit extérieur de charge. Les ions H+ qui ont traversé la membrane (électrolyte solide laissant passer les ions mais bloquant les électrons) rencontrent à la cathode l’oxygène de l’air et la demi-réaction suivante se produit ½ O2 + 2 H+ + 2e- → H2O. Ces réactions sont catalysées par une micro-couche de platine. L’électricité fournie est envoyée dans des batteries ion/lithium (4) qui servent de tampon et alimentent les moteurs électriques de traction du train. Ces moteurs peuvent aussi lors des freinages et ralentissements envoyer du courant pour recharger ces batteries. Un algorithme règle le fonctionnement des piles et des batteries en fonction de l’énergie demandée pour économiser l’hydrogène. Le train peut emporter 300 passagers à des vitesses comprises entre 80 et 140 km/h avec une autonomie d’environ 800 km.
Sur la ligne en Allemagne, près de la gare de Bremervörde se trouve le « ravitaillement » alimenté par des camions-citernes d’Air Products. L’entreprise Linde fournira prochainement une station hydrogène sous la forme d’un grand container d’acier contenant l’hydrogène sous pression. Les trains s’arrêtent le matin pour faire en une dizaine de minutes le plein d’hydrogène qui est stocké dans des réservoirs sur le toit des voitures à côté des piles à hydrogène (5). Ce plein d’environ 200 kg d’hydrogène lui donne une autonomie d’environ 800 km ce qui est suffisant pour faire plusieurs allers et retours et desservir 5 gares par jour sur le trajet. Le Land de Basse-Saxe a déjà commandé 14 Coradia à Alstom qui devraient être livrés dès 2020. Pour les dirigeants allemands c’est une alternative écologique aux diesels car bien moins polluants. Certes pour l’instant ils fonctionnent avec de « l’hydrogène gris » issu du steam craking du gaz ou des hydrocarbures qui dégage du CO2 (6), mais l’objectif est d’avoir dans l’avenir de « l’hydrogène vert » (7) issu de l’électrolyse de l’eau par un courant électrique fourni par des éoliennes par exemple. Un champ de 10 MW pourrait d’après les calculs fournir par jour 2,5 tonnes d’hydrogène pouvant alimenter 12 à 14 trains.
Il est paradoxal que c’est en Allemagne que s’inscrit cette première mondiale alors qu’Alstom est une société française. Nous avons aussi en France le 2e fournisseur d’hydrogène mondial, Air Liquide, et nombre de start-ups performantes dans le domaine du stockage comme McPhy Energy. Toutes les conditions de recherche et de développement sont réunies, encouragées par le plan national de développement de l’hydrogène. Pour rattraper notre retard j’espère que le rapport de Benoit Simian permettra de voir que, plutôt d’électrifier les quelques centaines de voies secondaires, il sera plus économique de développer les Coradia d’Alstom sur le réseau français dès 2022, et que la réglementation sur l’hydrogène carburant évoluera comme en Allemagne. C’est pour le bénéfice de l’emploi, pour garder aussi une longueur d’avance en France pour le ferroviaire et pour lutter contre la concurrence chinoise de CRRC.
Jean-Claude Bernier et Catherine Vialle
Mars 2019
Pour en savoir plus :
(1) Chimie et transport, quel rapport ?
(2) Fonctionnement de la pile à combustible
(3) La chimie et le rail
(4) Piles à combustible et batteries au lithium
(5) Le transport ou le stockage de l’énergie électrique
(6) Et revoilà l’hydrogène
(7) L’hydrogène vert au secours des renouvelables
Vous connaissez sans doute « l’affaire du siècle » dont l’objet est d’attaquer l’État français au motif « d’inaction climatique ». C’est une initiative de quatre ONG, qui a recueilli sous forme de pétitions via les réseaux sociaux près de 2 millions de signatures. On peut bien sûr s’étonner qu’on ne se soit pas attaqué d’abord à l’État allemand ou chinois où la production de 1 kWh dans ces pays s’accompagne respectivement de l’émission de 550 g et de 700 g de CO2 alors qu’en France elle n’est que de 60 g (1). Mais d’après l’avocate de ces ONG, cette conduite française vertueuse n’est pas suffisante !
Or si jugement il y a, j’imagine que la justice voudra interroger toutes les parties et les choses risquent de se gâter. Car deux positions s’affronteront et la polémique qui enfle actuellement aux États-Unis et en Europe jusqu'en France sur le rôle du gaz carbonique comme élément essentiel de l’effet de serre et du réchauffement climatique s’y invitera (2). Des publications apparemment sérieuses de spectroscopistes spécialisés dans le rayonnement l’infra-rouge (IR) prétendent montrer que l’émissivité et l’absorption IR sont saturées dès 200 à 300 ppm de CO2 dans l’atmosphère et que le doublement de sa concentration ne modifierait en rien cette saturation. S’ensuit dans la littérature scientifique un débat sur les émissions infra-rouge de la Terre sous forme de courbes de Planck et leur modification dans la gamme d’absorption du CO2 autour de 15 microns. Il en est déduit que les climatologues « réchauffistes » ont eu tort dans leur modèle d’assimiler les molécules de gaz à des corps noirs dont les propriétés sont l’apanage des solides et non des gaz. Et donc que le CO2 ne peut contribuer à l’augmentation de température (3).
Cette thèse de plus en plus partagée est évidemment combattue par les scientifiques du GIEC qui maintenant expliquent que l’atmosphère est constituée de plusieurs couches en fonction de l’altitude, absorbant et réfléchissant l’IR, pour sauver leur modèle (4), et pour certains d’entre eux (pas tous) crucifiant les scientifiques s’opposant à leur thèse. Le problème est que les mesures disponibles des températures de la troposphère par satellites et ballons-sondes montrent qu’elles ne varient que très peu depuis près de 20 ans alors que les émissions de CO2 ont augmenté de plus de 10% (365 ppm en 1998, 408 ppm en 2018). De plus, les résultats des mesures s’écartent de plus en plus des modèles d’extrapolation des températures terrestres du GIEC qui prévoyaient en moyenne 0,4°C sur cette période. Plus grave encore est la fameuse courbe en forme de crosse de Hockey qui a disparu du 5e rapport du GIEC et qui avait affolé le monde politique et médiatique. D’après plusieurs spécialistes statisticiens elle aurait été manipulée par son auteur. Au secours de ce dernier plusieurs climatologues auraient aussi gommé l’optimum climatique de l’époque romaine et du Moyen Âge, en contradiction avec les preuves apportées par les historiens du climat et archéologues dignes de foi (5).
Ces polémiques jettent un trouble quasi tragique sur le modèle alarmiste de « l’urgence climatique » exigeant de la part de l’État des actions immédiates qui auront toutes chances d’avoir peu ou pas d’effet sur un phénomène qui serait du domaine de la variabilité naturelle. Au cours du dernier millénaire, canicules et sécheresses et petits âges glaciaires se sont succédé sans que le CO2 puisse être mis en cause. Avec une population en majorité croyante on entamait alors des processions ou des neuvaines pour que cessent ces phénomènes, aujourd’hui comme la religiosité a disparu, à l’heure des réseaux sociaux on pétitionne ! « Consensus omnium » !
Et pourtant dans un sujet aussi complexe que le climat, d’une erreur d’interprétation peut résulter un bien, en chimie une réaction loupée, un produit parasite peuvent nous en apprendre plus (6) sur les mécanismes réactionnels. Alors oui pour une meilleure isolation des bâtiments, oui pour une réduction de la consommation des ressources carbonées naturelles, oui pour l’énergie décarbonée, oui pour un changement de paradigme pour les transports. Transférons les milliards consacrés aux élucubrations climatiques à la recherche sur les véhicules électriques, sur les nouveaux réacteurs nucléaires, sur le stockage de l’énergie (7), sur le recyclage des matières de haute technologie, sur les procédés propres… Oui pourquoi pas à l’initiative de J. Jouzel et de P. Larroutourou pour le pacte finance - climat et à la création d’une banque européenne pour financer les recherches sur la transition énergétique, mais de grâce ne parlons plus de climat mais appelons le « pacte finance - préservation des ressources naturelles ».
Jean-Claude Bernier
Février 2019
Pour en savoir plus :
(1) Le challenge de l’électricité verte (Chimie et… junior)
(2) Le changement climatique (Chimie et… junior)
(3) Le changement climatique : question encore ouverte ?
(4) Le changement climatique : perspectives et implications pour le XXIe siècle
(5) Fluctuations climatiques extrêmes et sociétés au cours du dernier millénaire
(6) La maison écologique
(7) Cette « chère » transition énergétique
Lycéens, étudiants, et même parents, un avenir ça se prépare. Et si vous en êtes convaincus, il y a des coïncidences à ne pas manquer. Alors que Parcours up vient de s’ouvrir fin janvier, les 15 et 16 février prochain se tient à la Cité des sciences et de l’industrie à Paris le « Village de la chimie des sciences de la nature et de la vie », très grand rassemblement d’entreprises et d’établissements essentiel pour obtenir un large panorama des emplois et métiers de la chimie.
Le village regroupe plus de 30 entreprises, PME, starts-up et grandes industries, ainsi que plus de 30 établissements de formation, universités, grandes écoles et institutions spécialisées.
Ainsi vous pourrez au Village :
- vous informer auprès des entreprises des métiers, des profils recherchés, des déroulements de carrières dans l’industrie. Des spécialistes ingénieurs et des chargés des ressources humaines répondront à vos questions.
- vous orienter grâce aux établissements et aux responsables de formation présents qui vous renseigneront sur les filières et parcours du CAP au BTS, IUT, prépas, licences Pro, masters, écoles d’ingénieurs, doctorats, sans oublier l’apprentissage.
- vous préparer à la recherche d’emploi grâce aux ateliers pour vous entraîner à une utilisation efficace d’internet et des réseaux sociaux.
- vous exercer à l’entretien d’embauche et pourquoi pas vous initier à la création d’entreprise.
De nombreuses conférences et tables rondes peuvent aussi vous donner un large aperçu des applications novatrices de la chimie pour résoudre les grands défis de l’énergie, de l’environnement et de la santé.
La France a besoin de techniciennes et de techniciens, d’ingénieures et d’ingénieurs, de chercheuses et de chercheurs. La chimie et la biochimie sont les secteurs industriels où la parité homme/femme est presque réalisée. Venez nombreux et nombreuses, les métiers de la chimie vous attendent à la Cité des sciences et de l’industrie les 15 et 16 février.
En complément la tenue d’un stand d’information, le vendredi et le samedi à 14h, Mediachimie anime une conférence sur le thème : La chimie, science de l’innovation, recrute !
Découvrez les formations et les métiers qui embauchent sur le site d’orientation mediachimie.org.
Jean-Claude Bernier et Catherine Vialle
Février 2019
Site du village : http://www.villagedelachimie.org
Planning des conférences : http://www.villagedelachimie.org/inscrivez-vous/planning-des-conferences-et-ateliers/
Mi-janvier, la route du Tanneron (06) s’illumine d’une teinte jaune dorée avec l’éclosion des mimosas. Tout en bas au carrefour, des gilets jaunes facilitent la circulation loin des agitations parisiennes. Tout est jaune en ce pays grassois où nos sens s’enivrent d’effluves et de lumière (1).
Mais qu’est-ce vraiment que la couleur jaune ? En réalité c’est une sensation physiologique (2). Lorsqu’un photon de longueur d’onde 580 nm frappe les cellules cônes de notre rétine, le rétinal, qui est lié à une protéine - l’opsine, entame une photo-isomérisation qui déclenche une série de réactions biochimiques provoquant des impulsions électriques transmises au cerveau via le nerf optique. L’interprétation du cerveau de ces impulsions conduit à l’identification du jaune. On aurait la même sensation à la perception simultanée de deux lumières, l’une à 700 nm (rouge) et l’autre à 530 nm (vert), qui au cerveau reconstitueraient le jaune, la vision des couleurs par le système œil-rétine-cerveau fonctionnant avec une synthèse additive des couleurs.
La vision enchanteresse des pompons des fleurs de mimosa ne doit pas nous faire oublier que dans le sud, cette plante est devenue quasi invasive tant elle se plait dans le climat ensoleillé de la Côte d’Azur. Curieusement elle n’est pas indigène. Elle a été ramenée d’Australie vers l’Angleterre à la fin du XVIIIe siècle par les botanistes de l’expédition de James Cook et pour la France, ce fut l’expédition dans les terres australes de Nicolas Baudin au début du XIXe siècle qui ramena les premiers pieds vivants. Dès 1880, elle fleurit en pleine terre dans les jardins d’un château à Cannes La Bocca. Cette plante qui fleurit en hiver se souvient peut-être de sa date de floraison dans l’hémisphère Sud !
Tout autour de Grasse, les mimosas sont une matière première pour la fabrication des parfums. Des fleurs on extrait l’huile essentielle (1800 g pour 1000 kg) par hydrodistillation (3). L’extraction par solvants volatils comme l’hexane ou l’éther de pétrole puis filtration permet d’obtenir un concentré dit « concrète » (pâte plus ou moins solide). Ces « concrètes » sont alors solubilisés à chaud dans l’éthanol pour obtenir après filtration « l’absolue de mimosa » (4). Sont présentes alors quantité de molécules, entre autres : l’ester méthylique de l’acide salicylique, l’aldéhyde benzoïque, l’aldéhyde cuminique, le géraniol et des terpènes comme le triterpénol ou le lupénol. Cette « absolue » très chère est une base pour toute une série de parfums (Amarige, Paris, Champs Elysées, Moment Suprême…). Leurs caractéristiques : une odeur herbacée, de miel poudré, de vanille. L’huile essentielle diluée est recommandée comme antiseptique, anti-stress et apaisante.
Pour revenir au jaune des gilets, les gilets de sécurité dits de haute visibilité (sic) sont obligatoires pour les personnels sur les chantiers (5) et depuis 2008 en France dans les automobiles. Ils sont en tissu de coton ou en polyester respirant dont les fibres sont traitées avec des pigments fluorescents (6) c’est-à-dire qu’ils renvoient la lumière (7) lorsqu’ils dont éclairés par un flux d’excitation compris entre 360 et 405 nm, d’un jaune lumineux ! Les pigments organiques sont nombreux, bien sûr le plus ancien la fluorescéine, mais aussi la rhodamine, la coumarine, les cyanines… Les gilets montrent aussi des bandes grises réflectorisantes qui comportent des microbilles ou des micro-prismes de verre qui peuvent briller fortement même sous un faible éclairage et solliciter prioritairement nos cellules bâtonnets de la rétine.
Il vous reste si vous voulez rester branchés en ce mois de janvier à vous nourrir d’œufs car leur jaune est très riche en caroténoïdes comme la lutéine et la zéoxantine. Ils ont aussi un bon pouvoir liant et émulsifiant (8).
Surtout n’en faites pas une jaunisse tout cela passera en février à la chandeleur, avec les crêpes, rondes et jaunes comme le Soleil !
Jean-Claude Bernier et Catherine Vialle
Janvier 2019
Pour en savoir plus
(1) Lumière et couleurs (vidéo)
(2) La chimie crée sa couleur… sur la palette du peintre
(3) Hydrodistillation (vidéo)
(4) Ingrédients odorants et design olfactif
(5) Vers des textiles intelligents pour des vêtements performants et innovants
(6) Le textile, un matériau multifonctionnel
(7) L’art du verrier : des nanotechnologies depuis l’Antiquité !
(8) La chimie des sens ? Il y a tant de découvertes à faire !
En ce temps de fêtes de Noël et de fin d’année, de nombreuses molécules vont nous bercer et nous enchanter, contribuant à l’atmosphère gourmande et odorante.
Tout d’abord place au roi de la fête : le chocolat (1) fabriqué à base d’ingrédients naturels dont le cacao et le sucre. Le cacao contient des polyphénols qui piègent les radicaux libres toxiques pour l’organisme. Il contient aussi des triglycérides dont en majorité l’acide oléique (2), un acide gras insaturé (omega-3), ingrédient idéal pour combattre le cholestérol (3). D’autres oligoéléments y sont présents comme le magnésium, le phosphore et le potassium sans oublier des endorphines stimulantes et euphorisantes (4), bien nécessaires en hiver.
Viennent aussi d’autres molécules au sein des délicieux pains d’épices. D’abord le gingérol du gingembre lui donne son piquant. Pour le gout de saveur douce, sucrée et un peu épicée, la molécule responsable est la zingérone qui apparait lorsque le gingembre est chauffé pendant la cuisson (5).
Pour se réchauffer en ville, vous prendrez bien un cornet de marrons bien chauds. Lorsqu’elles sont grillées, les châtaignes dégagent quantité de composés volatils par réactions à haute température. La chaleur développe aussi diverses molécules dont le γ-butyrolactone qui donne en bouche un léger gout sucré caramélisé et le furfural qui apporte le côté boisé avec une légère odeur d’amande (6).
Les molécules odoriférantes sont aussi de la partie pour Noël. Ne serait-ce que l’odeur forte et magique des aiguilles du sapin. La responsable est la molécule pinène, présente sous ses deux formes isomères α et β. L’α-pinène est connu comme antiseptique présent également dans la lavande et la sauge. L’autre odeur fraiche du sapin est celle de l’acétate de bornyle utilisé aussi dans les parfums ou les désodorisants (7). Synthétisé naturellement par plusieurs conifères il est aussi utilisé en phytothérapie pour ses propriétés sédatives (8). Côté cadeaux, vous recevrez ou offrirez peut-être des parfums, subtils mélanges de produits naturels et de composés synthétisées (9) (10).
Enfin, si lors des repas de fêtes vous garnissez la table avec du houx n’ingérez pas les baies rouges, elles contiennent des alcaloïdes qui peuvent être toxiques en grande quantité (11). De même, en vous embrassant sous le gui à la Saint-Sylvestre comme le veut la tradition, ne laissez pas trainer par terre trop de baies blanches translucides, elles contiennent de la viscotoxine qui est toxique, tant pour les hommes que pour les animaux de compagnie.
Laissez-vous entourer de molécules naturelles et euphorisantes. Joyeux Noël et bonnes fêtes !
Jean-Claude Bernier et Catherine Vialle
décembre 2018
Pour en savoir plus sur Mediachimie.org
(1) Le chocolat est-il bon pour la santé ?
(2) Acide oléique (produit du jour de la SCF)
(3) Les emplois thérapeutiques du chocolat
(4) Sport et cerveau (Chimie et... Junior)
(5) Le gout : de la molécule à la saveur
(6) Les méthodes de mesure des odeurs : instrumentales et sensorielles
(7) Vision d’avenir de l’industrie dans le domaine des parfums, arômes, senteurs et saveurs
(8) Un exemple de production de substances actives ; le pouvoir des plantes
(9) Le laboratoire des odeurs (vidéo)
(10) Ingrédients odorants et design olfactif
(11) La bonne chimie est-elle dans le bon dosage ?
Image d'illustration © DR. Images sous licence CC0 sauf cake pain épices (licence CC2, F. Voisin Demery)
Le 16 novembre dernier à Versailles la Conférence générale des poids et mesures (CGPM) a voté la condamnation du « grand K ». À partir du 20 mai 2019 la définition du kilogramme sera basée sur une constante fondamentale de la physique : la constante de Planck h en kg.m2/s ; le « grand K » n’a donc plus que six mois à vivre.
C’est toute l’histoire du système international d’unités (SI) qui bascule. La création du système métrique décimal remonte à la Révolution française. Les définitions du kilogramme, basé sur le poids d’un décimètre cube d’eau pure à 4°C, et du mètre, correspondant au dix millionième de la distance du pôle Nord à l’équateur sur le méridien de Paris, n’étaient plus satisfaisantes.
Dès 1799 deux étalons furent forgés en platine (1) : un cylindre d’un kilogramme et une barre d’un mètre de longueur. Afin d’accroître la stabilité des étalons, deux nouveaux étalons furent forgés en 1889 dans un alliage de platine iridium (2). Le cylindre de 39 mm de haut fut alors enfermé sous trois cloches de verre dans un coffre-fort au Bureau international des poids et mesures (BIPM) à Sèvres près de Paris : c’est « le grand K », qui a servi de référence pendant près de 130 ans. Plusieurs répliques ont été faites dès 1875 lorsque le système international d’unités (SI) fut adopté par plus de soixante pays. Le « grand K » n’a quitté sa chambre forte que trois fois pour le comparer à ses « enfants », on s’aperçut alors qu’au fil du temps la masse du « grand K » était inférieure de 50 microgrammes à celles de ses répliques (5.10-8 kg, un grain de sable).
Lors de la 21e Conférence générale des poids et mesures en 1999, il fut demandé aux laboratoires nationaux d’affiner les expériences pour relier l’unité de masse à des constantes fondamentales. En France les chercheurs du CNAM, du LNE (Laboratoire national de métrologie et d’essais) et de l’Observatoire de Paris unirent leurs efforts pour confronter leurs résultats avec ceux du NRC (National Research Council) au Canada et du NIST (National Institute of Standards and Technology) aux États-Unis, ce qui aboutit en 2017 à la détermination de la valeur de la constante de Planck h avec une incertitude de moins de 5.10-8. Les chercheurs ont utilisé pour cela une balance de Kibble, une balance un peu particulière car elle ne comporte qu’un seul plateau, l’autre étant constitué d’une boucle magnétique au centre de laquelle on fait passer un courant précis dans un conducteur qui développe une force électromagnétique que l’on relie à la constante de Planck. Une seconde méthode utilisée par des chercheurs allemands consiste à fabriquer une sphère parfaite en silicium cristallisé très pur (3) d’un kilogramme. En comptant le nombre d’atomes de cette sphère, on calcule le nombre d’Avogadro avec une grande précision que l’on relie aussi à la constante de Planck. Grâce à ces méthodes et à la confrontation des résultats en 2017 la valeur de la constante a été fixée à h = 6,626 070 15 × 10−34 kg.m2.s-1 (J.s en SI).
Dans la foulée et en cascade à partir de mai 2019, la seconde, le mètre, le kilogramme, le kelvin, l’ampère (4), le candela et la mole (5) auront des définitions actualisées. Donnons quelques exemples :
- la seconde, calée sur la fréquence de transition hyperfine du césium 133 égale à 9 192 631 770 Hz équivalent à s-1
- le mètre à partir de la vitesse de la lumière dans le vide c = 299 792 458 m.s-1
- le kilogramme à partir de sa relation avec h = 6,626 070 15 × 10-34 kg.m2.s-1
- la mole, unité de matière, qui contient 6,022 140 76 × 1023 entités élémentaires, correspondant à la valeur de la constante d’Avogadro NA en mol-1
Toutes ces valeurs sont issues des quatre constantes h (constante de Planck), e (charge élémentaire), k (constante de Boltzmann) et NA (nombre d'Avogadro) qui ont nécessité un travail long à l’échelle internationale depuis plusieurs dizaines d’années, avec de multiples expérimentations. Elles ont permis la convergence des résultats, entérinés par CODATA (Committee on Data of the International Council for Science).
On peut se poser la question de savoir si ces précisions sont vraiment utiles ? En fait, pour la seconde et la mesure du temps, on connait la précision des horloges atomiques qui ont permis la définition étonnante des GPS. Pour la médecine et la pharmacie la définition exacte des doses et micro-formulations a besoin de références. Pour nos balances de ménage et nos pèse-personnes ce n’est pas 50 microgrammes après la retraite du grand K qui changera nos vies. En revanche, c’est une nouvelle ère qui s’ouvre pour la métrologie où l’on change de paradigme. En effet, les constantes ne reposent plus sur des objets matériels mais sur des facteurs physiques de nature fondamentale universelle.
Jean-Claude Bernier et Catherine Vialle
novembre 2018
Pour en savoir plus
(1) Produit du jour de la Société chimique de France
(2) Le mètre de 1889
(3) Toujours plus petit ! (Chimie et… junior)
(4) Ampère et la chimie
(5) La constante d’Avogadro (vidéo)
Voir aussi sur le site du LNE (Laboratoire national de métrologie et d’essais)
Le kilogramme
Introduction au système international d’unités
Réplique du Grand K. © National Institute of Standards and Technology.
En 1914, l’industrie chimique organique en France est quasi inexistante, elle ne représente que 2 % du marché mondial alors que celle de l’Allemagne approche les 85 %. La chimie minérale et l’électrochimie avec la production de soude, de chlorates et de phosphates (1) est un peu plus vaillante avec des sociétés comme Saint-Gobain, Air Liquide ou Kuhlmann. Malgré les avertissements des chimistes alsaciens qui avaient fui leur province pour Paris après 1870, inquiets de voir l’hégémonie industrielle allemande s’appesantir sur la France sans sursaut de la part du gouvernement et des investisseurs. Albin Haller (2), qui avait réformé l’enseignement à Paris et à Nancy des ingénieurs chimistes, déplorait le manque de liaison entre l’université et l’industrie tout comme Lebon qui disait : « Les laboratoires étaient des sanctuaires de science pure, où ne parvenait pas le bruit de l’usine, et l’usine vivait d’empirisme et de routine » (3). Un autre chimiste, Charles Moureu, affirmait : « Il est certain que sans la puissance de son industrie, et tout particulièrement de son industrie chimique (…), jamais l’Allemagne ne nous eût déclaré la guerre ».
Cette faiblesse française apparait dès 1914 lors de l’erreur stratégique du haut commandement militaire qui escomptait une guerre courte et un approvisionnement de 10 000 obus par jour. Or, dès octobre 1914, c’est 100 000 obus par jour qui seront nécessaire. Le manque d’explosifs et la prise des mines de charbon et de fer du Nord et de l’Est privent de plus l’approvisionnement en benzol et en coke. Le gouvernement réagit et dès 1914 crée l’Office des produits chimiques et pharmaceutiques et nomme en 1915 un comité de direction de chimistes dont Albin Haller sous la présidence d’Auguste Béhal. Très vite, sous l’impulsion des ministères du Commerce et de l’Armement nait la Commission des matières colorantes qui initie le Syndicat national des matières colorantes (SNMC) qui deviendra très vite la Compagnie nationale des matières colorantes (CNMC). Celle-ci, avec le Service des poudres, contribue à la fabrication de tous les produits explosifs, composés chimiques et colorants. Fin 1915, un ambitieux programme soutenu financièrement par l’État se met en place, la chimie devient un but essentiel de l’économie de guerre.
La guerre chimique déclenchée par les Allemands par les attaques au chlore en 1915 (4) illustre la réaction française. En France la production de chlore était quasi nulle. Seules trois usines étaient capables d’en produire dont celle de la Motte-Breuil dans l’Oise sous séquestre car appartenant à Hoechst. Un contrat américain avec Dupont de Nemours apporte quelques tonnes. Mais l’État permet au groupe industriel de Alexandre Giros et de Louis Loucheur de construire à Pont-de-Claix près de Grenoble une usine qui dès mars 1916 produira des tonnes de Cl2. Dans la foulée près de dix usines électrochimiques sont équipées et financées. Deux usines construites en Tunisie approvisionneront en brome. Après 1917, une même réaction et collaboration en recherche et industrielle permettra de produire un autre gaz toxique, l’ypérite, qui avait été employé par les forces allemandes.
Pour les explosifs, le benzol, l’acide sulfurique et surtout l’acide nitrique et les nitrates manquaient. Il fallait s’approvisionner avec difficulté en nitrates du Chili, alors qu’en Allemagne, grâce au procédé Haber-Bosch, ammoniac (5) et nitrates étaient produits à partir de l’azote et des milliers de tonnes d’engrais peu coûteux s’amoncelaient pouvant aussi bien servir comme explosifs. C’est pourquoi après l’armistice de 1918 les diverses usines de l’IG Farben dont l’immense site d’Oppau furent occupés et les services chimiques français réclamèrent la divulgation de l’ensemble des procédés utilisés pour les armes de guerre. Les sociétés allemandes s’y refusèrent et réclament l’arbitrage de la Commission d’armistice. Celle-ci sous l’influence des Anglais et des Américains déclara que la « synthèse des nitrates revêt[ait] un caractère commercial et non militaire ». Nos chimistes de la délégation ne s’avouèrent pas vaincus et lors des pourparlers en 1919 et dans la rédaction du Traité de paix il y eut bien sûr une référence à l’industrie chimique allemande coupable de l’initialisation de la guerre chimique et l’exigence de l’anéantissement des usines de l’IG Farben où les gaz toxiques et les nitrates avaient été produits de 1914 à 1918.
C’est alors que se place en juin 1919 une rocambolesque négociation. Carl Bosch, qui était le chimiste de la délégation allemande, fut aperçu nuitamment franchissant les murs d’enceinte du parc où résidait la délégation pour rencontrer en secret un conseiller du ministère de l’Armement et des fabrications de guerre qui faisait partie de la Commission de contrôle des usines chimiques outre-Rhin. C’était le frère du futur directeur de la CNMC qui regroupait toutes les industries chimiques françaises soutenues par l’État. Bosch qui savait (et pour cause) que les brevets avaient été conçus pour les rendre inintelligibles aux étrangers de la chimie organique allemande et que la destruction des usines de l’IG Farben ne serait d’aucun secours à l’industrie chimique française négocia un accord avec les chimistes qui remonta au plus haut niveau. Cet accord stipulait la sauvegarde des usines chimiques outre-Rhin contre la révélation du procédé Haber-Bosch et l’aide des chimistes allemands pour la construction sur le territoire hexagonal d’usines de synthèse de NH3 et de nitrates. Dès 1920 le gouvernement français suscita un groupe d’industriels intéressés par la mise en application des brevets et des procédés. L’Office national industriel de l’azote (ONIA) fut créé en 1924 et plusieurs usines s’installèrent sur le site de l’ancienne poudrerie de Toulouse. Dès 1927 l’ONIA devint le premier producteur et exportateur de nitrate d’ammonium, maintenant connu sous le nom AZF (6).
L’économie de guerre avec un dirigisme étatique fort va changer l’industrie. Les entreprises chimiques comme celles des autres secteurs manquaient d’innovation et de capital pour l’investissement, les commandes de l’État entre 1914 et 1918 vont modifier largement le panorama. L’industrie chimique trop éparpillée va évoluer à marche forcée. La SCUR (Société chimique des usines du Rhône) bénéficiant de marchés captifs sur le phénol et les explosifs (7) multiplie son chiffre d’affaire par quinze, les bénéfices de la société Saint-Gobain augmentent de 70 %, la CNMC absorbe plusieurs compagnies et profite du rebond de la chimie organique. Michelin qui fournit les pneus des camions va accumuler un capital qui lui permettra, dès 1919 et l’essor de l’automobile, d’investir et de devenir une des toutes premières industries.
Après 1918, plusieurs écoles d’ingénieurs chimistes se créent sur le modèle de l’ESPCI, de Nancy de Mulhouse, la recherche universitaire dialogue avec l’industrie d’autant que Saint-Gobain, Air liquide, la SCUR, Michelin… ont la taille et les besoins en compétences pour jouer un rôle international. Cette évolution industrielle se double d’une évolution sociétale où, après la saignée de plusieurs millions d’hommes, les femmes prennent une place essentielle dans l’économie. La jeune industrie automobile et la naissante industrie aéronautique comme l’industrie chimique vont croître, sans faire oublier l’hécatombe et le sacrifice de millions d’hommes jeunes et de civils.
Jean-Claude Bernier
Novembre 2018
Pour en savoir plus
(1) Données industrielles, économique, géographiques sur les principaux produits chimiques, métaux et matériaux; L'élémentarium
(2) Solvay et la France. Un partenariat pour la chimie : Ernest Solvay – Albin Haller
(3) La chimie française dans la seconde moitié du XIXe siècle
(4) Il y a cent ans : la guerre chimique
(5) The Synthesis of Ammonia from Its Elements
(6) Enquête technique après accidents industriels
(7) L’industrie chimique française pendant la guerre : matières premières servant à la préparation des poudres et explosifs
Le dernier rapport alarmiste du GIEC coïncide presque avec le Salon mondial de l’automobile à Paris en cette mi-octobre. Bonne occasion pour voir si les nouveaux véhicules vont aider à rester sous 1,5 °C de réchauffement d’ici 2030 (1) ! Alors que la progression des ventes d’automobiles de l’ordre de 2,6 % annuels n’a pas été ralentie depuis l’accord de Paris de 2015, constructeurs et gouvernements dans un grand élan « médiaticologique » ont banni les véhicules thermiques (2) de leur vente, routes et villes d’ici 2030 ! D’où la floraison porte de Versailles et place de la Concorde de véhicules hybrides, hybrides plug-in, électriques, à hydrogène… Au-delà des annonces « green business » reprises par tous les media politiquement corrects, quelques voix de techniciens s’élèvent mettant en doute leur vocation de sauveurs de la planète à l’encontre de l’opinion moutonnière. Qu’en est-il ?
Faisons d’abord un sort aux hybrides avec ou sans plug-in qui rechargent leurs batteries avec le moteur thermique ou une prise dans le garage, ils n’ont d’électrique que le nom sur le catalogue. En général de gros SUV alourdis par une batterie et un moteur électrique annexe fleurissent aux abords des écoles où les parents hauts perchés montrent leur sentiment écologique aux têtes blondes. Quelques élus de la nation veulent qu’ils accèdent à une prime de 2000 € alors qu’ils ont une autonomie de 1000 km grâce à leur réservoir de gasoil en émettant à tout va du CO2 (3) et ne peuvent parcourir que 40 km au moteur électrique. Ce sont à l’évidence à 90 % des véhicules thermiques, ils n’ont rien d’électrique !
Les véhicules tout électrique vus au salon sont-ils différents ? Ils sont très beaux et tentants avec des autonomies comprises maintenant entre 250 et 450 km grâce à des packs de batteries ion–lithium (4) de réserve comprise entre 30 kWh et 60 kWh. Hélas de petits calculs simples font douter qu’ils répondent aux souhaits du GIEC d’utiliser des moyens de transport à énergie renouvelable (5) pour nous sauver du réchauffement climatique. Prenons l’exemple d’une automobile moyenne à la limite du malus en France. Elle émet 120 g de CO2 par kilomètre. Imaginons qu’elle parcourt 15 000 km/an au cours de son utilisation durant 10 ans, l’émission sera de
Prenons son équivalent électrique d’autonomie d’environ 300 km elle dépense 20 kWh/100 km. En la gardant 10 ans (en espérant garder la même batterie) et avec le même kilométrage de 150 000 km elle aura dépensé 30 000 kWh. Si ce parcours est fait en France, avec un mix électrique (6) qui donne 50 g CO2/kWh, l’émission équivalente sera de
Attention nous disent les spécialistes des cycles de vie, il faut aussi tenir compte de l’énergie nécessaire à la fabrication. On supposera que l’énergie nécessaire à l’élaboration carrosserie, moteurs, accessoires, est la même pour les deux véhicules. Par contre pour l’électrique s’ajoute celle nécessaire pour fabriquer le lourd pack de batteries : les spécialistes la montent à environ 15 000 kWh. Malheureusement pour nous, sur tous les véhicules électriques ces batteries viennent à 90 % d’Asie avec un mix électrique chinois qui donne l’équivalent de 11 500 kg de CO2 qu’il faut ajouter au bilan total. On voit alors qu’en Allemagne et en Chine la voiture électrique aura « émis » in fine respectivement 60 % et 100 % de CO2 de plus que la voiture thermique. On notera en passant l’avantage d’implanter une « gigafactory » en France parce qu’alors le supplément ne serait que de 750 kg de CO2.
Sont aussi exposés au Salon trois véhicules mus électriquement grâce à une pile à combustible utilisant l’hydrogène, disponibles en 2018, et figurent aussi de nombreux projets prévus au-delà de 2020 (7). Ce n’est pas la peine de rappeler aux chimistes qu’à 95 % l’hydrogène est obtenu par « steam cracking » du méthane ou hydrocarbures et que la production d’un kilogramme de H2 s’accompagne de la production de 10 à 20 kg de CO2. Pour ces magnifiques automobiles exposées il faut 1 kg d’hydrogène stocké à 700 bars pour parcourir 100 km ayant dégagé déjà 10 kg de CO2. Le même calcul sur le parcours durant 10 ans de 150 000 km conduit à une consommation de 1500 kg de H2 et une émission « décalée » de 15 000 kg de CO2. On pourrait y ajouter le supplément de fabrication de la pile (8) et de la batterie tampon, mais on peut se contenter de voir qu’il faut consacrer le tiers de l’énergie disponible de l’hydrogène pour le comprimer à 700 bars, soit 15 000 kWh. S’il est comprimé en France on ajoutera 750 kg de CO2, si c’est en Allemagne on ajoutera 8250 kg soit au total respectivement 15 750 kg et 23 250 kg de CO2 comparés au véhicule thermique (18 000 kg) et tant pis pour la Chine.
Vous voyez donc que constructeurs et élus dans un grand élan de « green washing » oublient de nous dire qu’il y a de forte variations de rejets de gaz de serre suivant les pays à mix électrique fortement décarboné comme la France ou la Norvège, moyennement comme l’Allemagne ou le Japon et peu ou pas comme la Chine ou l’Inde, avec des résultats qui montrent que dans les deux dernières situations les rejets sont pires pour les véhicules « propres » que pour le thermique. Les subventions à l’achat des hybrides et électriques ne seraient-ils pas mieux employés à investir en France pour une grande usine de fabrication de batteries, aujourd’hui importées à grand frais et à fortes émissions de CO2 depuis la Chine. Pour sauver la planète fabriquons et roulons en France, sinon marchons à pied ou faisons comme Gaston Lagaffe, installons sur notre voiturette électrique une éolienne sur le toit !
Jean-Claude Bernier
octobre 2018
Pour en savoir plus
(1) Le changement climatique : question encore ouverte ?
(2) Le moteur électrique comparé au moteur thermique, enjeux et contraintes
(3) Le gaz carbonique
(4) Applications présentes et futures de batteries
(5) Vers des transports décarbonés : carburants, combustion et post traitement pour les transports routiers
(6) Les enjeux de la chimie dans la production d’électricité
(7) L’hydrogène bientôt dans nos automobiles
(8) Fonctionnement de la pile à combustible
En octobre, la sonde PSP (Parker Solar Probe) va entamer sa première révolution autour de Vénus pour accélérer en profitant de l’assistance gravitationnelle et se lancer dans sa première ellipse autour du Soleil en novembre. Il convient alors de rappeler comment la chimie (1) est concernée par cette exploration historique.
« Toucher le soleil » (2) est un vieux rêve que l’humanité et les scientifiques caressent avec envie depuis Icare. Le Soleil est en effet un gigantesque laboratoire où la fusion nucléaire, la gravité géante, la physico-chimie des plasmas et les tempêtes magnétiques posent autant de problèmes physiques inexplorés qu'ils suscitent de soifs de savoirs.
La couronne solaire s’étend sur plusieurs millions de kilomètres et est composée d’hydrogène, d’hélium, de carbone et d’ions de métaux de transitions. C’est là que sont générés les vents solaires qui se déploient à travers tout notre système planétaire. La température y est d’un million de degrés Celsius, soit 300 fois la température de surface du Soleil (5500°C). C’est dans la perspective d’étudier cette couronne que la sonde PSP va s’en approcher progressivement, jusqu’à une distance de 6 millions de km en 2024 lors de sa dernière rotation. Même à cette distance qui équivaut à plusieurs fois le rayon du Soleil, la température peut avoisiner 1300°C et le rayonnement émis est 600 fois supérieur à celui que vous avez peut-être reçu sur la plage cet été (3).
La sonde PSP embarque de multiples instruments et capteurs auxquels des laboratoires et équipes de chercheurs français ont collaboré pour étudier la vitesse et la densité du vent solaire : la caméra pour visualiser des parties de la couronne, le détecteur magnétique pour étudier les champs électriques et magnétiques, le capteur pour mesurer l’énergie des particules, ions, électrons et protons issus des éruptions solaires... (4).
Par exemple, le laboratoire de physique et chimie de l’environnement et de l’espace (LCP2E) d’Orléans a réalisé et assemblé le magnétomètre à induction SCM (Search Coil Magnetometer) pour l’étude ses champs dans le plasma. Le Laboratoire de physique des plasmas (LPP) à l’École polytechnique a conçu un spectromètre assemblé aux États-Unis pour étudier les turbulences du vent solaire. L’Institut de recherche en astrophysique et planétologie de Toulouse (IRAP) est sollicité pour l’interprétation des images de la caméra.
Tous ces instruments, circuits et capteurs doivent pouvoir résister aux rayonnements et hautes températures. Les circuits électriques et une partie de l’électronique (5) sont réalisés à base de niobium et de tungstène, métaux réfractaires à hautes températures de fusion. Il faut même un bouclier protecteur de ces instruments, de 2,4 mètres de diamètre, épais de plus de 11 cm et composé de deux panneaux en fibres de carbone (6) séparés par un sandwich de mousse de carbone et, sur la face qui sera exposée au Soleil, une couche céramique blanche réfractaire et réfléchissante.
Ces équipements ont été testés au laboratoire du CNRS PROMES qui dispose à Odeillo d’enceintes sous vide pour tester des objets de grande dimension à plus de 2000°C grâce au four solaire.
Les résultats des mesures devraient pouvoir permettre de connaître les processus de la surchauffe fantastique de la couronne sous l’influence d’ondes électromagnétiques et comprendre l’origine des tempêtes de vents solaires dont les vitesses de 200 à 800 km/s ont érodés la Lune et la planète Mars (7), faisant disparaître toute trace de vie et provoquant sur notre terre des perturbations électriques et magnétiques qui peuvent avoir des répercussions dramatiques dans les télécommunications et le climat (8).
Jean-Claude Bernier
Septembre 2018
Pour en savoir plus :
(1) La chimie et l’espace
(2) Spectre et composition chimique du soleil (vidéo)
(3) De la terre au soleil (vidéo)
(4) Fusion au cœur des étoiles (vidéo)
(5) De la chimie au radar du Rafale
(6) Les nouveaux matériaux composites pour l’aéronautique
(7) De la chimie sur Mars
(8) Le changement climatique : question encore ouverte ?
L’actualité de cet été 2018 a été marquée par les annonces et descriptions de feux de forêts. Le Portugal, la Grèce, la Suède, la Californie ont été les théâtres de gigantesques incendies très médiatisés où l’élévation de température (1) ou des actes criminels (2) ont eu leurs rôles. Des centaines de milliers d’hectares et habitations ont été détruites malgré les grands moyens de lutte mis en action. Quelles sont les réactions chimiques présentes lors de ces embrasements et de leurs extinctions ?
Lors d’un feu de forêt, hors de la combustion du carbone des végétaux qui dégagent des oxydes de carbone CO2 et CO (3), de nombreux composés organiques volatils (4) sont présents dans les fumées issues de la pyrolyse de la cellulose. Ces composés ont été très étudiés par le CEREN en fonction du type de végétaux :
- pour le chêne les fumées contiennent des composés benzéniques et phénoliques tels que C6H6, C7H8, du furfural C5H4O2, l’acide acétique, le p-crésol sont aussi présents, mais peu de terpènes ;
- pour les ajoncs, buissons épineux et broussailles de sous-bois les fumées sont riches en benzène (5), toluène, xylène et acide acétique, mais pas de terpènes ;
- pour le pin au contraire on trouve dans les fumées beaucoup de terpènes et peu de composés phénoliques.
Tous ces composés volatils qui se dégagent lors de la pyrolyse sont très inflammables et dès qu’ils rencontrent les conditions favorables de température et de concentration en oxygène ils transforment les arbres en torches incandescentes quasi explosives telles que nous les décrivent les pompiers sur place.
Hors les principes de préventions mis en place notamment en France et en Europe du Sud, comment lutter contre les incendies lorsqu’ils se sont déclarés ? Les principes sont toujours les mêmes :
- faire baisser la température de combustion (750 °C - 400 °C)
- priver les composés carbonés d’accès à l’oxygène de l’air
C’est pourquoi depuis toujours on arrose les flammes avec de l’eau (6). Sa chaleur latente de vaporisation très élevée permet à l’eau de puiser des calories au brasier et de faire baisser la température. Sa vapeur remplace l’oxygène de l’air.
Depuis les années 1960, on y ajoute des retardateurs de combustion non toxiques pour l’environnement. Ce fut d’abord des ajouts d’argile (7) en suspension comme la bentonite qui recouvre d’une couche les végétaux et retarde la pyrolyse. Puis des hydroxydes d’aluminium, [Al(OH)3], ou de magnésium, Mg(OH)2, qui à température élevée délivrent de l’eau et donnent les oxydes Al2O3 ou MgO réfractaires.
Actuellement les moyens aériens et additifs largués se sont perfectionnés. On distingue trois types d’ajouts :
- les retardateurs tels que les polyphosphates d’ammonium avec des argiles comme l’attapulgite dilués dans l’eau à 20 % ;
- les agents mouillants de types tensioactifs ;
- des agents moussants (8) comme l’hexylène glycol (ou 2-Methyl-2,4-pentanediol) et le n-octanol qui isolent de l’air le végétal par une couche de mousse adhérente.
Les techniques d’attaque du front de flamme se sont perfectionnées avec les célèbres canadairs qui en quelques secondes larguent 1/3 de leur charge de 7 m3 sur les flammes et 2/3 sur la végétation avant qu’elle soit atteinte par les flammes. On y ajoute un colorant qui est souvent l’oxyde de fer Fe2O3 de couleur rouge pour que les avions suivants voient bien la trace du largage précédent. Et que dire du supertanker de Boeing le 747–400 qui peut larguer en 10 secondes 72 m3 de mélanges que l’on a vu en action en Californie ? Mais finalement ne vaut-il pas mieux suivre en forêt les recommandations de prudence de la protection civile et des pompiers pour éviter la première flamme ?
Jean-Claude Bernier
Août 2018
Pour en savoir plus :
(1) Chimie atmosphérique et climat
(2) La chimie mène l’enquête
(3) Nom de code : CO2
(4) Pollution et feux de cheminées
(5) Sur la structure du benzène
(6) L’eau : ses propriétés, ses ressources, sa purification
(7) Biogéochimie et écologie des sols
(8) Les secrets des mousses, une interview de Claude Treiner
La fin du mois de juillet et le début d’août 2018 sont marqués par des températures notablement supérieures à la moyenne et plusieurs départements français ont été mis en vigilance canicule. Ces problèmes de chaleur touchent une partie de la population, surtout en milieu urbain. Comme il n’est pas facile de « mettre les villes à la campagne » comme le souhaitait Alphonse Allais, il s’agit de mettre en œuvre les moyens de lutter contre ces températures extrêmes dans les habitations, dispositifs où la chimie est largement sollicitée.
Essayons de se rappeler quelques éléments simples de thermodynamique. Dans un fluide gazeux les zones chaudes migrent inévitablement vers les zones froides. Pour un solide, sa conduction thermique facilite plus ou moins le transfert des calories du chaud vers le froid. Pour un liquide, en fonction de la température et de la pression, la vapeur est en équilibre avec le liquide. Pour passer de l’état liquide à l’état vapeur, il faut fournir une certaine quantité d’énergie qui est l’enthalpie de vaporisation qu’on appelle parfois chaleur latente et qui diffère suivant les formules chimiques des liquides (pour l’eau : 2260 kJ/kg, pour l’alcool 855 kJ/kg).
Premier moyen donc : améliorer l’isolation thermique des bâtiments (1), ce qui est valable en hiver l’est aussi en été. Isolation des combles par la laine de verre, de roche ou de cellulose, doublage des cloisons externes par le polystyrène expansé, double vitrage à lame d’argon, permettent de placer des barrières à très bonne isolation entre l’extérieur et l’intérieur (2).
Deuxième moyen : utiliser un liquide à bonne chaleur latente et l’évaporer à l’intérieur car il va pomper les calories et évacuer les vapeurs à l’extérieur pour les recondenser en évacuant les calories grâce à un échangeur. C’est le principe du climatiseur en utilisant un fluide frigorigène comme des chlorofluoroéthanes (maintenant interdits) ou l’ammoniac qui ont des températures d’ébullition assez basses sous des pressions compatibles avec des installations domestiques.
On peut aussi utiliser de petits ventilateurs refroidisseurs qui utilisent l’évaporation d’un film d’eau, car l’eau a une forte chaleur latente, capables de refroidir de quelques degrés une pièce de la maison.
Le problème des grandes villes est plus large (3), car elles possèdent des « îlots de chaleur », en centre-ville le béton, le goudron, absorbent la chaleur le jour et la restituent la nuit et la température nocturne reste élevée. La forme et l’implantation des bâtiments et surtout la végétalisation sont de nature à refroidir l’atmosphère (4). En effet, les arbres font de l’ombre et leurs feuilles rejettent la vapeur d’eau. Lors des fortes chaleurs, il peut y avoir 3°C de différence entre le Bois de Boulogne et le centre de Paris. En ville, moins utiliser la climatisation mais avoir plutôt recours au réseau de froid urbain (5) qui utilise de l’eau naturelle glacée et qui permet d’économiser plus de 90 % de gaz à effet de serre. Avoir des revêtements clairs réfléchissant les rayonnements, remplacer le goudron par des pavés granit plus poreux et moins absorbants sont les éléments d’une nouvelle politique de la ville. Enfin la circulation automobile (6), n’oublions pas que le moteur thermique même s’il émet du CO2 émet aussi des calories car le rendement d’un moteur thermique (7) est de l’ordre de 40% ceci veut dire que 60 % des 44000 Kj/kg d’essence servent à chauffer l’atmosphère des villes. Demandez donc de nouvelles pistes cyclables et roulez en vélo mais avec un bidon d’eau fraiche.
Jean-Claude Bernier
Août 2018
Pour en savoir plus
(1) La discrète révolution de la performance énergétique des bâtiments
(2) Vivre en économisant cette « chère » énergie
(3) Les défis des grandes villes : apports possibles des chimistes
(4) Impact de la végétation sur le microclimat urbain et la qualité de l’air
(5) Le réseau de froid urbain
(6) La mobilité urbaine
(7) Le moteur électrique comparé au moteur thermique : enjeux et contraintes
En cette fin de coupe du monde et le magnifique comportement des « bleus » on voit fleurir un peu partout, dans les magasins, sur les automobiles, sur les façades des maisons, et au-dessus des rassemblements innombrables, les drapeaux bleu blanc rouge. Pour la plupart ces drapeaux sont issus d’une PME française qui les fabrique à partir de coupons de tissus teints dans les trois couleurs nationales et ensuite assemblés.
Les couleurs de ces teintures sont maintenant synthétisées par la chimie organique mais il existe encore de nombreux pigments minéraux organiques ou végétaux qui sont utilisés pour les vernis, les peintures et les teintures (1).
Bleu – De nombreuses nuances ont été trouvées par les chimistes : le bleu outremer dont le constituant essentiel vient d’une pierre naturelle le lapis-lazuli, le bleu de Prusse qui est un ferrocyanure Fe4[Fe2(CN)6]3 découvert un peu par hasard à Berlin par Dippel, le bleu de cobalt qui est un aluminate CoAl2O4 de structure spinelle dont le procédé de synthèse a été découvert par le français Thénard en 1802, et enfin le bleu indigo (2) qui est un nitrobenzoate de sodium très célèbre car c’est lui qui colore les tissus de jeans (3).
Blanc – Il faut remonter à la civilisation égyptienne pour voir les premiers fards à base de sels de plomb (4), la cérusite PbCO3 de phosphogénite Pb2Cl2CO3 de laurionite Pb(OH)Cl mélangés à de la graisse (5). Le blanc de zinc ZnO est obtenu par oxydation d’un minerai, la blende. L’oxyde de titane TiO2 (6) est très lumineux avec lequel on fabrique des centaines de milliers de tonnes pour les peintures, les papiers et les revêtements d’immeubles.
Rouge – Sans compter l’hémoglobine du sang (7) qui est un composé organique du fer et qui sert à l’échange d’oxygène, on connait l’alizarine extraite de la racine d’une plante, la garance, qui colorait les pantalons des uniformes de l’armée avant 1914 et qui fut abandonnée car trop voyant, le minium Pb3O4 utilisé sur les aciers et sur le fer comme protection anticorrosion et la cochenille qui est un pigment à base d’acide carminique extrait d’un insecte.
Jean-Claude Bernier
Juillet 2018
Pour en savoir plus
(1) La chimie crée sa couleur… sur la palette du peintre
(2) La synthèse de l’indigo (vidéo 4:30)
(3) La teinture d’un jeans (vidéo 5:03)
(4) Même les pharaons se maquillaient
(5) Dermo-cosmétique et beauté à travers les âges
(6) Les textiles photocatalytiques
(7) Le sang des animaux est-il toujours rouge ?
L’autorisation donnée à Total de pouvoir importer de l’huile de palme pour sa bioraffinerie de la Mède (Bouches du Rhône) a enflammé (si j’ose dire) le monde agricole, entraînant durant une petite semaine le blocage de sites pétroliers. Aussitôt les divers lobbies agriculteurs, pétroliers, écologistes, se sont affrontés sans vraiment apporter des arguments scientifiques.
Que sont les biocarburants et plutôt les agrocarburants (1) en France ? Ce sont des substituts du pétrole biosourcés, incorporés à l’essence sous forme d’éthanol (2) ou au diesel sous forme d’esters d’huiles végétales (3) (4). Ces agrocarburants sont plus chers à produire que le pétrole à extraire et à raffiner et leurs cours assez volatils sont liés au marché pétrolier et au coût des produits agricoles. L’éthanol américain est 10% moins cher que celui produit en Europe et le biodiesel à base de colza est 30% plus coûteux que celui provenant de l’huile de palme.
Quand Total a décidé de reconvertir la raffinerie de la Mède, condamnée à la fermeture, dans une stratégie plus globale de diversification en énergies décarbonées, les agrocarburants étaient incontournables. Les 275 millions d’euros investis permettaient de plus de sauvegarder quelques centaines d’emplois et de garder une activité portuaire en PACA avec le transit de 450 000 T d’huile. De plus le procédé retenu le HVO (Hydrotreated Vegetable Oil) est l’aboutissement industriel d’un procédé français Vegan® mis au point par l’IFPEN et la société Axens (5). Il s’agit d’un traitement à l’hydrogène sous pression des huiles végétales sur catalyseur qui aboutit à l’hydrodesoxydation des acides gras pour former des paraffines linéaires. Deux voies coexistent :
- l’hydrogénation/hydrogénolyse notée HDO qui élimine l’oxygène sous forme de H2O
- la décarboxylation notée DCO l’oxygène étant éliminée sous forme de CO2
Une réaction d’hydroisomérisation améliore les chaînes paraffiniques pour donner un gazole remarquablement stable parfaitement compatible avec les produits pétroliers et utilisable pour le transport aérien (6).
On comprend la colère des agriculteurs et agro-transformateurs existants s’étant investis dans la culture du colza, blé, betterave… pour produire le bioéthanol et le biodiesel et celui du ministère du développement durable peu enclin à se lancer dans une guerre géopolitique avec l’Indonésie ! D’autant que des nuages sombres s’amoncellent sur l’avenir de la filière. En effet si en France les ajouts d’éthanol dans les essences de 10% dans le super 95 E10 progressent (ce dernier atteint 35% des ventes) et que les esters d’huile végétale atteignent 8% dans le gasoil, la Cour des comptes pointe les détaxations et subventions de l’État français chiffrées à plus de 1,3 milliards d’euros en 2012. À Bruxelles c’est pire, un rapport paru en avril 2016 repris par l’ONG Transport & Environnement conclut que les agrocarburants, loin d’être vertueux pour l’environnement, émettent en fait plus de gaz à effet de serre que les combustibles fossiles. Cette enquête commandée par la commission est corroborée à un degré moindre par une remarquable étude de l’ADEME et de l’INRA sur le facteur CAS (Changement d’Affectation des Sols) qui prend en compte la perte de « puits de carbone » engendrées par ces cultures industrielles. S’appuyant sur 800 publications et rapports internationaux ils chiffrent des fourchettes de 35 à 84 g. eq CO2 / MJ pour le biodiesel et de 25 à 80 g. eq CO2 /MJ pour le bioéthanol, qui doivent s’ajouter au bilan d’émission (culture, transport de la biomasse, transformation chimique, distribution) et complexifient encore l’évaluation (7).
On est alors loin de pouvoir satisfaire les normes de la directive européenne RED (Renewable Energy Directive) qui fixait des objectifs de réduction de GES (gaz à effet de serre) de 35% en 2017 et 50% en 2018 des biocarburants par rapport aux carburants fossiles. Alors quelles solutions ? Accélérer la voie industrielle du traitement par biochimie des lignocellulosiques pour les carburants 2G (8) ou diversifier la chimie végétale en produisant des molécules à haute valeur ajoutée (9) plutôt que des carburants, ce sont deux voies d’avenir et de sauvetage.
Jean-Claude Bernier
Juin 2018
Pour en savoir plus :
(1) Les enjeux de la R&D en chimie pour le domaine des carburants et des biocarburants
(2) L’éthanol (produit du jour de la SCF)
(3) Un exemple d’énergie renouvelable : l’essence verte
(4) Le colza à la pompe (vidéo)
(5) Voir le remarquable article de Thierry Chapus : L’Actualité chimique (mars 2017) n° 416 p. 32
(6) Chimie du végétal, fer de lance de la chimie durable
(7) Des biocarburants pas si verts que ça
(8) Le biocarburant 2G bientôt à la pompe
(9) Biomasse : la matière première renouvelable de l’avenir
La Coupe du monde de football en Russie va disposer d’un nouveau ballon le « Telstar 18 ». S’il est composé de panneaux en polyuréthane comme le « Brazuca » au Brésil en 2014 (1), plusieurs innovations y sont présentes. D’abord la majorité des composants vient de matières recyclées (2). Ses couleurs métalliques forment un damier noir et blanc pour rappeler celui de la coupe de 1970 qui avait été pensé pour donner une meilleure visibilité sur les téléviseurs noir et blanc de l’époque (3). Enfin, innovation, il est muni d’une puce NFC (Near Field Communication) (4) qui permet aux utilisateurs disposant de smartphone ayant chargé l’application de connaître des informations exclusives sur la fabrication, le lieu où il se trouve et son histoire récente. Les malheureux gardiens de but qui ne peuvent encore être connectés lors d’un match officiel dénoncent déjà ses trajectoires improbables. Il est vrai que la texture externe du ballon est faite de minuscule croisillons et que les chaussures des attaquants en polyisocyanate avec une surface rugueuse (5) permettent de placer le ballon dans des zones hors de portée du dernier défenseur !
Mais les plus grandes innovations de cette Coupe du monde sont toutes les applications électroniques rendues possibles par la miniaturisation des semi-conducteurs, mémoires, puces… grâce à la chimie du silicium (6) et les progrès en opto-électronique. Les retransmissions à 360° des matches vont permettre sur smartphone de faire tourner l’image, passer des tribunes au terrain, faire un replay ou un arrêt sur image. Presque comme l’arbitre qui pourra faire appel à un panel d’arbitres à Moscou qui disposent en ligne des images de tous les stades et qui pourront l’aider sur un but ou carton rouge litigieux.
Contrairement aux joueurs de rugby qui disposent de capteurs (7) enregistrant les chocs et impacts subis au cours d’un match, les footballeurs ne peuvent être équipés de capteurs qu’à l’entraînement ou lors de matches non officiels. C’est dire que maintenant les équipes se présentent avec un staff fourni « d’analystes scientifiques »qui disposent de centaines de millions de données qui peuvent être exploitées comme pour l’équipe d’Allemagne grâce à l’application « Sport One » fourni par SAP bien connu dans l’industrie. Toutes ces données statistiques sont obtenues par des capteurs dédiés sur les joueurs : GPS qui mesure les déplacements, accéléromètre pour les sprints et démarrages, température, dépense calorique, déshydratation, etc. (8) Un seul match peut donner plus de 4 millions de données, il est donc nécessaire d’avoir une armée d’analystes qui jouent les nouveaux coaches pour optimiser l’entraînement, les performances (9) individuelles et la stratégie. Parmi toutes les données, pour consoler et aider le gardien avant chaque match, les statisticiens extraient les habitudes des principaux adversaires capables de tirer les pénalties, à droite, à gauche, en hauteur, le nombre de pas avant le tir…
Décidément le Mondial 2018 sera l’An 1 du football connecté… Grâce à la chimie ?
Jean-Claude Bernier
Juin 2018
Pour en savoir plus :
(1) Beau Jeu, un ballon chimique ?
(2) Recyclage et valorisation des déchets
(3) La chimie s’invite dans la guerre des télés
(4) Toujours plus petit ! (Chimie et... junior)
(5) Les matériaux composites dans le sport
(6) Les nouveaux matériaux, moteurs de l’amélioration des performances en microélectronique silicium
(7) L’électronique organique imprimée, vers une électronique flexible et de grande surface (vidéo)
(8) Vers de textiles intelligents pour des vêtements performants et innovants
(9) Technologie et performance sportive