Résultats de la recherche

588 résultats correspondent à INERIS
Vendredi 7 octobre 2016
Page
Procédure pour le rapportage
Mardi 30 août 2016
Rapport
Poussières désertiques dans PREV’AIR – description de leur prise en compte (note_technique)
La note "Poussières désertiques dans PREV’AIR" présente les données et techniques de modélisation sur lesquelles PREV’AIR s’appuie pour estimer la contribution des poussières telluriques dans les aérosols PM10 et PM2,5. La description intègre les derniers éléments à disposition, soit en provenance des services Copernicus, soit pour le modèle CHIMERE version 2016, tout en rappelant que PREV’AIR dispose d’une prévision des poussières désertiques établie sur le globe, l’Europe et la France par le modèle MOCAGE.
Jeudi 6 octobre 2016
Page
Missions
Vendredi 29 juillet 2016
Rapport
Evaluation d’un matériau de référence certifié (MRC) PM10 pour l’analyse des HAP dans l’air ambiant
Les résultats obtenus lors de la Comparaison Inter-Laboratoires (CIL) HAP 2015 sur le matériau de référence certifié PM10 (NIST SRM 2787) ont montré une sous-estimation, par l’ensemble des participants, de 40 %, en moyenne, des concentrations en benzo[a]pyrène par rapport aux valeurs certifiées. Ces résultats étaient préoccupants car ils mettaient en évidence soit un réel problème de mise en œuvre ou les limites techniques des normes et guides relatives à l’analyse des HAP sur les matrices air ambiant (EN NF 1549 et XP TS/CEN 16645, Guide méthodologique HAP LCSQA 2015), soit, une remise en cause des valeurs de concentrations indiquées dans le certificat d’analyse du MRC. Ainsi, un travail spécifique à ce MRC a été réalisé par le LCSQA et le GIE LIC afin d’évaluer la pertinence de son utilisation et/ou de comprendre les difficultés rencontrées pour son analyse lors de la CIL HAP 2015. Les résultats de ces travaux ont finalement montré que les valeurs certifiées et de références indiquées sur le certificat d’analyse sont tout à fait correctes et reproductibles. Ils ont également mis en évidence que si les normes européennes en vigueur pour l’analyse des HAP dans l’air ambiant sont mises en œuvre correctement, la quantification des HAP réalisée est exacte (juste et fidèle/reproductible). De plus, il convient de bien veiller lors de l’analyse des MRC à se conformer à la prise d’essai préconisée sur le certificat d’analyse afin d’éviter tout problème d’inhomogénéité. Le LCSQA valide donc l’utilisation du MRC SRM 2787 (PM10) en tant que matériau de contrôle qualité des performances de la méthode (extraction et analyse rendement d’extraction entre 80 et 120 %) des HAP dans l’air ambiant pour une prise d’essai minimum de 30 mg.
Mercredi 20 juillet 2016
Rapport
Mise à jour de la méthodologie de définition des zones sensibles
Résumé de la note technique "Mise à jour de la méthodologie de définition des zones sensibles" Cette note rend compte des travaux effectués en 2015 par le Groupe de Travail (GT) « Zones sensibles », visant à mettre à jour la méthodologie de définition des zones sensibles. Tout d’abord, les principaux points de la méthodologie établie en 2010 sont récapitulés. Les modifications ou ajouts proposés par le GT sont présentés, ainsi que leur impact potentiel sur la définition des zones sensibles. Enfin, sont listés les travaux encore en cours, qui permettront de mener à bien l’actualisation de la méthodologie en 2016. Ces travaux ont été menés en collaboration avec des membres Atmo Champagne-Ardenne, Air Rhône-Alpes et Lig’Air. Cette collaboration avec nos experts a contribué aux premières conclusions de ce groupe de travail.
Mercredi 20 juillet 2016
Rapport
Usage et performances des outils Vigilance et Prev'air Urgences - Retour d'expérience
Résumé de la note "Usage et performances des outils Vigilance et Prev'air Urgences - Retour d'expérience" Afin de répondre aux exigences de l’arrêté du 26 mars 2014 concernant le déclenchement des procédures d’information et d’alerte, les Associations Agréées de Surveillance de la Qualité de l’Air doivent être en mesure d’estimer sur leur territoire de compétence les surfaces et populations potentiellement touchées par des dépassements de seuil. Pour les accompagner dans cette tâche, le LCSQA a mis en place les outils Vigilance (initialement nommé Alerte) et PREv’Air-urgence. Ce dernier concerne des développements spécifiques ont été réalisés à partir de la chaine de modélisation nationale PREV’AIR. La chaîne de calcul dédiée aux épisodes a été mise en place, dédiée à la prévision des dépassements des valeurs limite de qualité de l’air et PREV’AIR-Urgence est désormais opérationnel. La présente note en décrit le fonctionnement et les performances obtenues en 2015. En parallèle, les travaux de développement d’un nouvel outil VIGILANCE ont été lancés fin 2014. Il a été présenté aux acteurs concernés (MEEM, DREAL, AASQA) en mars 2015, et déployé officiellement le 15/04/2015 sur le site web du LCSQA. Une notice utilisateur rédigée par le LCSQA est également disponible sur le site. Dans le présent document, les grands principes de l’outil sont rappelés, ainsi qu’un premier retour d’expérience suite à sa mise en œuvre depuis mi-2015.
Mercredi 20 juillet 2016
Rapport
Modélisation de la remise en suspension des particules par le trafic routier – Contribution des opérations de sablage / salage
Quand il est possible de quantifier la contribution des opérations de sablage/salage des routes aux niveaux de particules mesurés dans l’air ambiant, la directive européenne sur la qualité de l'air 2008/50/CE[1] permet aux États membres de soustraire cette contribution de la concentration totale des PM10 avant de vérifier la conformité avec les valeurs limites et objectifs de qualité de la législation. Quelques études nationales sur la base de campagnes mesures montrent que la part due au sablage / salage en France est en moyenne faible mais peut-être non négligeable sur certains sites trafic. De façon plus générale, la fraction de PM10 due à la remise en suspension de poussières déposées au sol est non négligeable en fond urbain et très importante dans les rues. L’estimation de la remise en suspension par le trafic est importante pour mieux simuler, à l’aide de modèles de chimie transport comme CHIMERE, les concentrations de particules en zone trafic et même à l’échelle urbaine. Des modèles simples doivent pouvoir être implantés dans des modèles de qualité de l’air à l’échelle de la rue. Localement sur certains sites trafic il a été mis en évidence le rôle des opérations de sablage/salage, néanmoins d’autres études sont certainement nécessaires pour mieux quantifier cet impact dans les régions les plus concernées. En 2011, le guide de la Commission Européenne ne préconisait pas l’utilisation de la modélisation pour déterminer la part du sablage/salage des concentrations en PM10. Depuis, la modélisation à l’échelle de la rue de la remise en suspension par le trafic routier a été améliorée et le modèle NORTRIP développé par le NILU[2] permet d’évaluer les concentrations induites par ce processus et d’estimer  une contribution imputable au salage/sablage. Néanmoins, les incertitudes semblent encore très importantes et les informations requises en entrée doivent être très précises pour les limiter.   [1] Directive 2008/50/CE du Parlement européen et du Conseil du 21 mai 2008 concernant la qualité de l’air ambiant et un air pur pour l’Europe [2] Institut de Recherche Norvégien sur l’Air (http://www.nilu.no/)
Mercredi 15 juin 2016
Rapport
Bilan des contrôles métrologiques des analyseurs de mercure gazeux
Depuis 2012, le LCSQA propose d’une part, de réaliser une série de contrôles métrologiques des analyseurs de mercure en laboratoire afin de vérifier leur bon fonctionnement et les qualifier au regard d’une série de tests définis, et de procéder à des essais d’intercomparaison en laboratoire et en situation de terrain afin de déterminer et vérifier le respect de l’exigence de la Directive Européenne en matière d’incertitude de mesures. Des tests de linéarité (gamme 0-300 ng/m3), de dérive sur 7 jours (concentration stabilisée de 50 ng/m3) et de sensibilité à la variation de température (10°C-22°C-35°C) ont été réalisés en laboratoire entre 2013 et 2015 sur les analyseurs Tekran et Lumex. Ils ont permis de constater : que les analyseurs Tekran sont linéaires et peu soumis au phénomène de dérive (1%> sur 7 jours). Dans ces conditions, le LCSQA recommande d’effectuer des étalonnages automatiques à fréquence hebdomadaire. Il apparait toutefois des écarts excessifs (>15%) entre les étalonnages internes des différents appareils. Le LCSQA propose de résoudre ce problème en procédant à l’étalonnage externe  qui permettra de vérifier pour chaque appareil la valeur de la vitesse de diffusion de la source à perméation donnée par le constructeur. Enfin, la sensibilité à la température des appareils Tekran est faible et estimée à + 0.3 ng/°C pour les températures inférieures à la température ambiante, et - 0.3 ng/°C pour les températures supérieures; que les appareils Lumex sont  linéaires et peu soumis à la dérive (environ 5% sur 7 jours). Sur la base des étalonnages internes de chaque appareil, on note des écarts de mesure entre appareils de l’ordre de 13 % qui reste dans la tolérance des constructeurs (15 %). Ces appareils présentent une forte sensibilité à la variation de température ambiante, particulièrement notable lorsque la température est instable. A température stabilisée, l’influence est estimée entre + 0,3 ng/°C et +0,6 ng/°C. A la lumière du comportement incohérent d’un des analyseurs testés, il apparait important de souligner l’intérêt d’effectuer un contrôle métrologique dès lors qu’une opération de mise à jour du software a été effectuée.   A l’avenir, le LCSQA propose de poursuivre le contrôle des analyseurs des AASQA avec une périodicité de 2 ans, en passant en revue alternativement les analyseurs Lumex et Tekran et de procéder ponctuellement au regroupement de l’ensemble des appareils afin de réaliser une intercomparaison visant à vérifier le respect des incertitudes de la Directive européenne 2004/107/CEet de la norme NF EN 15852. Techniquement, les  tests de linéarité seront réalisés dans la gamme habituelle 0-300 ng/m3, et sur demande d’AASQA dans une gamme plus réduite. L’essai de répétabilité sera effectué consécutivement. Les appareils Tekran feront l’objet de tests de linéarité avec étalonnage interne puis externe pour mettre en évidence et déterminer les décalages et les évolutions dans le temps des sources d’étalonnage internes. L’influence de la variation de température, et en particulier les fortes perturbations lors des phases transitoires, sur les appareils Lumex sera vérifiée en procédant à des variations de températures plus progressives. La sensibilité des appareils des 2 constructeurs à la variation d’humidité reste à effectuer. Le mode opératoire est à établir afin de procéder à des variations progressives.
Lundi 30 mai 2016
Rapport
Exposition dynamique de la population à la pollution atmosphérique
La note "Exposition dynamique de la population à la pollution atmosphérique" propose la synthèse des méthodes permettant un calcul dynamique de l’exposition et fait le tour des travaux scientifiques ayant comparé l’exposition estimée par ce type de calcul avec l’exposition estimée par une méthode statique. En fin de document, d’autres sources d’incertitude pesant sur le calcul de l’exposition sont brièvement abordées, ainsi que des recommandations concernant le calcul de l’exposition. Le calcul de l’exposition de la population à la pollution atmosphérique est nécessaire à des fins réglementaires, mais également pour alimenter des études d’impact sanitaire ou simplement pour mieux caractériser l’impact de la pollution sur l’homme. Dans la très grande majorité des études, l’exposition est estimée en croisant concentrations et population statique, c’est-à-dire comptabilisée au lieu de résidence. De récentes études ont estimé cette même exposition mais en tenant compte de l’aspect dynamique de la population qui se déplace et travaille parfois loin des zones d’habitation. 
Jeudi 25 août 2011
Rapport
Bilan des mesures PM10 et PM2.5 ajustées et évaluation des outils de modélisation
Jusqu'au 1er janvier 2007, la surveillance opérationnelle des PM10 était réalisée en France par des systèmes de mesure automatique de type TEOM ou jauge Bêta. Or, comparés à la méthode de référence EN 12341, ces systèmes sous-estiment les concentrations de PM10. Il s’agit  un artefact connu, lié à la perte de composés volatils.Depuis le 1er janvier 2007, conformément à la législation européenne, la surveillance opérationnelle des PM10 est réalisée de manière à assurer l’équivalence avec la méthode de référence. Deux techniques de mesure sont utilisées en France :   le TEOM-FDMS de Thermo R&P ou  la jauge radiométrique MP101M-RST d’Environnement SA pour la mesure des PM10, le TEOM-FDMS de Thermo R&P pour la mesure des PM10 et des PM2.5. Toutes les stations de mesure de particules ne pouvant être immédiatement pourvues de tels appareils, une stratégie nationale transitoire, fondée sur le concept de site de référence, a été élaborée. Les sites de référence, équipés à la fois de l’ancien et du nouveau système de mesure, délivrent simultanément des données de PM10 non volatiles et de PM10. L’écart entre les deux variables est appelé « delta ». Sur les autres stations, la concentration de PM10 est déterminée en ajoutant à la concentration de PM10 non volatiles le delta d’un site de référence adéquatement choisi. On parle alors de mesure « ajustée ». Pour les années antérieures à 2007, aucune mesure ne permet de réaliser un tel ajustement. Une méthode de correction qui utilise la fraction volatile (nitrate d’ammonium) modélisée par le code de chimie-transport CHIMERE est en conséquence proposée. La nouveauté de ces approches implique que l’on en fasse un suivi régulier. Le présent bilan porte sur les données de particules recueillies en 2009. Il met à jour les bilans des années 2007 et 2008, dont il confirme les principales observations. Pour l’année 2009, 35 sites de référence disposant de données sur au moins 75% de l’année sont recensés. En moyenne par saison, la fraction volatile des PM10 représente, en masse, entre 26% (juillet-septembre) et 58% (janvier-mars) de la fraction non volatile, soit une moyenne de 40% sur l’année. Rapportée à la masse de PM10 totales, cette fraction volatile varie entre 21% (juillet-septembre) et 37% (janvier-mars), soit une moyenne de 29% sur l’année. La proportion de particules volatiles en hiver et au printemps est supérieure à celle des années précédentes. Elle peut être liée à des conditions météorologiques très propices à la condensation de nitrate d’ammonium et d’espèces organiques semi-volatiles en phase particulaire (hiver froid notamment). En moyenne sur les sites de référence, la prise en compte de cette fraction volatile augmente la concentration moyenne annuelle de PM10 d’environ 7 µg.m-3. L’effet sur les dépassements de valeurs limites est également sensible. Il est plus particulièrement manifeste lorsque les statistiques sont calculées sur l’ensemble des stations de mesure de PM10 . Le nombre de sites pour lesquels le seuil journalier de 50 µg.m-3 est dépassé plus de 35 fois dans l’année passe ainsi de 3 à 36. L’étude des PM2.5 est limitée par le petit nombre de stations mesurant à la fois des données de PM2.5 non volatiles et des données de PM2.5. Elle montre cependant la contribution significative de la fraction volatile aux dépassements des seuils réglementaires annuels.   En ce qui concerne la cohérence spatiale des deltas utilisés dans l’ajustement des concentrations, cette étude met en évidence : un ensemble relativement homogène, qui s’étend sur les régions Picardie, Ile-de-France, Normandie, Bretagne, Pays de Loire, Centre ; une zone très hétérogène : le pourtour méditerranéen ; Le reste de la France se laisse moins aisément caractériser, avec des similarités entre stations et des différences plus ou moins prononcées entre d’autres. Si les données suggèrent une influence possible de la typologie sur la fraction volatile, le petit nombre de stations de référence autres qu’urbaines (une station rurale et une station de trafic) ne permet pas de l’établir de façon certaine. Pour ce qui est des données antérieures au 1er janvier 2007, la méthode de correction conçue à l’aide du modèle CHIMERE consiste à ajouter deux termes à la concentration non volatile mesurée : le premier est le nitrate d’ammonium simulé par CHIMERE, le second est une fonction linéaire de la concentration non volatile. Les prélèvements et analyses chimiques effectués à l’occasion du programme CARA et la comparaison de CHIMERE avec ces données expérimentales ont en effet montré que le nitrate d’ammonium modélisé ne représentait pas nécessairement l’intégralité de la composante volatile. La méthode a été évaluée lors des travaux LCSQA de 2009. Les coefficients régionaux utilisés dans le second terme correctif sont ici mis à jour, afin de tenir compte de l’ensemble des  données de delta disponibles sur les sites de référence (années 2007 à 2009).Outre les développements destinés à un meilleur suivi des concentrations de particules, les méthodes de recherche de contributions de sources suscitent un intérêt croissant dans l’étude de la pollution particulaire. Elles ont pour objet d’identifier la part représentée par chaque type de source dans les concentrations observées. Elles favorisent une meilleure compréhension des phénomènes de pollution et peuvent être utiles à l’élaboration de plans d’action. Les approches sont variées. L’état des lieux proposé en seconde partie du rapport est consacré aux méthodes fondées sur la modélisation. Parmi celles-ci, on distingue les méthodes qui développent une approche mécanistique, plus complètes mais coûteuses, de celles qui procèdent par analyse de sensibilité, plus simples à mettre en oeuvre mais plus restreintes dans leur application. Comme aucune méthode ne prévaut actuellement, les études consistent souvent en la comparaison des résultats de plusieurs d’entre elles, et certaines s'accompagnent d'une analyse d'incertitude. L'INERIS s'engage de plus en plus dans cette problématique, à l’occasion d'études d'impact, comme l’analyse de la contribution transfrontalière aux dépassements de seuils, et par le développement d'une version du modèle CHIMERE orientée sur la recherche de sources (approche mécanistique).