Résultats de la recherche

588 résultats correspondent à INERIS
Vendredi 13 mai 2016
Rapport
Essais d’adéquation du FIDAS 200 à la mesure réglementaire en France – Bilan des essais 2013-2015
La note "Essais d’adéquation du FIDAS 200 à la mesure réglementaire en France – Bilan des essais 2013-2015" rend compte des résultats d'essais pour les mesures de PM10 et PM2,5, obtenus suite aux campagnes de mesure réalisées de 2013 à 2015 en collaboration avec différentes associations agrées de surveillance de la qualité de l’air (AASQA) : AIR PACA, AIRPARIF,ASPA,ATMO AUVERGNE, ATMO CHAMPAGNE-ARDENNEet QUALITAIR CORSE. Ces essais ont consisté à évaluer la cohérence des mesures FIDAS vis-à-vis de la méthode de référence décrite dans la norme NF EN 12341 (Air ambiant - Systèmes automatisés de mesurage de la concentration de matière particulaire (PM10; PM2,5)), en cohérence, lorsque cela était possible, avec les préconisations de la norme prEN16450 (Air ambiant - Méthode normalisée de mesurage gravimétrique pour la détermination de la concentration massique MP10 ou MP2,5 de matière particulaire en suspension). Les résultats ont montré un bon accord des mesures du FIDAS 200 avec celles obtenues par la méthode de référence sur les sites de fond urbain. Sur ce type de site, les performances du FIDAS évaluées dans ce travail sont tout à fait similaires à celles obtenues pour les autres systèmes de mesure automatiques (AMS) actuellement homologués. Sur les sites trafic, les résultats n’ont pas été satisfaisants. Suite à cette observation, le constructeur a proposé une évolution de l’algorithme de traitement des données spécifiquement dédié à la mesure sur site trafic. Les résultats préliminaires ont montré une amélioration des résultats pour la fraction PM10 mais avec un biais toujours important pour la fraction PM2,5. En l’état, l’utilisation d’un FIDAS sur site trafic nécessiterait l’utilisation d’une fonction de correction qui devrait être propre à chaque site et déterminée à l’aide de mesures gravimétriques.L’ensemble de ces résultats ne sont pas définitifs et les essais seront poursuivis au cours de l’année 2016.
Mardi 10 mai 2016
Rapport
Recommandations techniques pour l’utilisation du granulomètre UFP 3031
Le rapport intitulé « Recommandations techniques pour l’utilisation du granulomètre UFP 3031 » fournit les recommandations nécessaires à la mise en œuvre de cet appareil. Elles sont basées sur le retour d’expérience des utilisateurs français. Ces recommandations complètent les informations disponibles également dans les manuels d’utilisation fournis par le constructeur. Par ailleurs, ce document répertorie les principales questions méthodologiques d’actualité pourle granulomètre UFP 3031, et fait un point sur leur avancement. Ce document de recommandations techniques a été rédigé de façon concise, afin de faciliter son utilisation sur le terrain. L’UFP 3031 (TSI) est un granulomètre utilisé pour la mesure en continu des particules ultrafines. Il est actuellement mis en œuvre par trois AASQA françaises (AIRAQ, AIR PACA, AIR Rhône-Alpes), membres du groupe de travail « Particules Ultra Fines » (GT PUF).
Mercredi 4 mai 2016
Rapport
Etude comparative d’analyseurs pour la mesure du dioxyde d’azote
Deux nouveaux appareils de mesure ayant fait leur apparition sur le marché proposent d’autres techniques que la méthode de référence (chimiluminescence) : la conversion photolytique pour l’analyseur T200UP Blue Light d’API et la technique CAPS (Cavity Attenuated Phase Shift, CAPS) pour l’analyseur T500U d’API. Cette étude visait à évaluer leurs performances via deux campagnes de mesure mettant en parallèle ces différentes techniques, ciblant une typologie de type fond urbain et une typologie de site type trafic et en se focalisant sur la mesure du dioxyde d’azote (NO2), la technique CAPS permettant de mesurer uniquement ce paramètre. Pour rappel : La directive 2008/50/CE fixe les valeurs limites à respecter pour le dioxyde d’azote (NO2) et les oxydes d’azote (NOx) ainsi que les méthodes de référence à mettre en œuvre. La norme NF EN 14211 « Méthode normalisée pour la mesure de la concentration en dioxyde d’azote et monoxyde d’azote par chimiluminescence » doit être appliquée pour la surveillance de ces paramètres. La première campagne s’est déroulée à la station de Creil dans l'Oise (type fond urbain) d’octobre 2014 à février 2014  où des analyseurs à chimiluminescence (APNA-370 d’Horiba, 200E d’API, 42i et 42i (boucle de retard) de TEI) ont été comparés avec l’analyseur T200UP Blue Light d’API mettant en œuvre la conversion photolytique. Il nous a été impossible d’intégrer un analyseur utilisant la méthode CAPS faute d’obtenir un prêt d’un fournisseur. Une surveillance de l’humidité ambiante a été réalisée afin d’étudier l’influence du taux d’humidité sur la mesure du dioxyde d’azote. La seconde campagne s’est déroulée à la station de Lyon périphérique (type trafic) en bordure du périphérique de Lyon du 2 au 23 avril 2015 où un analyseur à chimiluminescence (APNA-370 d’Horiba) a été comparé avec l’analyseur T200UP Blue Light d’API mettant en œuvre la conversion photolytique et l’analyseur T500U d’API mettant en œuvre la méthode CAPS. La campagne de Creil a permis de mettre en évidence que la technique de conversion photolytique donnait des mesures sensiblement identiques à celles des analyseurs fonctionnant sur le principe de la chimiluminescence(moins de 1% d’écart). La corrélation de l’humidité ambiante et des mesures du dioxyde d’azote n’a pas pu mettre en évidence de lien entre ces deux paramètres. La campagne de Lyon périphérique a mis en évidence que la technique CAPS était sensiblement identique à la chimiluminescence à un biais près de 3 ppb alors que la conversion photolytique présentait un écart de corrélation de l’ordre de 30% avec la chimiluminescence. Il ressort de cette étude que la technique CAPS est comparable à la chimiluminescence sur des sites type fond urbain ou trafic alors que la conversion photolytique ne peut s’appliquer que sur des sites où les concentrations en dioxyde d’azote seront au maximum de l’ordre de 50 ppb.
Jeudi 25 août 2011
Rapport
Bilan des mesures PM10 et PM2.5 ajustées et évaluation des outils de modélisation
Jusqu'au 1er janvier 2007, la surveillance opérationnelle des PM10 était réalisée en France par des systèmes de mesure automatique de type TEOM ou jauge Bêta. Or, comparés à la méthode de référence EN 12341, ces systèmes sous-estiment les concentrations de PM10. Il s’agit  un artefact connu, lié à la perte de composés volatils.Depuis le 1er janvier 2007, conformément à la législation européenne, la surveillance opérationnelle des PM10 est réalisée de manière à assurer l’équivalence avec la méthode de référence. Deux techniques de mesure sont utilisées en France :   le TEOM-FDMS de Thermo R&P ou  la jauge radiométrique MP101M-RST d’Environnement SA pour la mesure des PM10, le TEOM-FDMS de Thermo R&P pour la mesure des PM10 et des PM2.5. Toutes les stations de mesure de particules ne pouvant être immédiatement pourvues de tels appareils, une stratégie nationale transitoire, fondée sur le concept de site de référence, a été élaborée. Les sites de référence, équipés à la fois de l’ancien et du nouveau système de mesure, délivrent simultanément des données de PM10 non volatiles et de PM10. L’écart entre les deux variables est appelé « delta ». Sur les autres stations, la concentration de PM10 est déterminée en ajoutant à la concentration de PM10 non volatiles le delta d’un site de référence adéquatement choisi. On parle alors de mesure « ajustée ». Pour les années antérieures à 2007, aucune mesure ne permet de réaliser un tel ajustement. Une méthode de correction qui utilise la fraction volatile (nitrate d’ammonium) modélisée par le code de chimie-transport CHIMERE est en conséquence proposée. La nouveauté de ces approches implique que l’on en fasse un suivi régulier. Le présent bilan porte sur les données de particules recueillies en 2009. Il met à jour les bilans des années 2007 et 2008, dont il confirme les principales observations. Pour l’année 2009, 35 sites de référence disposant de données sur au moins 75% de l’année sont recensés. En moyenne par saison, la fraction volatile des PM10 représente, en masse, entre 26% (juillet-septembre) et 58% (janvier-mars) de la fraction non volatile, soit une moyenne de 40% sur l’année. Rapportée à la masse de PM10 totales, cette fraction volatile varie entre 21% (juillet-septembre) et 37% (janvier-mars), soit une moyenne de 29% sur l’année. La proportion de particules volatiles en hiver et au printemps est supérieure à celle des années précédentes. Elle peut être liée à des conditions météorologiques très propices à la condensation de nitrate d’ammonium et d’espèces organiques semi-volatiles en phase particulaire (hiver froid notamment). En moyenne sur les sites de référence, la prise en compte de cette fraction volatile augmente la concentration moyenne annuelle de PM10 d’environ 7 µg.m-3. L’effet sur les dépassements de valeurs limites est également sensible. Il est plus particulièrement manifeste lorsque les statistiques sont calculées sur l’ensemble des stations de mesure de PM10 . Le nombre de sites pour lesquels le seuil journalier de 50 µg.m-3 est dépassé plus de 35 fois dans l’année passe ainsi de 3 à 36. L’étude des PM2.5 est limitée par le petit nombre de stations mesurant à la fois des données de PM2.5 non volatiles et des données de PM2.5. Elle montre cependant la contribution significative de la fraction volatile aux dépassements des seuils réglementaires annuels.   En ce qui concerne la cohérence spatiale des deltas utilisés dans l’ajustement des concentrations, cette étude met en évidence : un ensemble relativement homogène, qui s’étend sur les régions Picardie, Ile-de-France, Normandie, Bretagne, Pays de Loire, Centre ; une zone très hétérogène : le pourtour méditerranéen ; Le reste de la France se laisse moins aisément caractériser, avec des similarités entre stations et des différences plus ou moins prononcées entre d’autres. Si les données suggèrent une influence possible de la typologie sur la fraction volatile, le petit nombre de stations de référence autres qu’urbaines (une station rurale et une station de trafic) ne permet pas de l’établir de façon certaine. Pour ce qui est des données antérieures au 1er janvier 2007, la méthode de correction conçue à l’aide du modèle CHIMERE consiste à ajouter deux termes à la concentration non volatile mesurée : le premier est le nitrate d’ammonium simulé par CHIMERE, le second est une fonction linéaire de la concentration non volatile. Les prélèvements et analyses chimiques effectués à l’occasion du programme CARA et la comparaison de CHIMERE avec ces données expérimentales ont en effet montré que le nitrate d’ammonium modélisé ne représentait pas nécessairement l’intégralité de la composante volatile. La méthode a été évaluée lors des travaux LCSQA de 2009. Les coefficients régionaux utilisés dans le second terme correctif sont ici mis à jour, afin de tenir compte de l’ensemble des  données de delta disponibles sur les sites de référence (années 2007 à 2009).Outre les développements destinés à un meilleur suivi des concentrations de particules, les méthodes de recherche de contributions de sources suscitent un intérêt croissant dans l’étude de la pollution particulaire. Elles ont pour objet d’identifier la part représentée par chaque type de source dans les concentrations observées. Elles favorisent une meilleure compréhension des phénomènes de pollution et peuvent être utiles à l’élaboration de plans d’action. Les approches sont variées. L’état des lieux proposé en seconde partie du rapport est consacré aux méthodes fondées sur la modélisation. Parmi celles-ci, on distingue les méthodes qui développent une approche mécanistique, plus complètes mais coûteuses, de celles qui procèdent par analyse de sensibilité, plus simples à mettre en oeuvre mais plus restreintes dans leur application. Comme aucune méthode ne prévaut actuellement, les études consistent souvent en la comparaison des résultats de plusieurs d’entre elles, et certaines s'accompagnent d'une analyse d'incertitude. L'INERIS s'engage de plus en plus dans cette problématique, à l’occasion d'études d'impact, comme l’analyse de la contribution transfrontalière aux dépassements de seuils, et par le développement d'une version du modèle CHIMERE orientée sur la recherche de sources (approche mécanistique).  
Vendredi 29 avril 2016
Rapport
Synthèse méthodologique sur la caractérisation des situations de dépassement de seuil
  Ce document fait partie du référentiel technique national, conformément à l'arrêté du 19 avril 2017 relatif au dispositif national de surveillance de la qualité de l'air Mise en application : 2016   *Note mise à jour en mai 2017. La note "Synthèse méthodologique sur la caractérisation des situations de dépassement de seuil" synthétise la démarche à suivre pour caractériser une situation de dépassement. Elle porte sur la délimitation des zones de dépassement et l'estimation des populations et écosystèmes exposés. Les recommandations émises dans ce document s’appuient notamment sur les méthodologies étudiées par le LCSQA et discutées en Commission de suivi Emissions, Modélisation et Traitement de Données. Des exemples extraits des travaux du LCSQA sont fournis à titre d'illustration.
Vendredi 29 avril 2016
Rapport
Fourniture des données de population spatialisées selon la méthodologie nationale "méthode MAJIC"
  Les données de population spatialisées sur la France selon la méthodologie nationale "MAJIC" (Létinois, 2014 et 2015) ont été réactualisées fin 2015 pour être diffusées aux AASQA. La note de 2015 intitulée "Fourniture des données de population spatialisées selon la méthodologie nationale" précise la nature de ces mises à jour et les contrôles qualité effectués.
Jeudi 28 avril 2016
Rapport
Intercomparaisons 2015 sur les granulomètres UFP 3031
Le granulomètre UFP 3031 est jusqu’ici le principal appareil utilisé par les Associations de Surveillance de la Qualité de l’Air (AASQA) pour le mesurage des particules ultrafines sur le terrain. Un exercice d’intercomparaison a été organisé en juin 2015, rassemblant cette communauté. Il fait suite à une première édition qui s’est tenue dans les mêmes conditions en juillet 2014. L’une des spécificités du panel 2015 a été de rassembler, d’une part un ensemble d’appareils bénéficiant des dernières évolutions techniques et d’un contrôle récent chez le constructeur, et d’autre part un appareil n’ayant pas bénéficié de ces évolutions, ni d’un contrôle technique récent. L’exercice a tout d’abord mis en évidence la nécessité d’améliorer les conditions de transport, pour garantir une meilleure protection du matériel. Il a également permis de constater une amélioration des protocoles de maintenance chez les utilisateurs, avec néanmoins la nécessité de poursuivre les efforts dans ce domaine, en particulier en ce qui concerne le nettoyage de la ligne de prélèvement. L’exercice 2015 confirme une conclusion de l’étude menée en 2014, à savoir que le canal de mesure dédié à la gamme 200 – 800 nm présente des performances limitées : il est recommandé de limiter son utilisation à un usage « informatif ». Cet exercice a permis de revenir sur des problèmes techniques rencontrés par deux appareils, problèmes non-invalidants toutefois. Il a également mis en évidence une sur-estimation très importante de la concentration sur le canal 200 – 800 nm d’un participant, en l’occurrence l’appareil n’ayant pas bénéficié de contrôle technique récent. La comparaison avec un granulomètre (SMPS) de référence fait apparaître un écart en légère augmentation entre 2014 et 2015. Il conviendra à l’avenir de vérifier s’il s’agit d’un écart ponctuel ou d’une réelle tendance. En l’attente, ces résultats tendent à indiquer que les évolutions technologiques mises en place entre l’exercice 2014 et l’exercice 2015 (nouvelle version du logiciel prenant en compte les incidents rencontrés, nouveau chargeur de maintenance plus aisée) n’ont pas entraîné de différence notable sur la mesure. Des études de cas ont été réalisées en comparant certaines paires d’UFP 3031, mettant en évidence les difficultés rencontrées par l’appareil n’ayant pas disposé de maintenance et de contrôles constructeur récents (> 1 an), et confirmant la nécessité d’une maintenance et d’un contrôle réguliers des matériels.  L’intervalle de confiance de reproductibilité a été déterminé en considérant les appareils de manière indépendante. Cette méthode permet de mener le calcul sur un nombre aussi large que possible d’entités, même si le nombre restreint d’appareils limite d’un point de vue statistique la portée de l’évaluation. L’intervalle de confiance ainsi estimé se situe globalement au dessous de 25 %.
Mardi 26 avril 2016
Rapport
Réglementation et normalisation 2013
En tant que Laboratoire National de Référence dans le domaine de la Qualité de l’Air notifié par le Ministère en charge de l’environnement, le LCSQA joue un rôle actif dans les instances normatives et réglementaires nationales et européennes : application des directives (garantie des méthodes et des données associées), révision de normes EN existantes et élaboration de nouvelles normes par le CEN, valorisation de la capacité d’expertise au travers de la participation aux divers workshops et groupes de travail européens et nationaux en vue de l’application de la réglementation européenne sur le territoire. Au niveau européen, les GT et Comités impliquent 12 experts membres du LCSQA. Les  principales  informations  associées  aux  différents  documents  normatifs  et réglementaires  sont les suivantes : le processus de révision des Directives 2008/50/CE et 2004/107/CE démarrera fin 2013 au plus tôt. Pour le moment, seule est concernée la Directive relative aux plafonds d'émissions nationaux pour les polluants à l'origine des phénomènes d'acidification, d'eutrophisation et de pollution photochimique (cf. directive n°2001/81/CE dite « NEC » pour SO2,les NOx,les COV et NH3) le processus de sortie de normes EN (révision ou nouveau texte) est en cours de stabilisation. Parmi les normes utilisées dans le Dispositif national de surveillance, seules les 4 normes relatives au mesurage de SO2,NO/NO2,CO et O3 ont été éditées fin 2012 / début 2013.L’enjeu sera leur correcte application qui nécessitera un travail collaboratif au sein du Dispositif National de Surveillance de la Qualité de l’Air, dont un des acteurs spécifiques est la Commission de Suivi «Mesures automatiques» activée en octobre 2012. La norme relative au mesurage du benzène (par méthode automatique) ne sortira qu’au mieux fin 2014. La norme relative au mesurage de la concentration massique des fractions PM10 & PM2.5 par gravimétrie sur filtre prévue initialement courant 2ème semestre 2013 devrait elle aussi n’être disponible qu’en 2014. De plus, l’évolution en norme de la spécification technique sur la mesure de la concentration massique des PM par méthode automatique ne devrait a priori voir le jour qu’en 2017. Enfin, la mesure des pollens (échantillonnage et analyse) devient un sujet de travail en normalisation.
Mardi 22 mars 2016
Rapport
Suivi d’équivalence des systèmes de mesures automatiques (AMS) PM - Synthèse 2015 (note_technique)
La note "Suivi d’équivalence des systèmes de mesures automatiques (AMS) PM" rend compte des résultats du suivi d’équivalence des AMS PM en PM10 et et PM2,5 obtenus lors des campagnes réalisées en 2015. Ces campagnes ont été menées en collaboration avec Air Lorraine, AIRPARIF, ATMO Auvergne et ATMO Champagne-Ardenne selon les préconisations de la norme prEN 16450. Les résultats obtenus confortent ceux présentés dans la synthèse des campagnes réalisées entre 2011 et 2014 par le LCSQA en collaboration avec les AASQA volontaires.
Vendredi 18 mars 2016
Rapport
Caractérisation chimique des HAP et de leurs dérivés nitrés et oxygénés lors de l’épisode de pollution particulaire de mars 2014 (Note)
Note technique portant sur la Caractérisation chimique des HAP (hydrocarbures aromatiques polycycliques) et de leurs dérivés nitres et oxygénés (nitro-HAP et oxy-HAP) lors de l’épisode de pollution particulaire de mars 2014. Une caractérisation chimique approfondie des échantillons de filtres relatifs à l’épisode de pollution aux PM de 2014 vis-à-vis des hydrocarbures aromatiques polycycliques (HAP) et de leurs dérivés nitrés et oxygénés, pour des sites localisés en différents points du territoire français, a été réalisée afin d’évaluer l’impact sanitaire des PM et les sources primaires/secondaires des nitro-HAP et oxy-HAP au cours de cette période de pic de pollution. Les résultats obtenus ne permettent pas d’établir un lien direct entre les évolutions temporelles des concentrations totales des nitro-HAP, oxy-HAP et la composition chimique des PM, et notamment la formation secondaire d’espèces inorganiques explicitant la majeure partie du pic de pollution particulaire observé en cette période. Par manque de données toxicologiques disponibles, notamment pour les oxy- et nitro-HAP potentiellement d’origine secondaire, il est difficile d’établir un lien direct entre les concentrations toxiques équivalentes associées à ces substances toxiques et l’augmentation des concentrations en PM en lien avec la formation de nitrate et/ou sulfate d’ammonium par des processus photochimiques. Les résultats d’analyse de ratio caractéristique d’évaluation de l’origine primaire/secondaire des nitro-HAP ont cependant permis de mettre en évidence que la période de fin d’hiver-début printemps, avec des conditions photo-oxydantes propices et des émissions primaires toujours importantes (chauffage résidentiel) de composés organiques volatils ou semi-volatils précurseurs (dont HAP), est favorable à la formation secondaire de nitro-HAP et certainement d’aérosol organique secondaire (AOS).