Résultats de la recherche

588 résultats correspondent à INERIS
Jeudi 23 mai 2013
Rapport
Assistance aux AASQA pour les calculs d’incertitude (Rapport 2/2)
GUIDE PRATIQUE D'UTILISATION POUR L'ESTIMATION DE L’INCERTITUDE DE MESURE DES CONCENTRATIONS EN POLLUANTS DANS L'AIR AMBIANTPartie 2 : Estimation des incertitudes sur les mesuragesautomatiques de SO2, NO, NOx, NO2, O3 et CO réalisés sur site
Jeudi 23 mai 2013
Rapport
Assistance aux AASQA pour les calculs d’incertitude (Rapport 1/2)
Au niveau réglementaire, les directives européennes relatives à la surveillance de la qualité de l’air fixent des seuils d’incertitude sur les concentrations mesurées par les AssociationsAgréées de Surveillance de la Qualité de l’Air (AASQA) « au voisinage de la valeur limiteappropriée ». Il est donc nécessaire d’évaluer les incertitudes associées aux mesurages. Aussi, les normesdécrivant les méthodes de mesure, élaborées depuis 2005, intègrent-elles des procédures ou des exemples d'estimation de ces incertitudes. Une lecture attentive de ces normes montrequ’elles ne sont cependant pas très faciles d’application et qu‘elles peuvent être interprétées de diverses façons, ce qui peut conduire à des résultats très différents. Par conséquent, pour répondre aux exigences des directives et aider les AASQA à estimerleurs incertitudes sur la base de procédures harmonisées, le LCSQA a rédigé un guidepratique pour estimer l’incertitude sur les mesures effectuées à l’air ambiant. Ce guide eststructuré en huit parties, correspondant chacune à une technique de mesure particulière applicable à un ou plusieurs composés. Une fois finalisées, les différentes parties ont étévalidées en Commission de normalisation X43D « Air ambiant » de l’AFNOR et publiées sousforme de fascicules de documentation. Il a également été élaboré un guide de « Recommandations techniques pour la mise en oeuvre de la partie 2 du guide d'estimation des incertitudes portant sur les mesuragesautomatiques de SO2, NO, NO2, NOx, O3 et CO réalisés sur site » (novembre 2010).Dans le cadre de l’assistance aux AASQA pour le calcul des incertitudes, la mission duLCSQA en 2012 a porté sur les 2 points suivants : ·  Le développement d’une méthodologie différente de celle décrite dans la norme NF ISO 11222 - Qualité de l'air - Détermination de l’incertitude de mesure de la moyennetemporelle des mesurages de la qualité de l’air pour estimer la contribution des donnéesmanquantes dans le calcul d’incertitude associée aux moyennes horaires ; ·  La mise en équation de l’estimation des incertitudes associée aux moyennes temporellescalculées sur différents pas de temps (horaire, 8 heures, journalier, annuel).Cette étude a été menée dans le cadre d’un sous-groupe de travail du GT "Incertitude"composé d'AIRPARIF, d'AIR NORMAND, de l’ASPA et du LCSQA. Le fascicule de documentation FD X43-070-2 sera remis à jour pour la fin du premiersemestre 2013 pour intégrer les différents points abordés dans le guide de recommandationsLCSQA de novembre 2010 et l'estimation détaillée des incertitudes sur les moyennestemporelles. Par ailleurs, il a été décidé de créer la Commission de Suivi « Mesuresautomatiques NO/NOx, SO2, O3, CO, particules » et de mettre en sommeil le Groupe de Travail « Incertitudes » à la fin des travaux de 2012 (une réactivation sera possible enfonction des besoins de la CS).L’objectif général de cette nouvelle Commission de Suivi « Mesures automatiques NO/NOx,SO2, O3, CO, particules » est de s’assurer de la conformité des mesures de polluantsréglementés réalisées au moyen d’analyseurs automatiques, avec les exigences des directives européennes et des normes EN associées. (...)
Lundi 25 février 2013
Rapport
Travaux relatifs à la plateforme nationale de modélisation PREV’AIR : Bilan des performances et bilans utilisateurs
Dans ce rapport nous évaluons les performances des modèles mis en oeuvre dans la plateforme de prévision et de cartographie de la qualité de l’air, PREV’AIR.Cette évaluation est réalisée à l’aide d’indicateurs statistiques classiques et des observations obtenues en temps quasi réel via la base de données nationalealimentée par les AASQA (associations de surveillance de la qualité de l’air). En 2011, les performances affichées par les modèles sont assez stables parrapports aux années antérieures. Surtout concernant CHIMERE qui fournit laprévision de référence de la plateforme et dont la version n’a pas évolué depuis 2008. Le modèle a fait preuve d’une bonne aptitude à détecter les quelquesépisodes d’ozone et s’est également comporté de façon très satisfaisante lors desépisodes de particules de l’année 2011. En post-traitement, la prévision avec adaptation statistique dont la méthode decalcul est issue des travaux réalisés en collaboration avec Airparif dans le cadre du projet CITEAIR2 (www.citeair.eu) a permis de nettement améliorer les scores de la prévision brute pour l’ozone et les particules PM10. Son apport permetnotamment d’uniformiser la qualité de la prévision sur l’ensemble de la France.Enfin, le principal changement de l’année 2011 pour PREV’AIR a été la migration de la plateforme sur une nouvelle machine de calcul dotée de 256 processeurs.Ces nouvelles ressources ont permis le développement et le passage en phase test de plusieurs filières haute résolution qui devraient devenir totalementopérationnelles au cours de l’année 2012.
Lundi 25 février 2013
Rapport
Application de méthodes géostatistiques pour la détermination de zones de représentativité en concentration et la cartographie des dépassements de seuils
Conformément aux Directives européennes sur la qualité de l’air et à leur transposition en droit français, les AASQA doivent évaluer la représentativité spatiale de leurs sites de mesure. De plus, si un dépassement de seuil réglementaire est constaté en un ou plusieurs sites, elles doivent estimer la surface et la population exposée à ce dépassement dans toute la zone de surveillance. Ces exigences nécessitent de disposer d’une information sur la distribution spatiale des concentrations, selon un pas de temps adapté à l’échelle temporelle et au seuil considérés. Différents moyens d’obtenir une telle information, qui reposent sur la modélisation et/ou le traitement de données de campagnes, sont envisageables. La présente étude est consacrée au NO2 en moyenne annuelle. Elle propose une méthodologie probabiliste fondée sur la réalisation de campagnes d’échantillonnage par tubes à diffusion passive. L’usage complémentaire de résultats de modélisation fera l’objet d’une étape ultérieure. Les calculs s’organisent en trois parties. La première fait appel aux techniques d’estimation de la géostatistique. Elle consiste à cartographier les concentrations moyennes annuelles de NO2 sur le domaine considéré. Elle constitue un préalable indispensable aux deux parties suivantes, qui peuvent être mises en œuvre indépendamment : l’estimation des zones de représentativité en concentration des stations et la délimitation des zones de dépassement de la valeur limite annuelle (40 µg/m3). L’approche a été appliquée dans son ensemble à deux cas d’étude : Montpellier et Troyes, où Air Languedoc-Roussillon et ATMO Champagne-Ardenne ont réalisé des campagnes d’échantillonnage (respectivement en 2007 et 2009). Les concentrations moyennes annuelles de NO2 ont été cartographiées sur ces deux agglomérations en se limitant d’abord à la pollution de fond puis en intégrant l’influence des émissions routières. Les critères et paramètres définissant la représentativité ont été évalués et ajustés à l’aide de tests de sensibilité. Pour Montpellier comme pour Troyes, l’estimation de la représentativité spatiale des stations de fond montre une bonne couverture du domaine de surveillance. La disposition des zones diffère toutefois selon la ville. En ce qui concerne Montpellier, les deux zones de représentativité sont disjointes et se complètent : l’une correspond au centre de l’agglomération, l’autre forme une couronne autour de ce centre. En revanche, la représentativité de la station trafic de Montpellier n’a pu être établie, faute d’une précision d’estimation suffisante aux abords de ce site. Dans le cas de Troyes, les zones de représentativité associées aux deux stations de fond sont imbriquées. Dans les deux agglomérations, de multiples points situés le long des axes ont été classés en zone de dépassement. Il serait intéressant de contrôler ces estimations par des données complémentaires de mesure. Les méthodes présentées reprennent des développements antérieurs, issus de travaux cités en introduction. Elles ont été mises au point avec le logiciel R. Si elles offrent une réponse efficace aux questions de la représentativité et des dépassements, les exemples étudiés en indiquent aussi les limites, à savoir une sensibilité au plan d’échantillonnage et à certains paramètres de calcul (écart de concentration définissant la représentativité, risques statistiques). Les zones de représentativité et de dépassement seront délimitées d’autant plus finement que la stratégie de mesure permet une estimation plus fiable des concentrations de fond et une modélisation plus précise du surcroît de concentration aux abords des routes. Qu’il s’agisse de l’échantillonnage spatial ou temporel, de nombreuses préconisations ont déjà été émises (LCSQA, GT plans d’échantillonnage) ; il est recommandé de s’y référer. Une synthèse des méthodes utilisées et des résultats obtenus, assortie d’indications et de précautions d’usage, est fournie en conclusion. Des travaux complémentaires et approfondissements – réalisés ou en cours d’étude - y sont également mentionnés : analyse de la représentativité et des zones de dépassement pour les PM10 et le benzène, utilisation de la modélisation urbaine, quantification de la population exposée. --> Accès à la note de 2011 relative à la Cartographie du NO2 à l’échelle locale, Représentativité des stations, Dépassements de seuils
Lundi 25 février 2013
Rapport
Le naphtalène : Bibliographie des méthodes de mesure et d’analyse pour l’air intérieur
Classé cancérogène possible (groupe 2B) par l’IARC, et cancérogène de catégorie 3 par l’Union européenne (UE), le naphtalène a été identifié comme composé d’intérêt en air intérieur et a fait, à ce titre, l’objet de l’établissement de valeurs-guide par l’Agence Nationale de SEcurité Sanitaire (ANSES) en 2009 et de valeurs repères d’aide à la gestion dans l’air des espaces clos, début 2012 par le Haut Conseil de Santé Publique.Ainsi, le HCSP recommande deux valeurs pour une exposition long terme : • Une valeur repère de qualité d’air intérieur de 10 μg m-3, immédiatement applicable et respectée dans tous les bâtiments, avec un délai des actions correctives fixé à un an. • Une valeur d’action rapide de 50 μg m-3. Les actions correctives mises en oeuvre viseront à abaisser le niveau de concentration de naphtalène dans les bâtiments concernés jusqu’à une concentration inférieure à 10 μg m-3. Le délai de mise en oeuvre de ces actions correctives ne devrait pas excéder trois mois. Le HCSP rappelle également que le naphtalène doit faire l’objet d’une surveillance, non seulement en raison de ses effets sanitaires, mais également en tant qu’indicateur de l’impact de sources de pollutions importantes de l’air intérieur que sont les processus de combustion, la contamination des sols…Afin de mener à bien cette surveillance, il est indispensable de se doter de moyens métrologiques adaptés aux niveaux de concentration rencontrée, aux contraintes des environnements clos, mais également à la surveillance au regard des valeurs repère long terme. Il n’existe pas de méthodes spécifiques au naphtalène. Du fait de ses propriétés physico-chimiques, deux types de méthodes sont éventuellement applicables à l’évaluation de ses concentrations dans l’air: • Les méthodes de prélèvement utilisées pour l’étude des COV impliquant l’utilisation de tubes d’adsorbants, • Les méthodes de prélèvement utilisées pour l’étude des HAP en phase gazeuse impliquant l’utilisation de résines ou de mousses. A ce jour, seules des valeurs de gestion pour une exposition long terme ont été publiées par le HCSP, supposant ainsi des méthodes de prélèvement de longue durée. Dans ce contexte, les méthodes par diffusion représentent un bon compromis compte tenu du faible encombrement qu’elles impliquent et l’absence de nuisances sonores pour la surveillance du naphtalène en air intérieur.Plusieurs tubes passifs, commerciaux ou mis au point par des laboratoires, sont disponibles. Cependant, ils ont été relativement peu éprouvés pour la mesure du naphtalène en air intérieur (très peu de données sont disponibles) et aucune validation de ces supports de prélèvement n’a été réalisée dans cette optique.L’ensemble des tubes passifs répertoriés dans le cadre de cette étude bibliographique est destiné à une désorption chimique par solvant. Aucun n’a été dimensionné pour une désorption thermique, offrant des limites de détection plus basses que la désorption chimique. Il serait intéressant de tester la faisabilité de mise en oeuvre de ce genre de tube pour la mesure du naphtalène.Ainsi, dans une perspective de surveillance du naphtalène en air intérieur et dans le cadre de la rédaction de protocoles à cette fin, il semble indispensable de prévoir des campagnes d’intercomparaison des méthodes existantes afin d’en évaluer l’incertitude de mesure et la pertinence de leur mise en oeuvre dans le cadre d’une surveillance en air intérieur.
Lundi 25 février 2013
Rapport
Réduction optimisée du réseau de mesures fixes d'ozone
Cette étude s’inscrit dans le cadre des travaux de coordination du LCSQA relatifs au dispositif métrologique français. Elle a pour objet l’optimisation du réseau demesures fixes français grâce aux outils de géostatistique et à l’optimisationstatistique.Ce rapport présente les résultats obtenus dans le cadre de l’étude surl’optimisation du réseau de mesures de fond d’ozone. L’objectif de celle-ci a été derechercher un réseau optimisé, à partir du dispositif actuel, opérationnel au 1er mai 2012, et de taille correspondant au nombre minimal de points de mesure fixesd’ozone, imposé par la Directive 2008-50-CE concernant « la qualité de l’airambiant et un air pur pour l’Europe » et calculé d’après le zonage défini au 1erjanvier 2010.Cet exercice d’optimisation, tel qu’il est réalisé ici, consiste en la minimisationd’une fonction de coût, définie selon les besoins de l’exercice, et en la recherche de la valeur pour laquelle le minimum est atteint. La première partie de ce rapportdétaille et justifie la méthodologie employée, du choix de la fonction de coût àl’algorithme statistique utilisé pour la minimiser. La deuxième partie présente les résultats obtenus selon les paramètres choisisdans le processus d’optimisation et compare les cartes analysées des maximajournaliers estivaux d’ozone des moyennes glissantes sur 8h, basées d’une partsur le réseau opérationnel au 1er mai 2012 et d’autre part sur les réseauxoptimisés obtenus.Enfin, la dernière partie de ce rapport compare les réseaux optimisés entre eux.Cette étude fait ainsi apparaître un groupe de stations nécessaires à l’élaboration de cartographies d’ozone et un deuxième groupe de stations dont les donnéesd’ozone apportent peu à la qualité de ces cartographies.Ces résultats constituent le début du travail sur l’optimisation du réseaufrançais et démontrent l’efficacité de la méthodologie développée. Elle seraappliquée prochainement aux réseaux NO2 et PM10 et pourrait être adaptée à l’échelle régionale comme outil de recherche d’implantation de stations.
Lundi 25 février 2013
Rapport
Carbone élémentaire ou black carbon ?
Les particules de combustions contiennent une fraction « graphitisée », formée de trop peux d’hétéroatomes (tels que O, H, N, …) pour pouvoir être considérée comme organique. Cette fraction, appelée ici carbone suie, peut être séparée de la matière organique particulaire à l’aide de sa résistance thermique (puis analysé à plus haute température). Sa concentration peut également être estimée à l’aide de ces propriétés optiques. En effet le carbone suie constitue la principale espèce particulaire absorbant le rayonnement lumineux dans l’atmosphère. Cette double caractéristique physique lui confère une dualité conceptuelle inextricable : carbone élémentaire vs. black carbon. Le carbone élémentaire - EC - représente la partie réfractaire (jusqu’à 600-800 °C selon le taux d’oxygène) de l’aérosol carboné émis par combustion, alors que le black carbon - BC - représente la fraction (la plus) absorbante de ces émissions. Si, en première approche, ils peuvent être considérés comme alter ego, l’inhomogénéité des méthodes de mesures entraine un biais, plus ou moins important, entre ces deux sousespèces. D’une part, le degré de résistance thermique du carbone suie n’est pas proportionnel à son degré de capacité absorbante. D’autre part, la mesure du carbone élémentaire dépend fortement du protocole thermique (ou thermo-optique) utilisé tandis que la mesure du black carbon dépend fortement des hypothèses utilisées pour convertir une mesure d’absorbance en concentration massique ainsi que de possibles interférences avec d’autres espèces absorbantes (en fonction de la longueur d’onde utilisée). Bien que des documents normatifs soient en cours d’élaboration par le CEN, Il n’existe pas de méthode normalisée à ce jour pour la mesure de EC ni pour celle de BC. Par ailleurs, les hypothèses de conversion de l’absorption en concentration sont généralement basée sur des mesures d’EC, d’où de récentes propositions de faire plutôt référence à des mesures optiques d’Equivalent Black Carbon (EBC). La mesure du black carbon (équivalent) est plus automatisée, moins onéreuse et plus robuste que celle du carbone élémentaire. Il est à noter que ce type de mesure est réalisé depuis de nombreuses années dans les AASQA sous la forme de l’indice de Fumées Noires, qui utilise le même principe de mesure (absorbance). Cet indicateur est très largement utilisé par la communauté scientifique de la santé. Néanmoins, la mesure thermo-optique (de EC) permet également d’estimer la part de la fraction organique des PM.
Lundi 4 février 2013
Rapport
Définition des zones sensibles dans les régions françaises. Bilan de la mise en oeuvre de la méthodologie nationale.
Le décret du 16 juin 2010 relatif aux schémas régionaux du climat, de l’air et de l’énergie prévoit que dans les zones plus particulièrement sensibles à la dégradation de la qualité de l’air, les orientations destinées à prévenir ou réduire la pollution atmosphérique soient renforcées. Afin que ces zones soient délimitées de manière homogène sur l’ensemble de la France, une méthodologie nationale a été établie. Le LCSQA et des représentants d’AASQA (Air Rhône-Alpes, ASPA, Air Normand, Airparif) en ont assuré collectivement l’élaboration dans le cadre du groupe de travail « Zones sensibles » (2010). Deux grands types de variables définissent les zones sensibles : des critères liés à la qualité de l’air, et plus spécialement aux dépassements observés ou potentiels des valeurs limites ; des critères liés à la sensibilité propre des territoires, et plus précisément à la présence de population ou de zones naturelles protégées. De janvier 2011 à janvier 2012, conformément à la demande du ministère en charge de l’écologie et du développement durable et à la mission qui leur est confiée par l’arrêté du 21 octobre 2010 (article 10), les AASQA ont appliqué la méthodologie aux différentes régions françaises. Ce travail a été conduit en concertation avec les DREAL (DEAL, DRIEE) et avec le soutien du LCSQA. La définition des zones sensibles a fait ainsi l’objet de nombreux échanges entre les AASQA et le LCSQA qui, selon les sollicitations, a apporté son aide de la manière suivante : indications sur certains points de méthode, extraction de données par région, aide à l’utilisation des SIG; avis sur la mise en œuvre de la méthodologie, aide à l’interprétation des résultats. Le présent rapport dresse un bilan du travail effectué et des résultats obtenus. La méthodologie a reçu un accueil favorable et sa mise en œuvre n’a soulevé aucune difficulté majeure. Quelques limites ou artefacts ont été néanmoins constatés lors de l’identification des zones de dépassement et des zones habitées et de la sélection des mailles et des communes sensibles. Les AASQA en ont corrigé les effets par des ajustements fondés sur des données complémentaires et sur leur expertise. Ces limites ne mettent pas en question le principe et l’organisation de la méthodologie ni la pertinence des résultats qui en découlent. S’il est besoin, elles pourront donner lieu à une mise à jour de la méthodologie lors d’une réévaluation future des zones sensibles. Au total, 5558 communes ont été déclarées sensibles. Elles représentent un peu plus de 11% de la surface du territoire et 61% de la population. Le nombre de communes sensibles, la part de surface occupée par ces dernières et la proportion de population concernée varient notablement selon les régions (ou DOM) : entre 2 et 1519 communes sensibles, entre 0,1% et 98,9% de la surface régionale, entre 30,4% et 99,8% de la population régionale. La répartition spatiale de ces communes apparaît toutefois cohérente, sans discordance entre les régions. La densité de zones sensibles augmente dans les régions les plus touchées par des dépassements consécutifs à la pollution de fond régionale (dépassements liés aux PM10 dans le Nord-Pas-de-Calais, en Picardie, Rhône-Alpes et PACA ; au NO2 et aux PM10 en Île-de-France).
Mercredi 16 janvier 2013
Rapport
Note : Etude de la stabilité des échantillons de filtres HAP lors de leur stockage dans le système de prélèvement
L’objectif de cette étude était d’évaluer la stabilité des échantillons particulaires de HAP (filtres) lors de leur stockage dans le système de prélèvement et de compléter ainsi l’étude effectuée en 2010.Dans ce cadre, quatre préleveurs haut débit DA-80 ont été mis en œuvre en parallèle sur le site urbain de Lyon 8eme (Air Rhône-Alpes) lors de l’été 2012 : un système de prélèvement de référence pour lequel le ramassage du filtre avait lieu à la fin de la période d’échantillonnage, un préleveur équipé d’un système de réfrigération des échantillons collectés, un système mis en œuvre dans une remorque climatisée et un système non réfrigéré. Quatre périodes de stockage des échantillons ont été évaluées allant de 5 à 20 jours consécutifs avec un suivi de la température interne des préleveurs au niveau du stockage des filtres. Les résultats obtenus ont tout d’abord permis de montrer qu’aucune contamination significative des échantillons n’a été observée pour les blancs de terrain sur de telles périodes de stockage des filtres. Malgré des difficultés techniques rencontrées au cours de cette étude (notamment liées au système de réfrigération du préleveur DA-80 réfrigéré), les résultats ont permis de montrer la stabilité des échantillons de filtres HAP pour une période de 7 jours consécutifs. Ces résultats semblent raisonnablement extrapolables au cas d’un préleveur disposé dans un local climatisé. A partir de 13 jours, les pertes en HAP dans le cas d’un préleveur DA-80 non réfrigéré deviennent conséquentes et peuvent être de l’ordre de 70 % pour le B[a]P et le B[a]A. Compte tenu des résultats obtenus lors de cette étude, le LCSQA recommande donc aux AASQA une période de stockage maximale de 7 jours consécutifs des échantillons collectés au sein des préleveurs réfrigérés ou mis en œuvre en station climatisée. Un suivi continu de la température interne du préleveur au niveau du stockage des échantillons, afin de s’assurer du bon fonctionnement du système de réfrigération des échantillons ou de climatisation de l’enceinte accueillant le préleveur, est toutefois indispensable. Enfin, dans le cas présent, les blancs de terrain doivent subir la même procédure que les échantillons et devront donc être stockés dans le préleveur pour la même durée que les filtres collectés afin de s’assurer qu’aucune contamination n’ait eu lieu.
Vendredi 14 décembre 2012
Rapport
Caractérisation chimique des particules : Veille sur les études de caractérisation des PM
La pollution particulaire constitue un véritable enjeu à la fois politique  sanitaire et règlementaire. Ainsi, un besoin fort est exprimé par les pouvoirs publics de se doter d’outils de compréhension des phénomènes et d’aide à la décision en accord avec la Directive 2008/50/CE et mettre en œuvre des plans de réduction des sources de matière particulaire (PM) en France. C’est pourquoi le programme CARA a été crée au sein du Laboratoire Central de Surveillance de la Qualité de l’Air (LCSQA) et que des campagnes de mesures sont menées sur le territoire pour suivre des traceurs spécifiques de certaines sources, caractériser la pollution particulaire dans des zones spécifiques telles les zones rurales, mettre au point des méthodes d’analyse et de traitement des données pour attribuer les sources et comprendre les phénomènes. En 2009, un premier rapport s’était attaché à faire l’état des lieux des différentes approches existantes pour l’attribution des sources de particules ainsi que des différentes études de source de PM menées en France au niveau national, régional et dans le domaine de la recherche. La poursuite de ce travail, entrepris chaque année, révèle la multiplicité et la diversité de ces études. En 2012, ce travail de veille s’est poursuivi et a permis de mettre en évidence les principaux éléments suivants : .Quatre études nouvelles ont été recensées : « signature PM », CHAMPROBOIS, INACS, Lanslebourg II. Il est néanmoins important de noter que cette veille ne prétend aucunement à l’exhaustivité, La plupart des études visant à caractériser les sources de PM localement se sont terminées en 2012 (Particul’Air, Particules en IDF, Vallée des Peillons, Chaudières bois en Alsace, Brumes de sable en Martinique, Lanslebourg...) ; En 2010, deux projets se destinaient à des applications épidémiologiques (« Brumes de sable » en Martinique et le site d’observation de la Meuse) et un à des études de toxicologie (PACTES en région PACA). En 2012, aucun nouveau projet ne vient renforcer les rangs des études épidémiologiques ; Alors que les études de caractérisation des sources de PM en région initiées entre 2009 et 2010 touchent à leur fin, peu sont initiées en 2012. L’on assiste plutôt à une augmentation depuis 2011 des études focalisées sur la caractérisation d’un polluant et de ses sources par le biais de campagne de terrain comme PREQUALIF qui s’intéresse au « black carbon », de mesures à la source comme NanoFluegas, projet tourné vers les nanomatériaux manufacturés, ou de la caractérisation d’une source comme PM-DRIVE, également intéressé par l’impact de la source trafic ; Plusieurs sites français (Revins, SIRTA..) ont participé à la campagne européenne intensive EMEP-ACTRIS. Cette dernière action s’inscrit dans un contexte de travail européen fort comprenant entre autre : La participation au réseau EMEP-ACTRIS comme mentionné ci-dessus ; La rédaction de guides pour l’estimation de la part des sources naturelles et de resuspension sur les concentrations en PM ; La mise en place d’un réseau de sites de mesure facilitant les échanges entre pays (ACTRIS, transnational access), La rédaction d’un protocole technique pour la mise en œuvre des modèles récepteur (Receptor Model Technical Protocol, RMTP). Les travaux européens s’organisent pour donner un cadre, harmoniser et faciliter l’ensemble des études menées par les Etats Membres afin d’identifier les sources de la pollution particulaire et mieux qualifier et quantifier les épisodes de PM en particulier ceux attribuables à des phénomènes particuliers tels le transport longue distance ou les sources naturelles. L’impulsion que l’Europe est en train de donner aux travaux relatifs à la connaissance des sources des PM devrait profiter et certainement provoquer des travaux supplémentaires au niveau national. C’est la raison pour laquelle ce travail de veille sera étendu aux travaux européens en 2013. La plupart des travaux visant à caractériser des activités locales (industrie, trafic…), des habitudes de vie (transport, chauffage…) et l’organisation même des communes sont importants dans un contexte national de mise en œuvre de plans de réduction.