Résultats de la recherche

398 résultats correspondent à AASQA
Lundi 30 janvier 2012
Aasqa
ATMO AUVERGNE - RHÔNE-ALPES
Jeudi 23 août 2012
Rapport
Variabilité spatiale des concentrations de PM10 autour des sites de proximité automobile : mise en oeuvre et exploitation des campagnes de mesure
En France comme dans les autres pays européens, la majorité des dépassements de valeurs limites en PM10 sont enregistrés sur des stations de proximité automobile, suggérant une exposition maximale des populations aux abords des axes routiers urbains. Afin de caractériser au mieux cette exposition à partir de l’information ponctuelle fournie par ces stations et d’évaluer l’impact sanitaire associé, il est donc nécessaire de déterminer la représentativité spatiale des mesures de PM10 en site trafic. Une telle information peut se révéler décisive lorsqu’il s’agit d’identifier les sites les plus appropriés pour l’implantation d’une future station de proximité. L’objectif de la présente étude était de réaliser, en collaboration avec des AASQA volontaires, des campagnes de mesure de PM10afin de pouvoir apporter des recommandations méthodologiques pour l’étude de cette représentativité spatiale et d’explorer le lien entre la notion de représentativité et celle de superficies et populations exposées aux dépassements de seuils. Pour ce faire, trois campagnes de mesure ont été réalisées, deux aux abords de l’autoroute A7 sur la commune de Saint-Romain-en-Gal (en collaboration avec Air Rhône-Alpes) et une autour de la station trafic Octroi située au centre-ville de Belfort (en collaboration avec Atmo Franche-Comté). D’un point de vue métrologique, différents indicateurs optiques ont pu être testés lors des campagnes de Saint-Romain-en-Gal, indiquant un bon comportement desinstruments asséchant l’air échantillonné, avec une préférence pour les compteurs (de type Grimm en caisson environnemental) par rapport aux néphélomètres (e.g. Osiris ou ADR 1500). Néanmoins, la forte influence du fond sur les niveaux de PM10 en sites trafic suggère la nécessité d’utilisation de techniques de mesure aussi précises que possible. En outre, le recours à des prélèvements sur filtre, selon la méthode de référence en vigueur (norme NF EN 12341), lors de la campagne de Belfort a permis une meilleure interprétation des résultats via l’analyse de traceurs chimiques de sources. Il a, par exemple, été possible de déterminer, dans le surplus de concentration observé en site trafic, la part des émissions directes (à l’échappement) et la part des émissions dues aux phénomènes de remise en suspension. Afin d’évaluer la représentativité spatiale des stations de proximité (station temporaire Mobiléo au bord de l’A7, station fixe Octroi à Belfort), on s’est intéressé aux variations de concentration autour de ces sites, le long de l’axe routier d’une part et perpendiculairement à celui-ci d’autre part. Le long de l’axe, les concentrations de PM10 sont relativement homogènes : sur les périodes étudiées, les concentrations moyennes journalières mesurées en divers points s’écartent d’au plus 8 µg/m3 de la valeur mesurée sur la station Si pour la campagne de Saint-Romain en Gal, les données recueillies ne permettent pas d’interpréter ces écarts, à Belfort, les variations relatives de concentration pourraient s’expliquer par les variations relatives de trafic avec lesquelles elles sont corrélées (corrélation de 0,85). Dans la direction transversale, les mesures réalisées à distance croissante de la route indiquent une diminution assez rapide des concentrations. Les concentrations de PM10 mesurées à 50 m de l’A7 lors de la campagne automnale de Saint-Romain-en-Gal, et à environ 150 m de la station Octroi lors de la campagne de Belfort, sont proches des niveaux de fond urbain. Une détermination précise de la zone d’impact du trafic se révèle toutefois malaisée à cause de l’influence de sources de pollution parasites telles qu’une route secondaire et des plages de variation des concentrations, souvent inférieures à l’incertitude de mesure autorisée pour les PM10.L’amplitude relativement limitée de ces variations peut s’expliquer par une contribution majoritaire de la pollution de fond, comme s’accordent à le montrer l’exploitation des données de campagnes et la comparaison des données de fond et de trafic réalisée à l’échelle nationale. D’après les données de la campagne de Belfort, une station trafic peut ainsi, dans une certaine mesure, être considérée comme représentative d’une zone bien plus large que le segment de route au bord duquel elle se trouve, voire de l’ensemble de l’agglomération. En revanche, elle ne peut renseigner correctement sur le nombre de dépassements du seuil journalier en situation de fond urbain. En effet, même s’il est modéré, le surplus de pollution lié au trafic peut suffire à multiplier les dépassements. Outre l’étude de la représentativité spatiale, il paraît donc opportun de s’intéresser directement aux superficies et populations concernées par les dépassements de valeurs limites. Pour ce faire, l’utilisation de la modélisation déterministe semble préférable à une approche géostatistique, particulièrement coûteuse et complexe à mettre en œuvre pour les PM10 du fait des contraintes métrologiques (à l’inverse par exemple du NO2). Néanmoins, l’optimisation de la modélisation des émissions directes et le développement de la modélisation des émissions indirectes sont encore à réaliser, rendant nécessaire la « calibration » de ces modèles de pollution de proximité à l’aide de campagnes de mesure.
Jeudi 9 août 2012
Rapport
Concentrations atmosphériques des HAP au niveau national (France) : cartographie et tendances sur le long terme
Cette étude dresse un premier bilan national des concentrations de HAP mesurées par les Associations Agréées de Surveillance de la Qualité de l’Air (AASQA) en application de la IVème directive fille (2004/107/CE). La collecte et le traitement statistique d’un ensemble très important de données relatif aux concentrations de ces polluants ont été réalisés à l’échelle nationale. Ils ont permis d’établir des cartographies nationales des niveaux de concentrations en B[a]P et de la contribution du B[a]P au mélange des 7 HAP de la directive 2004/107/CE (ratio B[a]P / S7HAP). Une analyse des tendances d’évolution sur le long terme a été également réalisée pour les sites de mesures disposant de séries temporelles suffisamment longues (> 5 ans). De façon générale, les concentrations moyennes annuelles de B[a]P observées au niveau national sont inférieures à la valeur cible de 1 ng.m-3. Seuls les sites industriels et certains sites (urbains en majorité) situés dans des zones spécifiques (régions Nord-Pas-de-Calais, Lorraine et Rhône-Alpes) présentent des concentrations moyennes annuelles supérieures à cette valeur cible. Toutefois, la surveillance sur des sites de type périurbain se révèle également importante compte tenu des niveaux de concentrations observés, en lien peut être avec une utilisation du chauffage au bois plus importante dans ces zones (hypothèse à vérifier car très peu de sites instrumentés). La contribution du B[a]P aux 7 HAP semble stable en moyenne annuelle mais est grandement variable entre la saison chaude et la saison froide en liaison, comme pour les niveaux de concentrations en B[a]P, avec l’activité photochimique et le nombre de sources potentielles de HAP (chauffage en hiver). L’analyse des tendances sur le long terme met en évidence la décroissance des concentrations en B[a]P (- 1 ng.m-3 en 10 ans) sur certains sites comme il a été également observé dans d’autres pays européens. Toutefois, cette tendance n’est pas générale et la majorité des sites étudiés ne présentent pas de tendance significative à la hausse ou à la baisse des concentrations. De plus, cette analyse a permis de montrer que le choix du B[a]P en tant que HAP représentatif unique d’une contamination chronique était probablement discutable. Des différences de tendance sont évidentes entre l’Ile de France, où la contribution du B[a]P au mélange des HAP est constante ou croissante sur le long terme, et la région Rhône-Alpes, où elle est significativement décroissante (plus de -50% en 10 ans). Les résultats obtenus dans cette étude devront être pris en considération lors de la révision de la directive et notamment dans les discussions relatives au choix du B[a]P comme espèce représentative de la contamination chronique en HAP. L’ensemble des résultats obtenus ici conforte le fait que l’analyse des 7 HAP de la directive est essentielle en termes de surveillance et d’évaluation de la qualité de l’air. Elle pourrait même s’étendre à l’analyse des 16 HAP réglementés par l’US-EPAafin de permettre, dans un futur proche, une évaluation des sources des HAP (notamment sur les sites problématiques vis à vis de la valeur cible) en appliquant un modèle récepteur statistique du type positive mass factorisation (PMF) sur les séries de données suffisamment longues (quelques années). La validité et la faisabilité de ce type d’approche reste toutefois à évaluer.
Vendredi 27 juillet 2012
Rapport
Analyse des impuretés dans les gaz de zéro
Pour le réglage à zéro des analyseurs, les AASQA utilisent des gaz de zéro (Air zéro en bouteille…) pour lesquels on considère que les concentrations des impuretés sont inférieures au seuil de détection des analyseurs et de ce fait, sont données comme étant égales à zéro. Toutefois, ceci reste un postulat pouvant parfois être remis en cause par exemple lors des audits réalisés par le COFRAC. De plus, les normes européennes NF EN 14211, NF EN 14212, NF EN 14625 et NF EN 14626 portant sur l’analyse de SO2, de NO/NOx/NO2, CO et O3 fournissent des spécifications pour les gaz de zéro à utiliser. Toutefois, la chaîne d’étalonnage pour l’air zéro n’existant pas pour l’instant, il n’est pas possible de déterminer si les exigences normatives sont respectées. Enfin, la fabrication des mélanges gazeux de référence gravimétriques et la génération de mélanges gazeux de référence dynamiques (dilution d’un mélange gazeux haute concentration par voie dynamique, mélange gazeux généré par perméation…) impliquent l’utilisation de gaz de zéro (azote ou air). Une des sources d’erreur dans le calcul de la concentration de ces mélanges gazeux de référence est la pureté des gaz de zéro utilisés, ce qui est soulevé de façon récurrente par les auditeurs techniques du COFRAC et lors des réunions sur les comparaisons européennes et internationales, car les laboratoires nationaux se doivent d’être capables de déterminer la pureté des gaz utilisés.   L’objectif final de cette étudeest de pouvoir statuer sur la pureté des gaz de zéro en bouteille en s’assurant qu’ils contiennent des impuretés (NO, NO2, SO2 et CO) en concentrations inférieures à 1 nmol/mol pour répondre aux exigences des normes européennes NF EN 14211, NF EN 14212, NF EN 14625 et NF EN 14626. Les études menées en 2008 et 2009ont permis de déterminer les paramètres métrologiques de la méthode d'analyse du NO et du NO2 présents à l'état de traces dans l'air de zéro en bouteille (concentrations inférieures à 1 nmol/mol). L’étude effectuée en 2010a permis de déterminer les paramètres métrologiques de la méthode d'analyse pour les autres composés (SO2 et CO) présents également à l'état de traces dans l'air de zéro en bouteille.   L’objectif de l’étude réalisée en 2011 était de développer une méthode d’analyse pour mesurer simultanément les 4 composés (NO, NO2, SO2 et CO) dans un même gaz de zéro en s’appuyant sur l'ensemble des résultats obtenus lors des études menées de 2008 à 2010. La première partie a consisté à optimiser la méthode d’analyse (conditions opératoires) pour pouvoir mesurer en simultané les 4 impuretés. Concernant les résultats d’analyse, dans le cas où les concentrations de ces impuretés sont supérieures à 1 nmol/mol (exigences des normes européennes), elles devront être quantifiées et les incertitudes associées calculées. Pour cette raison, l’étude des performances métrologiques du système a été effectuée en 2011 et a porté sur la détermination de la reproductibilité et la linéarité du système, éléments clés dans la méthode de mesure, lorsque les 4 impuretés (NO, NO2, SO2 et CO) sont mesurées simultanément. Des essais de reproductibilité sur plusieurs jours réalisés en éteignant l’appareil chaque jour ont montré des instabilités pour les mesures du NO et du CO. En effet, par moment, la dispersion des mesures devenait élevée pour les mesures de NO et de CO. Par contre, ce phénomène n’a pas été constaté pour les mesures de NO2 et de SO2. Les résultats ont donc été également traités en supprimant toutes les séries de mesures dont l’écart-type était supérieur à une valeur fixée de 0,5 nmol/mol pour le NO et de 0,4 nmol/mol pour le CO. De cette façon, les écarts-types de reproductibilité sont de l’ordre de 10 % pour le NO, SO2 et CO et de 3% pour le NO2. En conclusion, suite à ce traitement des résultats, il est constaté une amélioration de la dispersion des mesures en CO et SO2. La dispersion pour le NO2 reste du même ordre de grandeur que celle obtenue avec uniquement 2 lasers ; par contre, celle en NO se trouve plus élevée. La linéarité de l’appareil a été étudiée sur un domaine allant jusqu'à 200 nmol/mol. Les résultats montrent que le système est linéaire pour des concentrations de NO, NO2, CO et SO2 inférieures à 200 nmol/mol avec un écart maximum observé par rapport au modèle linéaire (y=x) égal à 1,15 nmol/mol dont il sera tenu compte dans l’estimation des incertitudes associées aux concentrations des impuretés lorsqu’elles seront supérieures à 1 nmol/mol.   En conclusion, les essais de caractérisation métrologique réalisés sur le QC-Laser en 2011 montrent que cet appareil est plus difficile à régler dans sa configuration actuelle (4 lasers au lieu de 2). En effet, le fait d’avoir rajouter en 2010 les lasers CO et SO2 au QC-Laser pour pouvoir mesurer simultanément les concentrations des impuretés NO, NO2, CO et SO2 complique fortement les réglages à effectuer sur cet appareil pour qu’il soit performant en termes de répétabilité et de reproductibilité dans le temps.   En 2012, la suite des essais consistera à finaliser la méthode de détermination des impuretés (NO, NO2, SO2 et CO) dans les gaz de zéro avec le QC-Laser et à formaliser cette méthode en rédigeant les procédures techniques et d’estimation des incertitudes. De plus, leLNE procédera à de premiers essais de raccordement des gaz de zéro des niveaux 2 en utilisant le spectromètre DUAL QC-TILDAS-210.
Mardi 26 juin 2012
Page de livre
Stratégie de la Surveillance (C3S)
Objectifs  valider les propositions faites dans les GT et autres commissions et le cas échéant, répondre à des questions auxquelles le GT, ou la CS, n’a pas su répondre
Jeudi 26 avril 2012
Rapport
Travaux relatifs à la plateforme nationale de modélisation Prev'Air: Bilan des performances et bilans utilisateurs
Dans ce rapport nous évaluons les performances des modèles mis en œuvre dans la plateforme de prévision et de cartographie de la qualité de l’air, Prev’Air. Cette estimation du comportement des outils est réalisée par des indicateurs statistiques classiques et les observations obtenues en temps quasi réel de la base de données BASTER gérée par l’ADEME et alimentée par les AASQA (associations de surveillance de la qualité de l’air). En 2010, les performances affichées par les modèles sont assez proches de celles obtenues en 2009 pour ce qui concerne Chimere, la version n’ayant pas évolué. Le modèle a fait preuve d’une aptitude excellente à détecter les épisodes d’ozone et se comporte plutôt bien sur quelques épisodes de particules durant l’année 2010. L’ENSEMBLE dont une nouvelle version a été testée conserve les meilleurs scores et améliore nettement sa capacité à prévoir les dépassements des seuils réglementaires. L’analyse a fait l’objet d’évolutions majeures de sa méthodologie permettant d’intégrer plus de points d’observations dans son calcul. Enfin, une nouvelle prévision aérosol a été testée puisque MOCAGE a rejoint CHIMERE en cours d’année avec une représentation pour le moment incomplète des processus.
Vendredi 24 août 2012
Rapport
Réglementation & Normalisation 2011 : appui à la surveillance, la planification et aux politiques territoriales
En tant que Laboratoire National de Référence dans le domaine de la Qualité de l’Airnotifié par le Ministère en charge de l’environnement, le LCSQA joue un rôle actifdans les instances normatives et réglementaires nationales et européennes : - application des directives (garantie des méthodes et des données associées), - révision de normes EN existantes et élaboration de nouvelles normes par le CEN, - valorisation de la capacité d’expertise au travers de la participation aux divers workshops et groupes de travail européens et nationaux en vue de l’application de la réglementation européenne sur le territoire. Au niveau européen, les GT et Comités impliquent 12 experts membres du LCSQA Un résumé des principales décisions associées aux différents documents normatifsest donné dans le rapport. De même, au niveau national, dans le cadre du Grenelle Environnement et du 2ème Plan national Santé-Environnement, le rôle du LCSQA concernant la coordination technique du Dispositif National de Surveillance s’est vu renforcé 1 en 2011, en lien avec les AASQA qui devront être régionalisées dès 2012. L’ensemble des actions d’appui à la surveillance, à la planification et aux politiquesterritoriales est décrit sur le site du LCSQA (http://pro-lcsqa2.lcsqa.org/fr/)   1Arrêté du 29 juillet 2010 portant désignation d’un organisme chargé de la coordination technique de la surveillance de la qualité de l’air au titre du code de l’environnement
Mercredi 16 janvier 2013
Rapport
Note : Etude de la stabilité des échantillons de filtres HAP lors de leur stockage dans le système de prélèvement
L’objectif de cette étude était d’évaluer la stabilité des échantillons particulaires de HAP (filtres) lors de leur stockage dans le système de prélèvement et de compléter ainsi l’étude effectuée en 2010.Dans ce cadre, quatre préleveurs haut débit DA-80 ont été mis en œuvre en parallèle sur le site urbain de Lyon 8eme (Air Rhône-Alpes) lors de l’été 2012 : un système de prélèvement de référence pour lequel le ramassage du filtre avait lieu à la fin de la période d’échantillonnage, un préleveur équipé d’un système de réfrigération des échantillons collectés, un système mis en œuvre dans une remorque climatisée et un système non réfrigéré. Quatre périodes de stockage des échantillons ont été évaluées allant de 5 à 20 jours consécutifs avec un suivi de la température interne des préleveurs au niveau du stockage des filtres. Les résultats obtenus ont tout d’abord permis de montrer qu’aucune contamination significative des échantillons n’a été observée pour les blancs de terrain sur de telles périodes de stockage des filtres. Malgré des difficultés techniques rencontrées au cours de cette étude (notamment liées au système de réfrigération du préleveur DA-80 réfrigéré), les résultats ont permis de montrer la stabilité des échantillons de filtres HAP pour une période de 7 jours consécutifs. Ces résultats semblent raisonnablement extrapolables au cas d’un préleveur disposé dans un local climatisé. A partir de 13 jours, les pertes en HAP dans le cas d’un préleveur DA-80 non réfrigéré deviennent conséquentes et peuvent être de l’ordre de 70 % pour le B[a]P et le B[a]A. Compte tenu des résultats obtenus lors de cette étude, le LCSQA recommande donc aux AASQA une période de stockage maximale de 7 jours consécutifs des échantillons collectés au sein des préleveurs réfrigérés ou mis en œuvre en station climatisée. Un suivi continu de la température interne du préleveur au niveau du stockage des échantillons, afin de s’assurer du bon fonctionnement du système de réfrigération des échantillons ou de climatisation de l’enceinte accueillant le préleveur, est toutefois indispensable. Enfin, dans le cas présent, les blancs de terrain doivent subir la même procédure que les échantillons et devront donc être stockés dans le préleveur pour la même durée que les filtres collectés afin de s’assurer qu’aucune contamination n’ait eu lieu.
Mercredi 14 décembre 2011
Rapport
Programme CARA - Bilan des travaux 2010
Le programme CARA, « caractérisation chimique des particules » a été mis en place depuis le début de l'année 2008, en réponse au besoin de compréhension et d'information sur l'origine des épisodes de pollution particulaire mis en évidence par les pics de PM10 du printemps 2007. Créé et géré par le LCSQA, ce programme aujourd’hui pérenne, fonctionne en étroite collaboration avec les AASQA mais également ponctuellement avec des laboratoires universitaires (LGGE, LCME, LSCE, LCPIRA…). Il est basé sur la spéciation chimique d’échantillons de particules atmosphériques prélevées sur filtre en plusieurs points du programme national de surveillance de la qualité de l’air. Il vise notamment à mieux comprendre l’origine des dépassements de valeurs limites de PM et à optimiser la prévision des épisodes de pollution particulaire par le système PREV’AIR. En 2010, les travaux du LCSQA dans le cadre de ce programme ont principalement portés sur : L’éruption du volcan Eyjafjallajökull au cours du mois d’Avril 2010 : cet épisode a été traité en en temps quasi-réel. L’évaluation de son impact sur la qualité de l’air a fait l’objet d’un rapport intermédiaire dès le mois de mai 2010 et d’un rapport final au mois de novembre 2010[1] Episode du 12 janvier 2010 : des dépassements de la valeur limite de 50 µg m-3 n’ont pas été prédits par PREV’AIR. Des filtres ont donc été récupérés et analysés afin de comparer les sorties du modèle avec les mesures et d’identifier la part des PM incorrectement prédite par le modèle. Episode du 24 janvier 2010 : à nouveau, des dépassements de la valeur limite de 50 µg m-3 n’ont pas été prédits par PREV’AIR en Rhône-Alpes. Des filtres ont donc été récupérés et analysés afin de comparer les sorties du modèle avec les mesures et d’identifier la part des PM incorrectement simulée par le modèle. Episodes en Martinique : des filtres ont été prélevés durant des épisodes supposés de poussières sahariennes afin de mieux les qualifier pour évaluer les prévisions disponibles dans PREV’AIR. Spéciation chimique des PM10 et PM2.5 en simultané sur l’ensemble de l’année sur un même site (Site urbain de Rouen). Le premier épisode ayant été décrit précédemment, le présent rapport traite des quatre autres. Une attention particulière est notamment portée aux comparaisons  entre mesures chimiques et sorties de modèles (CHIMERE pour les épisodes 2, 3 et 5, et du modèle MOCAGE pour l’épisode de 4). Les épisodes 2 et 3 sont des épisodes hivernaux marqués pour le premier par une forte augmentation de la part de matière organique dont la source majoritaire est le chauffage au bois, pour le second par une forte augmentation des espèces minérales secondaires. Au cours de ces épisodes, le modèle a correctement reproduit les concentrations en sulfate, nitrate et ammonium alors que les concentrations en matière organique ont largement été sous-estimées par le modèle. Cette sous-estimation explique en grande partie la sous-estimation des concentrations en PM10 pour l’ensemble des sites. Pour améliorer la prise en compte de la source chauffage au bois, l’INERIS travaille à mieux contraindre les émissions de matière organique notamment leur redistribution sur l’année en fonction de la température. L’épisode de Martinique a montré l’incapacité du modèle MOCAGE à quantifier précisément les concentrations en PM10 et en poussières minérales, même si la part de ces dernières sur la masse totale des PM est assez bien estimée. Enfin, les mesures en continu des PM10 et PM2.5 sur le site de Rouen, bien que encore parcellaires, confirment la tendance des modèles de prévision à la sous-estimation de la fraction organique, partiellement compensée par une sur-estimation globale des espèces inorganiques secondaires au sein des particules fines. Les résultats obtenus semblent également  indiquer une sur-estimation de la fraction grossière à Rouen. [1] Rapport LCSQA 2010, O. FAVEZ - A. COLETTE - L. CHIAPPINI Caractérisation chimique des particules : Premiers résultats relatifs à l’étude de l’impact sur la qualité de l’air des émissions particulaires du volcan Eyjafjallajökull au cours du mois d’Avril 2010
Jeudi 5 juillet 2012
Rapport
Observation des niveaux de concentration en pesticides dans l’air ambiant
Initiés en 2001, les premiers travaux méthodologiques de validation pour le prélèvement et l’analyse des pesticides reposaient sur une liste d’une trentaine de molécules. Depuis 2006, le LCSQA/INERIS a effectué annuellement des tests visant à valider l’efficacité de piégeage de nouvelles substances par la réalisation de dopages dynamiques selon la procédure décrite dans la norme NF XPX 43058. Les résultats de ces travaux sont compilés dans cette note.   Suite à la mise en évidence de l’inadaptation de la méthodologie de prélèvement décrite dans la norme NF XPX 43058 pour un certain nombre de substances présentant des caractéristiques de volatilité prononcées, des travaux de développement ont montré que l’utilisation de résine XAD2 permettait une nette amélioration de l’efficacité de piégeage pour la plupart de ces substances, sans toutefois se généraliser à l’ensemble. Depuis 2009, les travaux du LCSQA/INERIS se sont poursuivis dans l’optique de finaliser les tests de validation dans ces conditions de piégeage et en se focalisant principalement sur les substances présentant des résultats négatifs sur mousse PUF, non encore testées, ou particulièrement volatiles. Les résultats de ces travaux sont compilés dans cette note.   Au regard de ces résultats, il apparaît que la mise en œuvre d’un support « sandwich » constitué de mousse PUF et de résine XAD2, sans être infaillible, permet une amélioration sensible de l’efficacité de piégeage de la plupart des substances volatiles, parmi lesquelles on retrouve les plus recherchées par les AASQA (lindane, trifluraline, dichlorvos, chlorpyrifos,…), sans en dégrader celles des substances semi-volatile. Il convient donc d’envisager l’évolution de la méthode de prélèvement normalisée actuelle vers ce nouveau dispositif afin d’en élargir le champ d’application.