Résultats de la recherche
588 résultats correspondent à INERIS
Jeudi 5 juillet 2012
Rapport
Caractérisation Chimique des Particules Veille sur les études de caractérisation des PM
La pollution particulaire constitue aujourd’hui un véritable enjeu à la fois politiquesanitaire et règlementaire. Ainsi, un besoin fort est exprimé par les pouvoirs publics
de se doter d’outils de compréhension des phénomènes et d’aide à la décision afind’appliquer la Directive 2008/50/CE et mettre en oeuvre des plans de réduction des
sources de matière particulaire (PM) en France. C’est pourquoi le programme CARA
a été crée au sein du Laboratoire Central de Surveillance de la Qualité del’Air (LCSQA) et que des campagnes de mesures sont menées sur le territoire poursuivre des traceurs spécifiques de certaines sources, caractériser la pollutionparticulaire dans des zones spécifiques telles les zones rurales, mettre au point desméthodes d’analyse et de traitement des données pour attribuer les sources etcomprendre les phénomènes.
En 2009, un premier rapport s’est attaché à faire l’état des lieux des différentesapproches existantes pour l’attribution des sources de particules ainsi que desdifférentes études de source de PM menées en France au niveau national, régional
et dans le domaine de la recherche, ce travail a révélé la multiplicité et la diversité deces études dont le nombre croissant avait été mis en évidence par le travail de veille
de 2010.Dans la continuité de ce qui a été réalisé en 2009 et 2010, ce travail de veille s’estpoursuivi et a permis de mettre en évidence les principaux éléments suivants :
- Le nombre de sites instrumentés pour l’étude des PM est passé d’une trentaine
en 2009 à une cinquantaine en 2010 et a peu augmenté en 2011.
- Alors qu’en 2010 la plupart des projets régionaux étaient tournés versl’attribution des sources locales et plus particulièrement le chauffage au bois,
la majorité des nouvelles études et projets de recherche initiés en 2011s’intéressent plus à la caractérisation d’une source bien spécifique (trafic,
marine…) qu’à la caractérisation des particules émises en zone source et cesous l’impulsion d’appels à projet bien ciblés tels CORTEA ou PRIMEQUALZAPA.
- En 2010, deux projets se destinaient à des applications épidémiologiques
(« Brumes de sable » en Martinique paragraphe 7.5 et le site d’observation de
la Meuse 8.6) et un à des études de toxicologie (PACTES en région PACA
7.8). En 2011, aucun nouveau projet ne vient renforcer les rangs des étudesépidémiologiques dont le nombre reste faible.
- De même qu’en 2009 et 2010, le nombre d’études régionales est bien plus
important que le nombre d’études menées à l’échelle nationale même si laplupart d’entre elles peuvent apporter des informations extrapolables etgénéralisables à la problématique des PM sa globalité. Néanmoins, lesprogrammes de recherche nationaux sont peu nombreux. Alors que de
multiples études régionales sont venues enrichir celles répertoriées en 2009,aucun nouveau programme de recherche national et interrégionale n’a étéinitié en 2011 alors que les campagnes MEGAPOLI ont eu lieu, que leprogramme FORMES est arrivé à son terme et que la campagne intensiveCHARMEX, prévue depuis 2009, peine à s’organiser.
Cet état de fait semblerait mettre évidence une plus grande facilité à monter desprojets localement, qu’au niveau national en regroupant plusieurs laboratoires etainsi des compétences multiples et complémentaires, et par conséquent la nécessité
de favoriser la mise en place et le financement de ce type de projets par unencadrement national par exemple.Néanmoins, qu’elles soient un outil des pouvoirs publics, aient pour objectif lacaractérisation d’une pollution locale ou la compréhension des phénomènes, toutesces études participent à la connaissance de la pollution particulaire en France et sontou seront à l’origine d’une masse importante de données.
A nouveau le besoin de cohérence nationale pour la mise en oeuvre de tels projetsest clairement identifié afin que les méthodes de mesures soient harmonisées pourune meilleure exploitation des données et que les différents projets soientcoordonnés pour apporter les réponses adaptées à la problématique nationale posée
par la pollution particulaire (réduction des sources, estimation de l’exposition,
application de la Directive).Dans ce contexte et dans la continuité du travail de veille réalisé depuis 2009, une
revue et compilation de l’ensemble de ces données est prévue pour les années àvenir par le LCSQA. La vision globale que peut offrir ce travail pourrait permettre de
proposer des pistes d’orientation.
Jeudi 5 juillet 2012
Rapport
Intercomparaisons des stations de mesures (1/3) : Intercomparaison des moyens mobiles nationaux (LYON 2011)
La directive européenne 2008/50/CE du 21 mai 2008 dédiée à la qualité de l’air appelle au respect de valeurs limites ou valeurs cibles, en leur associant une exigence en termes d’incertitude maximale sur la mesure.
Les associations agréées de surveillance de la qualité de l'air sont tenues de participer aux essais d'intercomparaison destinées aux organismes agréés de surveillance de la qualité de l’air mis en place dans le cadre du Laboratoire Central de Surveillance de la Qualité de l'Air (article 9 de l’arrêté du 21 octobre 2010).
Dans l’objectif de vérifier le respect des exigences de la directive européenne 2008/50/CE, le LCSQA propose annuellement aux AASQA une intercomparaison de moyens mobiles pour les polluants SO2, O3, NO, NO2 et CO à différents niveaux de concentration et tout particulièrement au voisinage des seuils horaires d’information ou d’alerte pour les polluants NOx, O3, SO2, et de la valeur limite sur 8h pour le CO.
Un essai d’intercomparaison de moyens de mesures mobiles a été réalisé en mars 2011 en collaboration avec AIR Rhône-Alpes (Coparly). Il a réuni 7 participants et entités de mesures, constituant un parc de 36 analyseurs de NOx, O3 et SO2. Faute d’analyseurs disponibles, le CO n’a pas été étudié.
Durant cette intercomparaison, le système de dopage permettant une distribution homogène des gaz sur 2 directions a été mis en œuvre, tout en respectant des temps de résidence inférieurs à 5 secondes pour les oxydes d’azote et l’ozone.
Quelques dysfonctionnements ont été identifiés en cours d’exercice sur différents équipements et pour la plupart résolus sur place.
Lors de la circulation de gaz pour étalonnage en aveugle, la majorité des écarts constatés était nettement inférieure à l’incertitude tolérée sur la mesure des analyseurs (4%). On constate que les écarts importants sont peu fréquents pour l’ensemble des polluants. Le décompte des écarts significatifs se limite, en fin de campagne pour un niveau de concentration d’étalonnage habituel, à aucun analyseur SO2, aucun analyseur d’O3, 1 analyseur de NOx en NO et 3 en NO2, sur les 36 analyseurs présents sur le site.
On rappellera que cet exercice de circulation est maintenant mieux encadré ce qui conduit à des répercussions positives sur cette phase préliminaire de l’intercomparaison.
En application de la norme NF ISO 5725-2, les intervalles de confiance de répétabilité et de reproductibilité ont été déterminés pour chaque polluant et différents niveaux. On signalera que l’application des tests statistiques de Cochran et Grubbs a conduit à l’élimination de 2 données quart-horaire sur un total de près de 4000 mesures tous polluants confondus. L’avis d’expert a été sollicité pour écarter 82 données quart-horaires d’un analyseur sur le polluant NO2.
Les intervalles de confiance de reproductibilité (assimilables aux incertitudes de mesures) nettement inférieurs au seuil de 15 % ont été obtenus pour les polluants suivants :
· SO2 (10,0 %)
· O3 (4,4 %)
· NO (6,8 %)
· NO2 (9,3 %).
D’une manière générale, les résultats du traitement statistique suivant la norme NF ISO 13 528 et conduisant aux z-scores sont homogènes et globalement satisfaisants pour tous les participants. Une large majorité des z-scores sont compris entre ±1. En conséquence, aucune action préventive ni corrective n’est à engager.
Les résultats de cette intercomparaison permettent d’évaluer la qualité de mise en œuvre des méthodes de mesures par les AASQA. On notera que l’exercice 2011 vient confirmer l’amélioration des résultats obtenus depuis 2008 et peut s’expliquer par la réalisation des essais sous de bonnes conditions climatiques et d’alimentation électrique, sans oublier la phase préliminaire de circulation de gaz étalon en aveugle qui est incontournable pour la compréhension des écarts de mesures entre analyseurs et représente désormais une part conséquente du temps consacré à l’intercomparaison.
Cet exercice aura également permis la mise en évidence de l’influence, sur l’estimation de l’incertitude de mesure globale, qu’un seul appareil dont les mesures sont décalées par rapport au reste peut avoir sur une population constituée d’une quinzaine d’analyseurs.
L’évolution de ces essais vers un nouveau dispositif de dopage englobant la tête de prélèvement, l’extension à d’autres polluants, l’ajout de tests spécifiques lors des phases de circulation ou de dopage,… seront à inscrire aux propositions des futurs programmes du LCSQA.
La réalisation d’exercices réguliers d’intercomparaison doit permettre une amélioration globale du dispositif de surveillance national et notamment d’enrichir les procédures de maintenance périodique et de transfert. Dans cet objectif, une planification des exercices a été effectuée sur plusieurs années en intégrant les contraintes géographiques afin de permettre à chaque AASQA d’y participer périodiquement .
Jeudi 5 juillet 2012
Rapport
Tests métrologiques sur des analyseurs de mercure gazeux
Cette étude avait pour objectif de procéder à une série de tests en laboratoire et sur site afin de mettre en évidence les avantages/inconvénients de plusieurs analyseurs en provenance de constructeur différents.
Les appareils UT3000 de Mercury Instruments, 915AM et 915 + de Lumex, et 2537 de Tekran ont été retenus pour ces essais.
Pour les essais en laboratoire, les appareils ont été soumis à des tests simplifiés, permettant ainsi de faire ressortir certaines caractéristiques métrologiques :
· Les appareils présentent des caractéristiques de mesure linéaires. On note cependant des écarts entre les réponses des appareils de 15 à 25 %,
· La limite de détection a été estimée à partir de la variation du signal à faible concentration. On relève 0,2 - 0,3 ng/m3 pour les appareils Mercury Instruments ; 0,5 ng/m3 pour l’analyseur Tekran, et 1 ng/m3 pour l’appareil Lumex,
· Les différents analyseurs sont peu sensibles à la dérive estimée sur 15h (0,5 % pour les UT3000 et Lumex 915AM, de 1 % pour le Tekran 2537A),
· Les appareils ne sont pas sensibles au benzène (2 ppb) ni à l’ozone (100, 200, 400 ppb),
· L’influence de l’humidité est de l’ordre de -0,1 à -0,2 ng/% d’humidité pour l’UT3000. Le Lumex 915AM semble insensible aux variations d’humidité pour peu qu’il n’y ait pas condensation sur les miroirs et fenêtres de mesure. L’analyseur Tekran n’a pas pu être soumis à ce test,
· L’influence de la température sur la mesure de mercure de l’UT3000 est de -0,09 ng/°C à 35 °C. Pour le Lumex 915AM, l’influence est de 0,02 ng/°C aux environs de 10 °C et -0,31 ng/°C aux environs de 35 °C. L’analyseur Tekran n’a pas pu être soumis à ce test.
Des essais sur site ont été effectués avec la collaboration de L’ASPA, d’ATMO Picardie et d’AIR PACA[1]. Ils ont consisté à procéder à des mesures comparatives sur des sites de proximité d’industries chlore/soude en activité ou démantelée (cas d’AIR PACA).
Il en ressort globalement que les analyseurs mis en œuvre présentent des profils d’évolution de concentration comparables, avec une détection simultanée des pics de concentration et un retour rapide au niveau de fond. Toutefois, on notera des décalages systématiques entre appareils :
· -20 à -60 % des mesures des appareils UT3000 comparées à celles d’un Tekran 2537,
· de -10 à -15 % entre le Lumex 915AM et le Tekran 2537,
· de -30 % entre un Lumex 915+ et un Tekran 2537,
· de 10 % entre deux Tekran 2537.
On rappellera que les constructeurs et utilisateurs de ce type d’appareils admettent qu’un écart de l’ordre de 10 % entre deux appareils peut être considéré comme normal compte tenu des différences de principes de mesure, de technologie (âge de l’appareil), d’étalonnage.
Malgré le fait que les analyseurs testés répondent positivement aux exigences concernant les caractéristiques métrologiques testées, des écarts de mesures, constatés notamment sur le terrain, ont besoin d’être clarifiés afin d’envisager leur déploiement dans le cadre d’une surveillance en station. On notera également qu’il est préférable de placer ces analyseurs dans un environnement stabilisé en température.
[1] ATMO PACA et AIRFOBEP ont fusionné au 1er janvier 2012 pour donner naissance à AIR PACA.
Jeudi 5 juillet 2012
Rapport
Etude des performances des appareils de mesure: Performances des analyseurs d’ozone utilisés pour la mesure fixe
Une étude menée en 2007 sur des analyseurs d’ozone a permis de mettre en évidence des comportements non linéaires des appareils en fonction des concentrations et des facteurs d’influence (température, tension, dérive, interférents).
Il a été observé que l’influence de la température nécessiterait d’être mieux connue dans la plage des températures usuellement rencontrées dans les stations de mesure et que la dérive à court terme était soumise à l’influence d’un paramètre indéterminé qu’il conviendrait d’identifier (l’humidité relative étant suspectée comme un possible facteur explicatif).
La présente étude réalisée en 2011 a permis d’étudier le comportement d’analyseurs d’ozone sur une gamme de température allant de 18°C à 25°C et d’observer l’effet de l’humidité de l’air ambiant sur le test de la dérive à court terme.
Six analyseurs d’ozone ont été testés : 2 analyseurs TEI génération c, 2 analyseurs TEI génération i, 1 analyseur Environnement SA génération 1M et 1 analyseur API 400E.
Les résultats indiquent une influence de la température qui varie selon le gradient de température et les concentrations appliqués. Il apparait que les analyseurs sont globalement plus sensibles à une légère chute de température (de 22°C à 18°C) qu’à une légère augmentation de température (de 22°C à 25°C). En effet, les analyseurs ne satisfont pas au critère de performance pour 18°C mais ils y répondent à 25°C. Ce phénomène est identique sur cinq des analyseurs testés. Ces résultats devront être présentés et discutés au sein du groupe de normalisation européen WG12 du CEN/TC 264.
L’étude a également mis en évidence que l’alimentation des analyseurs avec un air zéro contrôlé en humidité ne changeait pas la sensibilité des analyseurs à la dérive même si celle-ci varie différemment selon l’humidité de l’air. La dérive observée dans les 2 cas étudiés reste, malgré tout, conforme aux exigences de la réglementation en vigueur tout comme en 2007.
Jeudi 5 juillet 2012
Rapport
Synthèse des travaux du LCSQA sur le formaldéhyde depuis (2005-2010)
Le principe de surveillance de la qualité de l’air intérieur dans les ERP, Etablissements Recevant du Public, a été introduit par le Grenelle de l’Environnement (engagement numéro 152) acté dans le second plan national santé-environnement (PNSE2).
Les effets sanitaires du formaldéhyde, son ubiquité, la diversité de ses sources, en font un polluant d’intérêt majeur pour la surveillance de la qualité de l’air intérieur.Ainsi, des protocoles de mesure du formaldéhyde dans les lieux scolaires et d’accueil de la petite enfance ont été élaborés, au cours de l’année 2008, dans le cadre des travaux du Laboratoire Central de Surveillance de la Qualité de l'Air (LCSQA) et en partenariat avec le Centre Scientifique et Technique du Bâtiment (CSTB).Après les valeurs guide de qualité de l’air intérieur (VGAI) établies par l’AFSSET [2]1, des valeurs repère en air intérieur ont été proposées par le Haut Conseil de Santé Publique [3]. Le formaldéhyde est mesuré dans le cadre de la campagne pilote nationale initiée en septembre 2009 à la demande de Chantal Jouanno, Secrétaire d’État à l’Écologie, afin de définir les modalités de la surveillance obligatoire de la qualité de l’air prévue par le projet de loi dit « Grenelle 2 », à partir de 2012 pour certains établissements recevant du public comme les écoles et les crèches.
Pour répondre à la nécessité de surveiller les concentrations de ce polluant dans l’air intérieur, de nombreuses techniques, commerciales ou en cours de développement, directes ou indirectes, sont disponibles.
Les travaux du LCSQA depuis 2005 ont consisté à faire un état des lieux des techniques existantes, de maintenir une veille métrologique permanente et d’évaluer les performances de ces méthodes.L’ensemble de ces travaux a permis de formuler un certain nombre de recommandations portant sur les niveaux de blanc des tubes de prélèvement à maîtriser impérativement, l’importance de l’emploi de filtres à ozone pour éviter les artefacts négatifs.
Il a également permis de montrer que la méthode passive est adaptée à la surveillance vis-à-vis des valeurs repères long terme, la méthode active pouvant être adaptée à des mesures court terme, bien qu’aucune valeur court terme n’ait été définie à ce jour par le HCSP.Enfin, Les travaux de veille sur les techniques en développement et commercialisées et de test des plus pertinentes confirme que la mise au point d’une technique de mesure robuste, efficace de formaldéhyde en air intérieur demeure un véritable challenge métrologique et analytique malgré l’effort considérable de recherche qui lui est consacré. Aujourd’hui, cette recherche s’oriente plutôt vers le développement de méthodes indicatives, pratiques à mettre en oeuvre, peu encombrantes et peu bruyantes, en bref, plus adaptées à l’air intérieur. Même si de nombreux laboratoires, sociétés et start-up travaillent sur le sujet, le manque de techniques adaptées est toujours une réalité et il n’existe pas à ce jour de méthode validée et éprouvée sur le terrain, adaptée à la surveillance en air intérieur, capable de mesurer le formaldéhyde en continu. Ainsi, cette veille demeure une nécessité et de nouveaux moyens de mesure seront testés en 2012 sur la chambre d’exposition du LCSQA.
Jeudi 5 juillet 2012
Rapport
Synthèse des travaux du LCSQA sur le benzène (2002-2011)
Dans le cadre de la surveillance du benzène en air ambiant imposée depuis 2000 par la Directive européenne fille 2000/69/CE et intégrée depuis mai 2008 dans la Directive 2008/50/CE, le Laboratoire Centrale de la Surveillance de la Qualité de l’Air, LCSQA travaille, en étroite collaboration avec les AASQA à son application au regard du référentiel normatif.Ces travaux ont consisté à évaluer les performances, à assurer la traçabilité et à estimer les incertitudes de mesures des méthodes de mesure du benzène existantes et identifiées par la Directive.Au-delà des études techniques et de l’organisation d’essais de comparaisons inter-laboratoires, les efforts du LCSQA sur la mesure du benzène se sont concrétisés également par le développement de matériaux de référence de benzène sur tubes d’adsorbant, l’organisation de groupes de travail et de réunions d’échanges et la rédaction de guides d’application pratique et technique à destination des AASQA.Rappelons qu’aujourd’hui la surveillance du benzène s’élargit à l’air intérieur. En effet, suite au Grenelle de l’Environnement, le principe de surveillance de la qualité de l’air intérieur dans les ERP, Etablissements Recevant du Public, a été acté (engagement numéro 152). Dans ce contexte, des protocoles de mesure du benzène dans les lieux scolaires et d’accueil de la petite enfance ont été élaborés, au cours de l’année 2008, dans le cadre des travaux du LCSQA et en partenariat avec le Centre Scientifique et Technique du Bâtiment (CSTB) en s’appuyant sur les travaux effectués par le LCSQA depuis 2002 sur la surveillance du benzène en air ambiantAinsi, dans ce contexte de surveillance étendue à l’air intérieur et parce que, même si la méthode de prélèvement et d’analyse du benzène en air ambiant est aujourd’hui développée et applicable, des problèmes sont toujours rencontrés par les AASQA en particulier lors de la mise en oeuvre sur le terrain des préleveurs disponibles à ce jour sur le marché, il est indispensable de poursuivre un travail concerté au sein de la commission de suivi par exemple, afin d’harmoniser les pratiques de mise au point de ces préleveurs, de maintenir une veille sur les techniques émergentes et en particulier sur les méthodes de mesure en continu.
Jeudi 5 juillet 2012
Rapport
Suivi de l'équivalence des appareils de mesure automatique PM10, Campagnes 2011 à Metz Borny (Urbain) et Port-Saint-Louis (Industriel)
Afin d’anticiper la mise en application de la future norme Européenne sur la mesure automatique des PM, et de disposer d’informations permettant d’étoffer l’argumentaire français lors de la rédaction de cette norme, le LCSQA a proposé la vérification de l’équivalence des analyseurs automatiques par inter-comparaison avec la méthode de référence (gravimétrie) sur plusieurs sites du dispositif national, dès 2011. La présente note synthétise les résultats obtenus, au titre de l’année 2011, en collaboration avec Air Lorraine et AIRFOBEP sur le site urbain de Metz Borny et le site industriel de Port Saint Louis.Cette étude, réalisée sur la fraction PM10, confirme le respect du critère de 25% d’incertitude élargie au niveau de la valeur limite pour les deux types d’analyseurs actuellement utilisés en France (TEOM-FDMS et jauge bêta MP101M-RST). Néanmoins :
→ En considérant l’ensemble des résultats obtenus pour le TEOM-FDMS (de type 1405-F), la régression linéaire orthogonale entre la méthode automatique et la mesure de référence indique une pente de 0,91 et une ordonnée à l’origine supérieure à 3 (surestimation des faibles concentrations) qui pourrait inciter à appliquer une fonction de calibration de type y=ax+b aux mesures par TEOM-FDMS. Toutefois, ce post-traitement entrainerait une augmentation de l’incertitude au niveau de la valeur limite et, dans ce cas de figure, le groupe de travail WG15 du C omité Européen de Normalisation (CEN/TC 264) préconise de ne pas modifier les données brutes.
→ Une sous-estimation globale d’environ 10% des concentrations en PM10 mesurées par MP101M-RST est observée sur le site de Metz Borny sur la période d’étude. Cette sous-estimation pourrait être liée, au moins pour partie, à la perte de matière semi-volatile au cours du prélèvement par la MP101M-RST, installée en station contrairement au préleveur de référence.
Pour 2012, il est prévu, à ce jour, de poursuivre la collaboration engagée avec Air Lorraine (réalisation de campagnes supplémentaires à Metz Borny en conditions hivernales et sur un site de proximité automobile) et de diversifier les types de sites étudiés (réalisation de campagnes sur un site rural d’AIRPARIF pendant un an, ainsi qu’à Douai en collaboration avec le LCSQA/EMD et ATMO Nord-Pas-de-Calais et, si possible, sur un site côtier de la façade Atlantique).
Jeudi 26 avril 2012
Rapport
Travaux relatifs à la plateforme nationale de modélisation Prev'Air: Bilan des performances et bilans utilisateurs
Dans ce rapport nous évaluons les performances des modèles mis en œuvre dans la plateforme de prévision et de cartographie de la qualité de l’air, Prev’Air. Cette estimation du comportement des outils est réalisée par des indicateurs statistiques classiques et les observations obtenues en temps quasi réel de la base de données BASTER gérée par l’ADEME et alimentée par les AASQA (associations de surveillance de la qualité de l’air).
En 2010, les performances affichées par les modèles sont assez proches de celles obtenues en 2009 pour ce qui concerne Chimere, la version n’ayant pas évolué. Le modèle a fait preuve d’une aptitude excellente à détecter les épisodes d’ozone et se comporte plutôt bien sur quelques épisodes de particules durant l’année 2010.
L’ENSEMBLE dont une nouvelle version a été testée conserve les meilleurs scores et améliore nettement sa capacité à prévoir les dépassements des seuils réglementaires.
L’analyse a fait l’objet d’évolutions majeures de sa méthodologie permettant d’intégrer plus de points d’observations dans son calcul.
Enfin, une nouvelle prévision aérosol a été testée puisque MOCAGE a rejoint CHIMERE en cours d’année avec une représentation pour le moment incomplète des processus.
Jeudi 26 avril 2012
Rapport
Intercomparaison des stations de mesure : Phase 2 de l'évolution du système de génération de particules
RESUMEDepuis plusieurs années, le LCSQA réalise des exercices d’intercomparaison PM à l’aide d’un générateur de combustion. Suite à l’expérience acquise, le LCSQA a souhaité que le constructeur apporte des modifications pour en améliorer sa fiabilité de fonctionnement d’un point de vue mécanique ainsi que d’obtenir des caractéristiques stables, répétables au niveau des générations de particules.
En parallèle, le LCSQA a procédé également aux tests de générateurs autres que celui historiquement utilisé, disponibles sur le marché, afin d’évaluer leur éventuelle utilisation dans ce type d’exercice.Enfin, une partie prospective est menée pour trouver des méthodes alternatives à celle de la génération par combustion, ayant les mêmes caractéristiques finales de stabilité et de répétabilité.Cela avec comme objectif de pouvoir mener des exercices d’intercomparaison multi instruments, quelque soit leur principe de mesure.
En 2011, l’étude a été réduite à jauger l’alternative proposée par un générateur par combustion du commerce et explorer une méthode prospective de génération de particules par nébulisation.
Le générateur par combustion proposé ne peut être utilisé en l’état comme alternative crédible à notre générateur actuel par manque de fiabilité. Cependant, une veille technique devra être assurée concernant d’éventuels nouveaux générateurs, afin de les tester si nécessaire.
La génération par nébulisation présente des caractéristiques pouvant répondre aux critères exigés pour effectuer le dopage PM et constitue une piste intéressante. Cependant des essais complémentaires devront être menés pour