Résumé de la thèse

L'unité de masse, le kilogramme, est la dernière unité de base du système international à être définie par un étalon matériel. Sa définition, datant de 1901, se trouve limitée par la stabilité du matériau formant le prototype international. Des dérives allant jusqu'à 2 μg par an sont d'ailleurs observées au niveau des copies du prototype international en platine iridié. Pour tenter d'améliorer la précision sur la détermination de l'unité de masse, différentes expériences ont débuté afin de relier le kilogramme à une constante fondamentale de la physique. L'un de ces programmes a pour nom « balance du watt » et vise à établir un lien entre des mesures mécaniques et des mesures électriques. Cette voie se présente à l'heure actuelle comme l'expérience la plus prometteuse. Dans le dispositif expérimental français, l'utilisation de l'alliage de Pt-Ir n'est pas envisageable comme étalon de masse de référence. Les recherches se sont alors orientées vers des alliages en or platiné et autres métaux précieux.

En parallèle la dissémination de l'unité de masse aux multiples et sous multiples du kilogramme de 1 g à 10 kg s'effectue généralement à l'aide d'étalons en acier inoxydable. Si la stabilité de la masse du prototype international n'est pas assurée, ce phénomène est encore plus accentué au niveau de ces étalons secondaires. Pour profiter de l'amélioration attendue de la conservation de l'unité de masse, il faut améliorer la stabilité de ces étalons. La caractérisation de nouveaux alliages métalliques pour réaliser des étalons et l'étude de leur stabilité devient donc nécessaire.

Texte intégral

Consultez l'intégralité de la thèse

https://pastel.archives-ouvertes.fr/tel-00159327/document

Résumé de la thèse

Les laboratoires de métrologie acoustique utilisent en général des microphones de haute qualité comme étalon de référence pour leurs appareils de mesures acoustiques. Ces microphones, appelés étalons de laboratoire, doivent eux-même être étalonnés avec une grande précision. Depuis plusieurs décennies, la méthode usuelle (normalisée) pour étalonner ces microphones, c'est-à-dire pour déterminer leur efficacité en pression, est la méthode de réciprocité. Cette méthode nécessite l'usage de deux microphones couplés acoustiquement par une cavité close généralement de forme cylindrique, fermée par des parois latérales rigides et aux extrémités par les membranes des microphones, l'un étant utilisé en émetteur, l'autre en récepteur. Le produit des efficacités des microphones est déduit de mesures électriques et du calcul analytique de l'admittance acoustique de transfert du système.

Les équipements et les techniques de mesures actuels permettent d'atteindre une précision dans les mesures électriques de l'ordre du centième de décibel. Une précision du même ordre de grandeur est alors recherchée dans le calcul de l'admittance acoustique de transfert, qui repose sur la modélisation du champ acoustique dans la cavité de couplage. Il est donc nécessaire que cette modélisation soit aussi complète et précise que possible. Les modèles actuellement en usage ne paraissent pas aujourd'hui, de ce point de vue, présenter toutes les « garanties » nécessaires pour accéder à un étalonnage dont la précision est compatible avec la précision de la mesure électrique. Ainsi, l'objet de cette étude est d'établir des modèles analytiques plus complets pour le champ de pression dans la cavité de couplage, prenant en compte les effets de couches limites visqueuses et thermiques et la structure fine de la répartition spatiale du champ acoustique.

Au-delà des résultats qui doivent conduire à la révision des normes actuellement en vigueur, les résultats obtenus portent l'espoir de mener à une méthode de mesure fine des caractéristiques d'entrée des petits composants acoustique qui fait défaut à l'heure actuelle et de mener à terme à des ouvertures sur la métrologie des micro-composants acoustiques (attendus dans le cadre de la caractérisation des oreilles artificielles et de la miniaturisation des capteurs).

Enfin, des développements futurs portant sur de nouvelles modélisations de capteurs microphoniques, qui prendraient en compte les effets de déformées réalistes des membranes et corrélativement la répartition spatiale des mouvements acoustiques dans les micro-cavités et micro-conduits qui constituent ces capteurs, permettront aux modèles proposés de donner leur « pleine mesure » en terme de finesse de mesure et de caractérisations de capteurs et mini-composants acoustiques.

Texte intégral

Résumé de la thèse

Dans le Système international d’unités (SI), le kilogramme est l’unité de masse, qui est définie comme étant égale à la masse du prototype international du kilogramme en platine iridié. Le contrôle des étalons de masse est essentiel vis-à-vis, entre autres, des industries qui doivent garantir une production calibrée. Ce travail est consacré à l’étude en champ proche et en champ lointain des surfaces des étalons de masse métalliques, en lien avec différents instituts, laboratoires nationaux et internationaux de la métrologie. Nous avons mené deux types de mesures : mesures de type shear force pour déterminer la topographie locale de la surface et mesures en champ proche optique pour approfondir l’analyse de la surface par mesure optique localisée à haute résolution. Une analyse de l’évolution de la topographie des surfaces des étalons de masse et de la structure du champ proche optique diffracté par les défauts de ces surfaces a été menée au cours de ce travail de thèse.

Texte intégral

Consultez l'intégralité de la thèse

https://tel.archives-ouvertes.fr/tel-00010183/document

Résumé de la thèse

L’augmentation de l’incertitude tout au long de l’échelle de viscosité étant le principal inconvénient de la viscosimétrie capillaire, un viscosimètre absolu à chute de bille a été développé, qui permet de couvrir une large gamme de viscosité tout en gardant une faible incertitude. La mesure de viscosité repose alors sur la mesure de la vitesse limite de chute de la bille. Un banc expérimental a été développé afin d’atteindre une incertitude relative de l’ordre de 10-3. Il permet d'observer la trajectoire de la bille à l’intérieur d’un tube cylindrique rempli du liquide étudié et d’obtenir l’évolution de la vitesse. La caractérisation métrologique de ce banc expérimental est présentée en utilisant tout d’abord la loi de propagation des incertitudes et ensuite la simulation numérique de Monte-Carlo. Enfin, les mesures de viscosité et les incertitudes obtenues avec le viscosimètre à chute de bille sont confrontées à celles obtenues avec un viscosimètre capillaire.

Texte intégral

Consultez l'intégralité de la thèse

https://tel.archives-ouvertes.fr/tel-00009440/document

Résumé de la thèse

Le kilogramme est la seule unité de base du système international encore définie par un artefact matériel. Le Laboratoire national de métrologie et d’essais (LNE) développe, dans le cadre d’un projet fédéré, une expérience nommée balance du watt dont le but est de contribuer à la redéfinition de l’unité de masse.

Les travaux réalisés, au cours de cette thèse, ont pour but de contrôler, sur une plage de l’ordre de quelques centimètres, la vitesse de déplacement et le positionnement d’une bobine à l’aide d’un dispositif constitué d’un interféromètre hétérodyne associé à une platine de translation et à un actionneur piézo-électrique. Une source laser a été développée afin de mieux adapter la méthode aux contraintes exigées par la balance du watt. La méthode de contrôle de vitesse permet une instabilité résiduelle relative de 2,4•10–9 pour un simple miroir pesant quelques grammes et de 4,2·10–7 pour une masse de 1 200 g, ceci sur 100 s de temps d’intégration. La méthode développée a par ailleurs démontrée son utilité dans d’autres applications en nanométrologie.

Résumé de la thèse

Des éléments de la théorie vectorielle de la diffusion des rayonnements électromagnétiques ont été développés dans ce travail, en vue d’une application à la caractérisation de la rugosité de surfaces métalliques. Cette théorie relie, via un facteur « optique » Wii(θ), la répartition angulaire de l’intensité I(θ) du rayonnement diffusé par une surface à sa densité spectrale de puissance (DSP). Une première étude a montré qu’en mode « rocking curve », le facteur Wii(θ) (calculé à la longueur d’onde de travail λ = 0,154 0 nm) reproduisait fidèlement l’intensité des deux maxima (pics de Yoneda) de l’indicatrice de diffusion. Un écart angulaire entre les positions théoriques et expérimentales de ces pics a néanmoins été observé. Il a été corrélé à une diminution de la densité électronique des couches superficielles en présence de rugosité, par rapport à un matériau massif (cas d’une surface idéale). Sur la base d’une hypothèse de transition graduelle de l’indice (de l’air vers le matériau) vérifiée expérimentalement, il a été proposé d’introduire la notion d’indice effectif ne, obtenu à partir d’une moyenne pondérée des indices de l’air et du matériau massif (théorique), pour mieux approcher les mesures expérimentales. Ce travail a également permis de mettre en évidence une importante sous estimation de la rugosité δRMS déterminée à partir de la seule composante diffuse. Une procédure de correction autosuffisante a été mise au point, sur la base des mesures de réflexions spéculaire (réflectivité).

Les DSP X (λ = 0,154 0 nm) corrigées, obtenues pour quatre matériaux de différentes nature et rugosité, ont ensuite été comparées aux DSP optiques (λ = 633 nm) sur le domaine de fréquences spatiales commun. Les résultats ont montré un bon accord, notamment pour les échantillons les moins rugueux.

Enfin, la diffusion du rayonnement X à été appliquée à l’étude de surfaces en platine iridié (matériau de référence pour la métrologie des masses), réalisées par différentes techniques de polissage. Cette étude fait état de la complexité du polissage et de la nécessité de son optimisation pour obtenir un état de surface satisfaisant et reproductible. Il a également été démontré que des procédures de polissage différentes peuvent donner lieu à des écarts entre les états de surface aussi bien au niveau des quelques couches superficielles que des parties plus en profondeur. L’apport de la réflectométrie X s’avère alors très important puisqu’il permet en combinant trois modes d’analyse, de discriminer les effets de surface et de « volume ».

Résumé de la thèse

En vue de contribuer à une possible redéfinition du Système international d’unités, les laboratoires nationaux de métrologie français développent une expérience de balance du watt.

Cette expérience, dont le principe a été proposé en 1976 par B. Kibble (NPL), permet de relier la masse m d’un étalon (raccordé au prototype international du kilogramme) à la constante de Planck h. Pour permettre, à terme, de redéfinir l’unité de masse en fixant la valeur de cette constante, la mesure du rapport h/m doit être réalisée avec une incertitude relative de l’ordre de 10−8.

La mise en œuvre de l’expérience exige de construire des systèmes mécaniques, un circuit magnétique et un système de translation notamment.

Pour l’expérience du LNE, les conceptions ont été choisies comme il suit :

–       un circuit magnétique à aimants permanents délivrant un champ d’induction axisymétrique, d’intensité égale à un tesla environ, et dont l’amplitude des variations doit être limitée à 10−4 en valeur relative dans la partie utile de l’entrefer ;

–       un système de translation à liaisons flexibles contraignant une bobine à se déplacer dans l’entrefer du circuit selon une translation rectiligne et verticale d’une longueur de 80 mm.

Les effets, sur le résultat de l’expérience, des écarts de réalisation du circuit magnétique et du système de translation par rapport à leur définition nominale effets  sont étudiés. Les écarts admissibles en sont déduits, tenant compte des compromis incontournables dans toute réalisation et nous présentons la conception, la réalisation et la caractérisation des deux systèmes mis en œuvre.

Texte intégral

Consultez l'intégralité de la thèse

https://tel.archives-ouvertes.fr/tel-00369283/document

Résumé de la thèse

L'étalonnage absolu des microphones de mesure en acoustique repose sur l'obtention d'étalons primaires, eux-mêmes étalonnés suivant un protocole sophistiqué (méthode de réciprocité) et conformément aux normes en vigueur ; ces normes ont fait l'objet d'améliorations au cours des dernières décennies mais laissent toujours des zones d'ombre. Parallèlement, la caractérisation appropriée des oreilles artificielles, nécessaire au réglage des audiomètres et par suite à leur étalonnage, fait aujourd'hui défaut.

Ce propos met en cause l’incertitude d'étalonnage des étalons de mesure de pressions acoustiques et l'insuffisance des réglages d'appareils médicaux largement utilisés. C'est ainsi que les thèmes abordés font appel ici à la méthode de la réciprocité en cavité et en champ libre.

Dans la première partie du travail, l'objectif recherché est d'adapter et d'améliorer la méthode de réciprocité en cavité. L'adaptation de cette méthode conduit à une technique de mesure d'impédances d'entrée de petits éléments acoustiques, tels que des tubes, fentes, cavités (utilisés dans l'oreille artificielle). L'amélioration des incertitudes de mesure des efficacités recherchée pour les hautes fréquences a conduit à proposer une modélisation améliorée d'un microphone ainsi que du dispositif d'étalonnage dans sa globalité de manière à étudier l'influence des modes radiaux dans la cavité sur les résultats de l'étalonnage.

La deuxième partie de ce travail trouve son origine dans une comparaison clé à l'échelle internationale portant sur les techniques d'étalonnage des microphones en champ libre. Cette comparaison clé a nécessité une refonte complète du dispositif expérimental du LNE, des techniques d'acquisitions et des méthodes de filtrage des perturbations liées aux faibles niveaux acoustiques mis en jeu. Ce travail a conduit à entreprendre des études plus approfondies sur les plans analytique et expérimental du concept de centre acoustique d'un microphone.

Certains résultats obtenus posent les bases des travaux futurs qui devraient permettre de poursuivre la modélisation pour réduire les incertitudes mais également pour prévoir la mise en oeuvre des méthodes adaptées à la métrologie des capteurs du futur qui seront fabriqués par des procédés relevant des microtechnologies.

Texte intégral

Résumé de la thèse

La première partie de la thèse regroupe l'ensemble des travaux relatifs à la métrologie dimensionnelle à l'échelle du nanomètre. Après avoir donné une vue générale de l'instrumentation interférométrique utilisée dans ce domaine et montré leurs limites, la réalisation d'un interféromètre ellipsométrique et d'un lambdamètre optique est présentée. Les résultats expérimentaux ont montré la possibilité d'atteindre une résolution de 10 pm sur une étendue de mesures macroscopique pour l’interféromètre et une exactitude de 10–6 en valeur relative sur la longueur d’onde avec notre lambdamètre pour un déplacement du miroir mobile de seulement 4 μm au lieu de 150 mm pour le schéma conventionnel.

La seconde partie de la thèse regroupe l'ensemble des travaux relatifs à la métrologie des masses. Après une description du projet national de la balance du watt dont l'objectif vise une redéfinition du kilogramme, les travaux portant sur la réalisation d'un capteur polarimétrique sensible à la direction radiale du champ magnétique de l'aimant permanent composant la balance du watt du Laboratoire national de métrologie et d’essais et d’un inclinomètre interférométrique pour la matérialisation de l’axe gravitationnel terrestre, sont décrits.

Résumé de la thèse

Le règlement européen n° 842/2006 ayant pour objectif la réduction des gaz à effet de serre vise à une politique de contrôle de l'étanchéité des équipements contenant plus de 3 kg de fluide. En France, l'arrêté du 7 mai 2007 spécifie que les contrôles doivent être effectués par un détecteur de fuite manuel d'une sensibilité de 5 g/an ou un contrôleur d'ambiance avec une sensibilité de 10 μmol/mol. Ces sensibilités doivent être mesurées suivant la norme EN 14624. Cette norme préconise l'utilisation de fuites calibrées de R-134a dont le débit varie de 1 g/an à 50 g/an. Il est indispensable de disposer de fuites étalons permettant de vérifier les mesures effectuées. Comme une chaîne de mesure des débits de fuites hélium est déjà mise en place, une analyse des méthodes de mesures utilisées a mis en évidence la nécessité de développer une nouvelle méthode pour la mesure des débits de fuites de fluides frigorigènes. Pour répondre au besoin, le Centre d'Energétique et Procédés a développé une méthode de mesure basée sur l'absorption infrarouge. Elle consiste à mesurer la variation dans le temps de la concentration du gaz émis par une fuite, accumulée dans un volume fermé, dit volume d'accumulation. Basée sur cette méthode, une référence nationale destinée à définir des débits de fuites de fluides frigorigènes, se situant entre 1 g/an et 50 g/an, a été conçue par le LNE et le CEP, avec le soutien de l'ADEME. Les phases de la conception sont présentées. En particulier, comme la méthode repose essentiellement sur la mesure d'une variation de concentration dans un volume à mesurer, le choix de la méthode de mesure de la variation de concentration et le choix de la méthode de mesure du volume d'accumulation ont été définis comme les étapes clés de la conception et sont argumentés. Une fois l'étude de conception achevée, la référence nationale a été réalisée et qualifiée. Le débit de fuite est calculé à partir de grandeurs différentes, à savoir la concentration, la pression, la température et le volume d'accumulation. La chaîne de mesure de ces grandeurs a donc été analysée afin d'estimer les modes opératoires et les incertitudes associées à l'estimation de chacune des grandeurs. Le budget d'incertitude du débit d'une fuite calibrée a finalement été établi. Une fois la traçabilité des débits de fuites frigorigènes assurée, le seuil de sensibilité des détecteurs frigorigènes peut être mesuré suivant les normes prévues telles que la norme européenne EN 14624 ou d'autres normes comme la norme SAE ou le projet de norme ASHRAE. Des études théoriques, phénoménologiques et expérimentales ont permis d'identifier les paramètres d'influence de la mesure du seuil de sensibilité et de conclure sur les précautions à prendre lors des essais. Enfin, une extension de l'étude a mis en évidence quelques précautions à prendre lors de détection sur site avec des détecteurs qualifiés.

Texte intégral