-
Galvanometres
8 images
Galvanomètre vient du savant italien Galvani qui a découvert les courants électriques. Un galvanomètre sert à mesurer des courants électriques. Si l’appareil est mis en série, on a un ampèremètre. On cherche à avoir la plus faible résistance possible. C’est pourquoi pour mesurer les forts courants, on met un shunt en parallèle de faible résistance et l’ampèremètre n’est traversé que par des courants faibles. Si l’appareil est mis en parallèle (entre deux potentiels différents), il peut justement servir à mesurer cette différence de potentiel V. C’est le fonctionnement en voltmètre. On cherche alors à consommer le moins d’énergie possible et cela revient à augmenter le plus possible la résistance interne et la sensibilité en courant. La tension est V = Rinterne x Imesuré. C’est le savant français électro-physiologiste Arsène d’Arsonval qui a établi le modèle actuel un peu avant 1900. (Cité dans la galerie Documents pour la d’Arsonvalisation :D Arsonvalisation Science et Vie N4 juillet 1913 p10) Le principe physique repose sur la force entre deux champs magnétiques qui exerce un couple contré par un ressort spiral. Un premier champ magnétique fixe est produit par un aimant permanent. Cet aimant magnétise un volume d’air de forme cylindrique grâce à un circuit magnétique en tôles de fer. Un second champ magnétique variable est créé par le passage du courant à mesurer dans un cadre rotatif tournant dans le volume cylindrique pré-magnétisé. La rotation est fonction du courant à mesurer, de l’intensité de la pré-magnétisation, des caractéristiques de la bobine et du couple de rappel exercé par le ressort spiral. En redressant au préalable les courants par une diode, on peut mesurer des signaux alternatifs. Ces appareils ont équipé tous les appareils de mesures électriques et électroniques jusqu’aux années 1975. Date à partir de laquelle ils ont été progressivement remplacés par les affichages digitaux. On les rencontre néanmoins comme afficheurs analogiques dans les compte- tours, compteurs de vitesse des automobiles. Idem pour les instruments de bord des avions. Les équipements professionnels du son en utilisent encore pour apprécier les modulations. Néanmoins pour les mesures de grande précision, rapides, destinées à être enregistrées, ce type d’appareil est devenu obsolète. On peut quand même noter que ce type d’appareil de mesure à l’avantage de ne pas nécessiter de source d’énergie extérieure plus ou moins fiable (batterie, pile, secteur). Donc à garder en secours…
-
Divers
14 images
Documents divers : -Histoire de l’analyse des sons au moyen d’appareils de physique conçus par le physicien Koenig au XIXème siècle. C’est une harmonie d’articles de bazar de l’époque dont des sonnettes électriques, des brûleurs à gaz, des miroirs etc. On retrouve ces appareils dans le laboratoire du professeur de linguistique Henry Higgins imbu de lui-même dans le film ‘’My fair Lady’’. Une sacrée inventivité… Tout cela est remplacé de nos jours par des microphones, des cartes ’’son’’ et des logiciels de traitement numériques sur PC. -Même inventivité mécanique au XIX siècle pour les premières stations météo automatiques, les oscillographes. -Les photographies d’un laboratoire de radio-fréquences des années 1985 montrent la faible pénétration à cette époque des techniques numériques : pas d’écran à cristaux liquides, pas de clavier, pas de PC portable etc. ; c’était déjà le chant du cygne des technologies analogiques.
-
general radio
7 images
Cette société comme son nom l’indique a été pionnière (fondation en 1915) dans les développements des appareils de mesure alors que l’électronique ne se limitait qu’à la radio. Ce fut une société anglo-saxonne très typique avec ses ingénieurs idéalistes, inventifs et conquérants qui propagèrent leurs produits dans le monde entier en se faisant apprécier par une revue maison : ‘’ The General Radio Experimenter’’. C’est la raison d’être du General. Leurs appareils à l’esthétique très bien identifiable ont équipé tous les laboratoires d’électronique jusqu’aux années 1980, époque à laquelle une firme comme Hewlett-Packard les a supplantés. L’utilisation massive des techniques de numérisation et de l’informatique améliorant l’ergonomie et la rapidité des mesures avait rendu obsolète les ponts de mesure manuels où l’opérateur devait manipuler X boutons pour une approche progressive d’un résultat qu’il fallait recopier à la main.
-
Hewlett-Packard
9 images
Société d'électronique créée en 1939 par deux étudiants de l'université de Stanford. Conformément à la légende, ils ont commencé par un générateur B.F. qui fut utilisé pour créer des bruitages pour les studios Walt Disney lors du tournage de Fantasia. Dès les années 1960, cette société innove dans les instruments de mesures programmables et l'informatique. On lui doit le bus de programmation H.P.I.B., le langage H.P.G.L pour les tables traçantes, l'Unix maison HP-UX. H.P. est passée tout près de l'invention de l'ordinateur personnel, il y avait juste une erreur de prix et de clients visés. H.P. dans les années 1970 a développé une série de calculettes scientifiques et financières de poche programmables qui a fait date avec son ergonomie a priori déroutante basée sur la notation polonaise inversée (R.P.N.). La belle époque de H.P. qui construisait de magnifiques appareils de mesure avec des circuits imprimés dorés, facilement réparables, innovants et faciles d'utilisation s'est arrêtée en 1999 avec la séparation des activités instrumentation et informatique. Depuis les activités informatiques d'HP subissent les effets d'une financiarisation excessive au travers de la valse des changements de direction, de licenciements massifs, d'acquisitions etc. Agilent, maintenant Keysight, tente de survivre au milieu de nombreux concurrents notamment asiatiques comme Anritsu, Rigol, européens comme Rhode & Schwarz.
-
Ponts mesures
10 images
Par pont de mesures, on entend des appareils qui sont des sortes de balances servant à mesurer les composants électroniques. Le principe des balances est une comparaison entre un étalon local de la meilleure qualité possible et le composant à mesurer. La qualité des ponts reposera essentiellement sur celle de ses étalons et la physique des composants devra donner le meilleur d’elle-même.. Les mesures portent sur des résistances pures et des réactances de capacité ou d’inductance associées à des pertes résistives. C’est la raison pour laquelle les ponts de réactances mesurent toujours deux paramètres : la réactance de capacité ou de self et la perte résistive. C’est ce qui explique les cadrans et les réglages en double. La plupart des composants sont sensibles à la température. C’est la raison pour laquelle les laboratoires de mesures électroniques doivent être régulés en température. Les résistances métalliques ont un coefficient de température important : par exemple le cuivre à sa résistivité qui varie de 1/250 par degré C. Cependant des alliages de métaux comme le Constantan (Cuivre, Nickel) ont un coefficient 100 fois plus faible. La technique traditionnelle pour réaliser des résistances a été d’enrouler du fil fin résistif sur un mandrin ce qui conduit à réaliser une self en solénoïde qui de plus aura une capacité parasite répartie. Lorsque l’on veut réaliser des résistances pures sans effets parasites et fonctionnant jusqu'à des fréquences élevées, il faut compenser la self-inductance en faisant cheminer le fil en sens inverse et ainsi profiter de la mutuelle inductance qui va annuler la self parasite. Au delà de quelques MHz les capacités parasites deviennent intolérables et il faut utiliser des résistances sans effet de spires donc réduire leur longueur et augmenter la résistivité des matériaux. On utilisera des dépôts d’encres résistives pour les précisions moyennes et des dépôts de métal évaporé sous vide pour les précisions élevées. Pour les capacités, l’électromagnétisme vient à notre secours et certaines géométries de capacités peuvent être calculées avec une grande précision et si l’on se contente de faibles valeurs le diélectrique sera l’air ou le vide. Il est facile avec des secteurs rotatifs de réaliser des capacités variables : voir les illustrations ‘’Capacité étalon variable’’ dans la galerie Appareils de mesures / general radio et ‘’Condensateur variable de récepteur de mesure’’ dans la galerie Composants / Passifs. Lorsque l’on souhaite des capacités de valeurs élevées, il faut déployer des astuces pour augmenter les surfaces en regard, diminuer l’écartement entre les électrodes et augmenter la permittivité du diélectrique. (Voir les détails dans la galerie Composants / Passifs Pour les selfs de faible valeur, on réalise des étalons avec des selfs à air ayant la plus grande stabilité dimensionnelle possible. Pour augmenter leur valeur, on utilise des noyaux ferromagnétiques qui présentent l’inconvénient d’avoir un décrément logarithmique : c’est à dire que la valeur de la self décroît rapidement en début de durée de vie puis de plus en plus lentement ensuite. C’est qui explique la nécessite de la compensation des vieillissements des selfs à noyaux magnétiques. La comparaison des grandeurs électriques se fait dans des montages électriques dits en pont et comme pour les balances l’opérateur qui réalise les mesures cherche un équilibre : ce sera un minimum de courant. Pour les ponts de mesure de résistances fonctionnant en courant continu, une bonne sensibilité est obtenue avec des galvanomètres. Pour les ponts de réactances fonctionnant en alternatif, on peut obtenir des très bonnes sensibilités avec des voltmètres sélectifs. L’optimum étant obtenu par la détection synchrone. Les matériaux utilisés sont des matériaux nobles comme le laiton doré, les assemblages en bois avec tenons et mortaises, la bakélite noire polie etc. Cela concourt à faire rentrer les ponts de mesures dans la catégorie des beaux objets.
-
Rochar Schlumberger
9 images
Rochar Shlumberger est une entreprise française qui a produit des appareils de mesures électroniques des années 1960 jusque dans les années 1990. Ses clients furent surtout les administrations et les entreprises publiques qui étaient un marché protégé : notion qui a presque disparu maintenant sauf pour la défense nationale. Cette entreprise a été supplantée par des entreprises internationales comme Tektronix et Hewlett-Packard qui avaient des moyens financiers, de recherche, industriels et de commercialisation plus importants. Cette entreprise était typique du génie français avec ses forces et ses faiblesses. Ses forces : Inventif (Utiliser un haut parleur pour faire varier une fréquence, il faut y penser) Le goût de la belle ouvrage, le soin de la réalisation Ses faiblesses : La faible surface financière limitant les recherches systématiques et de grande ampleur. L’esprit de routine apporté par le confort des marchés protégés L’esprit individualiste limitant le partage des connaissances et des expériences.
-
Tektronix
30 images
La société Tektronix a été fondée en 1946 par C.Howard Vollum et Melvin J. "Jack" Murdock. L’innovation technique majeure qui a établi leur réputation est la mise au point d’une synchronisation efficace pour les oscilloscopes. Le tube cathodique qui est le composant clé des oscilloscopes avait été inventé par le professeur Strasbourgeois Braun en 1897 et il avait été utilisé dès les années 1930 dans les premiers téléviseurs. Pour observer les signaux en fonction du temps, on avait eu recours dès la fin du XIXième siècle aux oscillographes électromécaniques basés sur le galvanomètre à miroir et qui ont survécu jusqu’aux années 1980 dans les électrocardiographes. Un oscilloscope est dit synchronisé lorsque la vitesse de balayage est un sous-multiple exact de la fréquence du signal à observer. C’est la condition nécessaire pour avoir une image stable et permettre une mesure digne de ce nom. Pendant 35 ans, Tektronix eut une croissance à l’Américaine avec en 1981 un effectif de 24 000 personnes et un site principal occupant un terrain de 1 km2. Les concurrents : Dumont, Fairchild, Cossor, etc furent distancés et disparurent. Dans les années 1980 cependant, la numérisation fut un cap difficile à franchir et des challengers plus avancés dans ce domaine comme Hewlett-Packard, Lecroy, Nicolet lui prirent des parts de marché. Cette entreprise a appliqué le principe de l’oscilloscope dans de nouveaux domaines comme : -Les écrans à mémoire pour les terminaux informatiques. -Le test dynamique des composants avec les traceurs de courbes pour les transistors -l’analyse logique : observer les états logiques voir l’image : ‘’analyseur_logique’’ dans la galerie Rochar_Schlumberger. -l’analyse des signaux vidéo etc Cette entreprise existe toujours et reste en tête dans son marché grâce à une constante course à l’innovation. Un grand nombre d’entrepreneurs innovants y ont d’abord fait une partie de leur carrière. La qualité de fabrication des premiers appareils qui étaient équipés de tubes est telle que l’on pouvait les nettoyer au jet d’eau et 50 ans après ils fonctionnent encore.
-
Compatibilite electromagnetique
3 images
Compatibilité ElectroMagnétique : C.E.M. C’est une branche récente des essais d’environnement. Il s’agit de vérifier que les ondes radio et l’énergie électrique ne sont pas perturbés par le fonctionnement de tel ou tel appareil et que simultanément les ondes radio ambiantes et l’énergie électrique véhiculant toutes sortes de perturbations n’en altèrent pas le bon fonctionnement. Cela revient à vérifier que le pouvoir perturbateur ne dépasse pas des limites fixées dans les normes et qu’il n’y a pas de susceptibilité aux ondes électromagnétiques rayonnées ou conduites par les câbles reliés à l’appareil. On sait que dans les avions ou dans les hôpitaux, on doit arrêter son téléphone portable : ceci pour éviter que les ondes radio émises par le portable ne perturbent les systèmes de navigation ou ne perturbent les appareils qui régulent les fonctions vitales… Les appareils électroniques ont été introduits dans tellement d’applications qu’il faut maintenant des bibliothèques pour décrire les essais de C.E.M.. Il y a des congrès, des revues, des entreprises de services dédiées à cette discipline. Dans la plupart des entreprises qui incorporent dans leurs produits en tout ou partie des dispositifs électroniques, il y a au moins une personne voire un service de l’entreprise qui est dédiée à la C.E.M..(C’est une des activités du gestionnaire de ce site). Les plus gros laboratoires de C.E.M. se trouvent chez les constructeurs automobiles et chez les avionneurs car la sécurité des personnes (et la réputation de la marque) est en jeu. Dans les années 1970, des postes de C.B. dans des camions aux États-unis ont provoqué des anomalies de fonctionnement des systèmes d’A.B.S. qui se sont terminées dans des ravins, des voitures se sont arrêtées en passant trop prés des radars des aéroports, des boites de vitesse automatiques se sont enclenchées en marche arrière dans des ports etc. Ceci s’explique par l’utilisation à cette époque des techniques analogiques très sensibles aux perturbations. Les techniques de numérisation actuelles permettent une certaine défense contre les problèmes de CEM, les appareils s’arrêtent ou ralentissent mais n’ont plus de comportement erroné. La difficulté de la CEM est que les phénomènes affectent un système entier et que les ondes électromagnétiques restent le phénomène subtil par excellence et dont la mesure ne donne pas forcement la cause. La plupart des phénomènes de CEM sont produits par des lois physiques ‘’parasites’’ que l’on peut ignorer en première approche pour concevoir les dispositifs électroniques. Ainsi dans un microprocesseur, ce qui importe pour l’utilisateur, c’est le nombre de MHz, la capacité de la mémoire cache etc. Les phénomènes physiques parasites responsables de la C.E.M. seront la vitesse de commutation, la longueur et la disposition des connexions qui gouvernent les effets d’antenne. Seuls des logiciels de simulation électromagnétique et des mesures pourront permettre de maîtriser ces phénomènes parasites et c’est un travail de longue haleine. Si l’on considère une centrale nucléaire avec des capteurs par centaines, il faudra étudier les effets non-linéaires des capteurs et de l’électronique analogique associée. Là encore, seuls des logiciels de simulation électromagnétique et des mesures pourront permettre de maîtriser ces phénomènes parasites et c’est un travail de longue haleine.
-
Philips/Fluke
3 images
Fluke est une société américaine qui a repris les activités de la branche appareils de mesures de la société européenne d’origine Néerlandaise Philips. Cela lui a permis d’étendre son catalogue. Philips a d’abord commencé par fabriquer des lampes d’éclairage. (Ce fut longtemps inscrit dans sa raison sociale), puis il y eut l’extension vers les lampes radio et l’invention du tube penthode. Philips est devenue une société globale comme beaucoup de sociétés japonaises achetant et vendant ses activités en fonction du contexte. Dans les années 1960 (en 1963), ce fut l’invention de la cassette magnétique : la K7. Dans les années 1980 (en 1983), ce fut l’invention avec Sony du compact Disc numérique. Le CD qui donna lieu au CDRom En 2006 le DVD Blu ray est introduit en partenariat avec Sony. Philips fut un acteur majeur dans le développement des appareils de radiodiffusion et ses modèles furent des symboles de performances techniques et de qualité de réalisation. Un vaste réseau de concessionnaires et d’ateliers de réparations fut mis en place d’où le développement de gammes d'appareils de mesures nécessaires pour la maintenance. Philips a produit une grande variété d’appareils de mesures : -Oscilloscopes -Générateurs BF et HF -Mesures hyperfréquences et spécialement pour l’enseignement -Alimentations -Multimètres -Appareils médicaux dont des appareils à rayons X Les activités de Philips en France ont été réalisées dans les branches suivantes : - Mesures : Philips mesures revendue en 1993 à la société américaine d’appareils de mesures John Fluke. - Composants : Radiotechnique Compelec, Hyperelec, Mazda, Cogeco etc - Pour le grand public : Radiola, Portenseigne. - Pour l’informatique : Philips Data systems. A la fin des années 1960, tous les acteurs de l’électronique voulurent se lancer dans l’informatique pour ne pas laisser IBM monopoliser entièrement ce secteur. L’arme des challengers était la mini-informatique destinée à se répandre partout : des PME aux divisions des grandes entreprises. Ce fut Philips Data Systems qui ne réussit jamais vraiment à percer par manque de suivi et qui disparut petit à petit dans les années 1990 malgré des tentatives dans l’informatique personnelle.
-
Analyse de spectre
13 images
L’analyse de spectre consiste à mesurer les fréquences occupées -le spectre- dans une certaine bande de fréquences. Basiquement, un analyseur de spectre est un récepteur de radio dont la fréquence d’accord varie entre une fréquence minimale et une fréquence maximale. C’est ce qui définit un balayage en fréquence selon l’axe des X (les abscisses). Le niveau mesuré pour chaque fréquence est entré sur un graphique selon l’axe des Y (les ordonnées). On obtient des relevés avec des pointes plus ou moins hautes (les raies) qui sont renouvelés très rapidement. Cela permet de voir l’occupation du spectre par les téléphones portables, de mettre en évidence les sources de parasites, les émetteurs illégaux. Etc. La technologie a beaucoup évolué au cours des années. On a commencé avec des appareils de radio modifiés où le condensateur variable était entraîné par un moteur électrique. Ensuite on a mis au point des commandes électroniques qui ont permis de représenter directement les spectres sur des tubes d’oscilloscopes. Le principe de ces commandes est l’utilisation d’oscillateurs locaux dont la fréquence est commandée : - par une tension : diodes ‘’varicap’’: capacité d’accord variant avec une tension ou - par un courant : noyau magnétique à perméabilité variable avec le champ magnétique appliqué. Depuis les années 1980, on utilise des techniques numériques pour enregistrer les courbes et pour stabiliser les fréquences avec des références à quartz. L’évolution actuelle est d’abandonner le principe du récepteur à balayage de fréquence et de numériser le signal avec la plus haute résolution possible et avec la plus grande fréquence d’échantillonnage possible. C’est l’analyse dite en temps réel, elle utilise le principe de la transformée de Fourier rapide qui est implémentées dans des micro-calculateurs spécialisés et maintenant dans les PC. Les cartes son des PC sont ainsi d’excellents analyseurs de spectre fonctionnant jusqu’à 20 kHz. Les analyseurs de spectre à balayage de fréquence fonctionnent jusqu’à 1000 GHz. Tandis que ceux en temps réel sont limités à 1 GHz. Lorsque l’aspect identification précise des signaux ou même une écoute est requise, on utilise des récepteurs de mesure. Ces appareils ont beaucoup servi lors de la guerre froide pour enregistrer les émissions de propagande et capter les transmissions des espions. C’est la guerre électronique.
-
mesures physiques
7 images
Discipline de la physique appliquée aux mesures de phénomènes de physique. Les différentes disciplines de la physique sont associées pour se mesurer entre elles. La tendance lourde est l'intégration des capteurs dans le silicium de façon à augmenter la compacité et réduire les coûts. C'est le cas des capteurs magnétiques, d'accélération, de rotation, de position, gyromètres, baromètres etc. que l'on trouve dans les . On sait même mesurer des flux de particules ionisantes en exploitant le courant d’obscurité des rétines CCD des appareils photo. Il y a des mesures physiques partout : • Production d’eau potable • Régulation et contrôle anti-pollution des moteurs de voiture • Antiblocage des roues : ABS • Détection d’incendie • Alarmes antivol • Capteurs de température, de pression, de débit etc. • Géophysique ; recherche pétrolière • Dans toutes les industries chimiques, pétrolières, alimentaires, pharmaceutiques • La fabrication des semi-conducteurs • La recherche scientifique : Les télescopes et les accélérateurs de particules sont des énormes appareils de mesure
-
Generateurs
1 image
L'application la plus importante des générateurs est la fonction d’accord de fréquence des émetteurs-récepteurs de radio dont font partie les téléphones portables. La grande majorité des appareils radio fonctionnent selon le principe du super-hétérodyne où un oscillateur local (de battements) détermine leur fréquence de réception et émission. Les qualités les plus importantes des oscillateurs sont la précision de fréquence, la stabilité à court terme (bruit de phase) et la stabilité à long terme. Le montage électronique de référence actuel est un oscillateur libre du type VCO avec accord par diode varicap et circuit oscillant à ligne ou avec self d'accord. La fréquence et la phase de cet oscillateur après des séries de divisions à des taux ajustables sont comparés en permanence à une référence de fréquence à quartz qui lui apporte la stabilité de fréquence. C'est le principe de la boucle à verrouillage de phase universellement employé depuis les années 1970. Par ce procédé, on transpose pour n’importe quelle fréquence du VCO la qualité de stabilité de la référence. Auparavant, on a utilisé des générateurs s'accrochant sur des harmoniques ou des sous-harmoniques d’une référence. La base de temps synchronisée d'un oscilloscope est le type même de l'oscillateur à relaxation synchronisé sur une sous-harmonique. Les oscillateurs se retrouvent dans les domaines mécaniques, acoustiques, moléculaires et électriques. Il faut disposer au départ d’un résonateur : dispositif ayant une fréquence propre d’oscillation la plus stable possible en fonction de la température, du vieillissement, de l’amplitude des oscillations (Isochronisme), et ayant le moins de pertes possible : L’oscillateur mécanique de référence est le pendule libre dont la stabilité relative peut atteindre 10^-8, meilleure que la période de rotation de la terre. Pour les pendules astronomiques, on a su réaliser dans les années 1930 un pendule libre oscillant dans le vide qui perdait 50 % de son amplitude initiale qu’au bout de 3 jours. Coefficient de surtension = Q > 100 000. Q d’un bon quartz > 10^6. L’oscillateur acoustique de référence est le tuyau d’orgue dont la longueur détermine la hauteur du son. L’oscillateur moléculaire de référence est le laser à Hélium-Néon He-Ne avec sa cavité optique. L’oscillateur électrique de référence est le circuit L-C oscillateur. Il faut ensuite fournir de l’énergie pour démarrer l’oscillation et l’entretenir avec une exacte synchronisation entre les impulsions énergétiques d’entretien des oscillations et les oscillations. C’est l’horlogerie et ses pendules qui a permis de mettre en évidence les concepts de l’oscillateur. Pour le pendule, c’est l’échappement mu par un poids qui entretient les oscillations, pour la balançoire c’est la poussette, pour le tuyau d’orgue, c’est la pression d’air apportée par la soufflerie, pour le laser He-Ne c’est l’excitation des molécules par des décharges électrique, pour les oscillateurs L-C ce sont les transistors amplificateurs alimentés par une batterie. Il existe des oscillateurs plus subtils comme les oscillateurs paramétriques où l’entretien des oscillations se fait en faisant varier cycliquement un des paramètres de l’oscillateur. L’enfant qui se dresse debout puis s’assied sur la balançoire en synchronisme avec ses oscillations fait varier le centre de gravité et donc la longueur du pendule qui est le paramètre qui détermine la période ; c’est un oscillateur paramétrique.
Les appareils de mesures sont l’expression la plus pure des phénomènes physiques et ils permettent d’en saisir la substance. Il y a autant de types d'appareils de mesures que de phénomènes physiques. Cette galerie s'intéresse en priorité aux phénomènes électriques et d'électromagnétisme. La balance sera néanmoins citée ; elle est le plus ancien appareil de mesure et elle en reste le symbole.
Comprendre le fonctionnement des appareils de mesure est donc une bonne porte d’entrée pour comprendre la physique.
Par contre les choses du monde technologique ont d’autres finalités que de montrer des phénomènes physiques et de plus, ceux-ci s’y déroulent en interaction les uns avec les autres et de la façon la plus discrète possible. L’étude des phénomènes physiques n’en est rendue que plus complexe :
Une balance permet de comprendre d’évidence la notion de masse. Un moteur d’automobile pour tourner ’’rond’’ a besoin de l’inertie d’un volant. L’inertie est une expression du concept de masse qui fait avancer les voitures mais pas notre compréhension intuitive de la masse. L’inertie est une sorte de résistance à l’accélération opposée par une masse. Ce concept est beaucoup plus abstrait et il a fallu attendre Galilée et Newton et se faire aider de concepts mathématiques issus de l’analyse. Dans une automobile, on a des phénomènes de combustion mais leur finalité n’est pas de mesurer le pouvoir calorifique des carburants cela est mesuré à part. On y rencontre des échauffements très divers provenant de combustions, de frottements, de pertes par effet Joule, de pertes magnétiques etc. Seuls ceux mettant en jeu la sécurité du véhicule sont affichés. Presque toute la physique classique et quantique (avec l’électronique) est représentée dans une automobile haut de gamme mais pour en mesurer tous les phénomènes indépendamment, il faut une usine avec des milliers d’ingénieurs.
La technologie est une application des lois de la physique, elle ne permet que de la voir en action mais difficilement d’en induire les lois physiques qui l’animent.
On n’y pense pas assez, mais c’est la mesure qui permet la standardisation et par suite la production d’objets de haute technologie à des prix abordables. On aime ou on n’aime pas, mais seule la standardisation permet encore aux pièces de s’ajuster avec précision sans frottement ou jeu excessif.
C’est aussi la mesure qui permet la fabrication des médicaments, d’avoir des diagnostics médicaux plus surs.
Un grand nombre d’actes de commerce résulte de mesures légales. Une pompe à essence, un compteur électrique, un compteur de gaz sont des appareils de mesures,etc.