-
Appareils de mesures
1 image
114 images dans 12 sous-catégoriesSans mesures, rien de solide dans la connaissance du monde physique. Une mesure est une comparaison d’une grandeur inconnue avec une grandeur connue appelée étalon mais ce n’est que cela. Les mesures restent cantonnées à l’ordre quantitatif. Ce qui relève du jugement de valeur : Le bien, le mal, le beau, le vrai, le faux etc existe mais ne se mesure pas. Les appareils de mesures sont l’expression la plus pure des phénomènes physiques et ils permettent d’en saisir la substance. Il y a autant de types d'appareils de mesures que de phénomènes physiques. Cette galerie s'intéresse en priorité aux phénomènes électriques et d'électromagnétisme. La balance sera néanmoins citée ; elle est le plus ancien appareil de mesure et elle en reste le symbole. Comprendre le fonctionnement des appareils de mesure est donc une bonne porte d’entrée pour comprendre la physique. Par contre les choses du monde technologique ont d’autres finalités que de montrer des phénomènes physiques et de plus, ceux-ci s’y déroulent en interaction les uns avec les autres et de la façon la plus discrète possible. L’étude des phénomènes physiques n’en est rendue que plus complexe : Une balance permet de comprendre d’évidence la notion de masse. Un moteur d’automobile pour tourner ’’rond’’ a besoin de l’inertie d’un volant. L’inertie est une expression du concept de masse qui fait avancer les voitures mais pas notre compréhension intuitive de la masse. L’inertie est une sorte de résistance à l’accélération opposée par une masse. Ce concept est beaucoup plus abstrait et il a fallu attendre Galilée et Newton et se faire aider de concepts mathématiques issus de l’analyse. Dans une automobile, on a des phénomènes de combustion mais leur finalité n’est pas de mesurer le pouvoir calorifique des carburants cela est mesuré à part. On y rencontre des échauffements très divers provenant de combustions, de frottements, de pertes par effet Joule, de pertes magnétiques etc. Seuls ceux mettant en jeu la sécurité du véhicule sont affichés. Presque toute la physique classique et quantique (avec l’électronique) est représentée dans une automobile haut de gamme mais pour en mesurer tous les phénomènes indépendamment, il faut une usine avec des milliers d’ingénieurs. La technologie est une application des lois de la physique, elle ne permet que de la voir en action mais difficilement d’en induire les lois physiques qui l’animent. On n’y pense pas assez, mais c’est la mesure qui permet la standardisation et par suite la production d’objets de haute technologie à des prix abordables. On aime ou on n’aime pas, mais seule la standardisation permet encore aux pièces de s’ajuster avec précision sans frottement ou jeu excessif. C’est aussi la mesure qui permet la fabrication des médicaments, d’avoir des diagnostics médicaux plus surs. Un grand nombre d’actes de commerce résulte de mesures légales. Une pompe à essence, un compteur électrique, un compteur de gaz sont des appareils de mesures,etc.
-
Antarctique
9 images dans 6 sous-catégories
Photographies prises durant mon séjour dans la base Dumont d'Urville dans le district de Terre Adélie en 1980(Continent Antarctique). J’y suis resté pendant un an au titre de volontaire à l’aide technique (Service national. Mon affectation était le laboratoire de géophysique : mesures sytématiques de l’ionosphère au moyen d’un sondeur en ondes décamétriques à impulsions, télécommande de satellites et réception de mesures géophysiques, enregistrement de riomètres pour détecter les éruptions solaires, photographie multi-spectrale du ciel nocturne, base de temps asservie sur des émetteurs V.L.F.. Assistance au biologiste. Prises de vues au moyen d’un appareil reflex 24x36 Asahi Pentax MX. Traitements photographiques sur place.
-
Composants
68 images dans 6 sous-catégories
Les composants sont les briques de base sans lesquelles il n’y aurait pas de télécommunications, d’appareils vidéo etc. Sans composants, l’électronique ne serait qu’une boîte vide. On distingue les composants actifs qui ont les fonctions nobles d’amplifier, de mélanger, de commuter, des composants passifs qui sont néanmoins nécessaires comme réserve d’énergie, absorbeurs d’énergie, filtre, résonateurs. Il faut la tête et les jambes. Dans certains cas, on peut avoir des comportements hybrides : faire jouer un rôle de composant actif à un composant passif et vice-versa. Les matériaux magnétiques qui servent normalement de réservoir d’énergie magnétique dans les composants passifs que sont les selfs peuvent en raison de leur caractéristique de saturation se comporter comme des interrupteurs. C’est le principe des amplificateurs magnétiques. Un transistor à effet de champ peut se comporter comme une résistance que l’on peut ajuster par une tension. Ce principe est utilisé pour réguler en amplitude les oscillateurs à pont de Wien. Un composant actif est un composant qui est capable de multiplier un signal par un coefficient constant. C’est la fonction amplification idéale qui a été la première recherchée. Elle a permis d’améliorer la sensibilité des récepteurs radio, d’écouter sur haut-parleur les faibles signaux que l’on entendait sur casque, et d’augmenter la puissance des émetteurs radio. L’autre fonction très importante est le comportement non-linéaire du type redresseur ou diode qui permet d’enrichir le spectre présenté à l’entrée. C’est le principe des mélangeurs de fréquence qui permettent les transpositions de fréquence et le fonctionnement de tous les récepteurs de radio. Une amplification poussée au maximum produit des écrêtages et un enrichissement du spectre comme avec les diodes et on aboutit au fonctionnement en commutation comme avec un interrupteur ouvert ou fermé ; c’est la base des circuits logiques et de l’informatique. Deux générations entièrement différentes de composants actifs se sont succédées. La première génération est celle des composants à effet thermo-ionique où un flux d’électrons émis par un métal chauffé est modulé par l’effet de champ produit par des électrodes portées à certains potentiels. Ce courant modulé est recueilli par une électrode collectrice portée au potentiel le plus positif appelée plaque et qui est amenée à dissiper l’essentiel de la puissance du tube. Ces composants fonctionnent dans le vide. En augmentant la taille des électrodes et en améliorant le refroidissement par de l’eau, on peut obtenir des tubes de grande puissance avec des dissipations de centaines de kW. Cette génération a eu pour pionniers Edison, Flemming et Lee de Forest. La deuxième génération a été développée aux Etats-Unis pendant la seconde guerre mondiale et a abouti en 1948 à la mise au point aux laboratoires Bell des composants à semi-conducteurs. Tout y repose sur les propriétés de semi-conducteurs du type germanium, silicium, arséniure de gallium où une petite proportion de dopants leur donne un caractère P ou N. Les associations de zones P et N donnent les diodes , transistors, thyristors etc. Dans les transistors bipolaires à jonctions PNP ou NPN, l’effet d’amplification est obtenu en associant des couches de semi-conducteurs de différentes épaisseurs et de différents dopages. Le résultat est qu’avec un petit courant de contrôle entre une source appelée émetteur et une couche de contrôle appelée base on arrive à contrôler un courant 100 fois plus grand passant directement de l’émetteur vers le collecteur. Ces transistors avec une commande par un courant ne se trouvent plus que dans quelques niches d’application spécifiques comme les tensions de service >1000V. La très grande majorité des transistors existant maintenant et surtout dans les composants logiques comme les micro-processeurs et les mémoires sont du type commande en tension par un effet de champ. Ce sont les transistors Metal Oxyde : MOSfet. La grille de commande crée un canal conducteur entre une source et un drain. L’avantage de ce principe est possibilité de miniaturisation, les faibles courants de commande et de fuite et la réduction des tensions d’alimentation. On arrive à ainsi intégrer des dizaines de millions de transistors sur moins d’un cm2. Un composant actif très particulier pourtant ancien n’arrive pas à être supplanté par les composants actifs : ce sont les relais électromécaniques. Ils se composent d’un interrupteur mis en mouvement par un électro-aimant. Ces composants n’ont pas de limitation en tension et en courant pouvant être interrompu tandis que les semi-conducteurs sont limités aux environs de 3000 V en tension et de 3000 A en courant. On peut toujours réaliser des associations série-parallèle pour augmenter les tensions et courants mais la commande synchronisée des composants devient un usine à gaz... Dans le même ordre d’idée, on a les interrupteurs à plasma : un gaz qui devient conducteur par ionisation en avalanche par effet de champ. Ce sont les parafoudres à gaz qui peuvent contrôler des dizaines de milliers d’ampères. Un composant passif est un composant capable de stocker de l’énergie, de la dissiper, ou d’y changer le rapport tension/courant : Si le stockage se fait dans un volume de matériau magnétique : c’est la définition de la self L ; l’énergie stockée est E = ½ x L x I^2 avec I = courant traversant la self. Si le stockage se fait dans un volume de matériau diélectrique : c’est la définition de la capacité C. L’énergie stockée est E = ½ x C x V^2 avec V = tension appliquée. L’intérêt des composants de type self et capacité est leur relation entre tension et courant qui varie en fonction de la fréquence F d’où leur intérêt pour réaliser des filtres en fréquence. Dans une capacité : I = V x C x 2 x 3.14 x F Dans une self : I = V / ( 2 x 3.14 x L x L) De plus la tension et le courant sont déphasés de 90°. La caractéristique remarquable de ces composants dits réactifs est se laisser traverser par des courants sans échauffement à la différence des résistances. Un composant qui dissipe de l’énergie est une résistance : Loi d’Ohm : V = R x I avec V = tension aux bornes de la résistance R parcourue par le courant I. Le composant qui change le rapport entre la tension V et courant I est un transformateur. La puissance P = V x I y est conservée. Il est réalisé avec des bobinages ayant des nombres de spires différents enroulés sur le même circuit magnétique. Le bobinage qui reçoit la puissance est appelé primaire P = Vprimaire X Iprimaire, celui qui restitue la puissance après transformation est appelé secondaire. P = Vsecondaire x Isecondaire . Les relations du transformateur sont P = Vp x Ip = n Vp x Ip/n avec n = rapport de transformation = Vs / Vp = Ip / Is = Nombre de spires du bobinage secondaire / Nombre de spires du bobinage primaire. Et Zp = Vp / Ip et Zs = Vs / Is avec Zs = n^2 x Zp. TOUS les appareils utilisant la tension du secteur 230V alternatif utilisent un ou plusieurs transformateurs pour abaisser cette tension en une plus basse tension comme par exemple 12V pour alimenter un poste de radio à transistors.
-
Documents
6 images
Les documents dans un conservatoire technique sont très importants. Ils peuvent se justifier par eux-mêmes. D’une part, c’est comme la culture : c’est la dernière chose qui reste avant l’oubli définitif et d’autre part ils permettent de maintenir en vie et prolonger ce qui vient du passé. Ils ont même la vertu de prolonger les vieux rêves. Et de montrer que l’objet banal d’aujourd’hui est le vieux rêve réalisé. Un objet technique un peu complexe, éventuellement en panne, peu attrayant du point de vue esthétique sans documentation a peu de chance de survivre. La remise en état sera difficile, le principe de fonctionnement et le mode d’utilisation pourront rester une énigme. Le contexte historique, les personnes qui l’ont conçu fabriqué, utilisé resteront inconnus. On ne pourra que faire des rapprochements. Pour dire l’histoire, il faut non seulement les objets mais aussi tout leur contexte transmis par des documents. Il faut utiliser la méthode des historiens et questionner le plus minutieusement possible les sources sous toutes les formes qu’elles puissent revêtir. Imaginons un disque dur dans plusieurs siècles (remplacé par des mémoires holographiques). On en aurait perdu l’usage. L’électronique aurait toutes chances de ne plus pouvoir fonctionner par elle-même et il n’y aurait plus la machine où pouvoir l’intégrer et mesurer ses performances donc comment les deviner si l’étiquette ou le manuel d’emploi a disparu. Par documents, on entend aussi la culture technique qui a pu produire les objets donc la culture scientifique qui a permis les découvertes fondamentales, les établissements d’enseignement, les livres et encyclopédies de référence. Au sens extensif, les documents comprennent : les publicités, les ‘’réclames’’, les magazines d’actualités qui annoncent les nouveautés, les notices d’emploi, les manuels de maintenance, les plans, les brevets d’invention qui sont disponibles par millions sur Internet et qui sont une mine de savoir à condition de prendre le temps de les étudier, les cours, les livres, les encyclopédies, les documents ‘’multimedia’’. Ne pas oublier que des conservatoires comme celui des Arts et Métiers à Paris ont pour mission de sauvegarder tout cela dans leurs réserves.
-
Electronique aeronautique
12 images
Les besoins sont les mêmes que pour l’électronique maritime. Il a fallu que les aviateurs communiquent et soient guidés. Plus encore que pour d’autres champs d’applications de l'électronique, les besoins militaires ont suscité des innovations majeures comme le radar, et les systèmes de navigation par satellite. On demande maintenant à l’électronique de faire voler des avions naturellement instables grâce à des commandes de vols électriques pilotées par des calculateurs embarqués. L’électronique aéronautique a suscité des progrès dans la recherche de la fiabilité car les composants sont soumis en quelques minutes à des variations de températures importantes pouvant aller de –55°C à +125°C sans compter les vibrations et autres agressions. Il a fallu aussi prendre des précautions vis à vis des surcharges électromagnétiques comme celles apportées par le foudroiement en vol, les champs électromagnétiques de brouillage de la guerre électronique, les champs électromagnétiques des explosions nucléaires à haute altitude etc. Un avion militaire est maintenant un concentré de tout ce qui est électronique haut de gamme en termes de fiabilité, performances; compacité. Mais attention le besoin en fiabilité est tellement important que l’on double voire triple les équipements. Le choix des composants n’est pas orienté vers le plus récent, ni celui qui a le plus de performances brutes mais celui qui est connu depuis longtemps dans beaucoup d’applications. La mise au point de ces équipements est très longue comparée à celle des produits grand-public qui sont mis en vente après des mises au point accélérées pour devancer les concurrents.
-
Electronique marine
10 images
C’est là que l’électronique qui se limitait alors à la radio a acquis ses lettres de noblesse. Ceci s’est passé lors du naufrage du Titanic en 1912 où des centaines de personnes furent sauvées grâce aux appels lancés par le radio du bord et captés par les autres navires sur zone. Les premiers émetteurs utilisaient des arcs, tandis que les premiers récepteurs utilisèrent des technologies qui pour certaines disparurent assez rapidement comme les cohéreurs à limaille d’Edouard Branly, les détecteurs électrolytiques. Les cristaux de galène utilisaient déjà un effet semi-conducteur mais mal compris et instable. On sait que les semi-conducteurs reviendront en force ensuite et ils ont conquis maintenant 95 % des applications de l’électronique. Les tubes électroniques s’adaptant à tous les usages et à toutes les puissances et fréquences tinrent le haut du pavé des années 1910 à 1970. Ce qui est une belle longévité. L’électronique marine -encore le Titanic- a été le premier champ d’expériences pour le radar dans l’application de la détection d’icebergs. Les opérateurs radio que l’on a trouvé sur les navires jusque dans les années 1980 ont maintenant disparu. Pour les liaisons à courte distance, on utilise des émetteurs récepteurs VHF automatiques. Loin des côtes, le système satellite IMMARSAT achemine les communications, tandis que le guidage est assuré par le système satellite GPS ou encore un peu par le système radio LF LORAN. La passerelle des navires est maintenant occupée des quantités d’écrans qui aident des équipages de taille réduite.
-
Informatique
94 images dans 14 sous-catégories
L’informatique peut être vue sous beaucoup d’aspects. Historiquement cela a commencé par l’automatisation des tâches répétitives du raisonnement humain comme les calculs, les classements de données. Cette informatique a débuté à la fin du XIXème siècle avec la mécanographie, les machines à calculer mécaniques et électriques, les règles à calcul. A partir des années 1940, la disponibilité de composants plus rapides que les relais électromécaniques avec d’abord les tubes électroniques puis les transistors, et enfin les circuits intégrés a permis de réaliser des suites de calculs selon des algorithmes de plus en plus complexes. L’apparition des mémoires magnétiques sur bandes magnétiques, à tambour, puis à ferrites, puis des disques durs a permis d’augmenter la taille des programmes et du nombre de données traités simultanément. La diminution du prix, les connexions en réseau ont permis la généralisation de l’informatique de nos jours à pratiquement tous les objets pouvant être en relation directe avec l’homme. La relation de l’homme avec les machines s’est d’abord faite par des cartes et des bandes perforées voire des panneaux d’interrupteurs, puis par des terminaux avec clavier du type machine à écrire. Sont arrivés ensuite les crayons optiques, les souris. La reconnaissance vocale commence à se répandre. On rêve de lire dans les pensées. La plupart des documents sont maintenant sous forme numérique et par définition ils ne peuvent qu’être créés et utilisés que par des objets à base d’informatique. Nous sommes envahis et nous le serons de plus en plus.
-
Radio
24 images dans 7 sous-catégories
C’est la première application de l’électronique et toujours vivante. Des centaines de millions de (radio)téléphones portables sont produits chaque année. Ce fut d’abord la téléphonie sans fil TSF des communications militaires et des navires au début des années 1900. Puis la paix venue, la technologie ayant mûri pendant les hostilités fut disponible pour des applications plus larges. Les initiatives privées dont celles des radioamateurs permirent la développement des transmissions à grande distance grâce aux ondes courtes et n’utilisant que des installations de petite taille. Au début des années 1920, la radio c’étaient des champs d’antennes de 300 m de hauteur, des alternateurs ‘’haute fréquence’’ de 1000 kW ou des arcs chantants avec des étincelles dantesques comme dans le film Metropolis. Aux Etats-Unis jamais en retard d’un nouveau ‘’business’’, on mit vite au point la radio-diffusion commerciale alliant les programmes de distraction, de musique, d’actualités rentabilisés par des ''réclames''. En Europe, les Etats contrôlèrent ce nouveau média tantôt en bien pour assurer leur indépendance par rapport aux puissances d’argent tantôt en mal comme dans les états totalitaires d’Allemagne, d’Italie et d’URSS pour inaugurer le règne de la propagande et du bourrage de crâne. Les modes techniques défilèrent rapidement en fonction des progrès techniques. On commença avec les cristaux de galène instables et une faible audition au casque. L’avènement des tubes électroniques dans les années 1920 fit apparaître les montages à amplification directe avec réaction et super-réaction pour améliorer la sensibilité. Ces appareils étaient chers et de réglages instables. Dans les années 1930, les montages à changement de fréquence : superhétérodyne apportèrent LA solution : une bonne sensibilité, un réglage simplifié dit à commande unique, et un confort d’écoute apporté par le haut-parleur. L’industrialisation permit la réduction des prix et la création du phénomène de masse de la radio-diffusion. Pendant les années 1950 aux Etats-Unis et les années 1960 en Europe, on vécut un développement de masse comparable pour la télévision en noir et blanc puis en couleurs.
-
Telecommunications
50 images dans 4 sous-catégories
Télécommunications : Communiquer à distance. Cette galerie traitera plus particulièrement des dispositifs électroniques et électriques utilisés dans les télécommunications. Deux grandes catégories peuvent être distinguées : Les télécommunications utilisant un milieu de transmission solide comme les fils de cuivre, les fibres optiques. Familièrement ‘’avec un fil à la patte’’. On parlera de réseau fixe. Les télécommunications utilisant un milieu de transmission permettant la mobilité : comme l’air parcouru par les ondes électromagnétiques, les ondes lumineuses, les ondes sonores etc. On y inclut les ondes ultra-sonores permettant la mobilité dans l’eau. On parlera de réseau mobile. Le distinguo peut être nuancé car les ondes électromagnétiques qui sont le symbole de la mobilité sont utilisées dans les réseaux fixes ainsi les ondes lumineuses dans les fibres optiques des réseaux fixes. On a beaucoup utilisé des années 1950 à 1990 les ondes électromagnétiques dans des faisceaux hertziens équipant les réseaux fixes, ces derniers sont remplacés maintenant par des liaisons optiques. Les télécommunications ont été historiquement un gros moteur de l’innovation en électronique en particulier pour les aspects théoriques. N’oublions que c’est une firme de télécommunications : La société Bell téléphones aux Etats-unis et ITT dans le reste du monde qui a été à l’origine de la théorie des circuits électroniques, de la numérisation des signaux par impulsions codées, de l’invention du transistor, des transmissions par relais satellites, des transmissions par fibres optiques, des langages informatiques UNIX et C. Nous vivons depuis les années 1990 une convergence entre les télécommunications et l’informatique, ces deux domaines se fécondant mutuellement. Le réseau Internet avec lequel cette galerie vous parvient en est la meilleure illustration.
-
TV video
20 images dans 5 sous-catégories
Le vieux rêve de l’image animée transportée par delà les distances. Cela a commencé par des dispositifs électromécaniques peu satisfaisants : les disques de Nipkov qui ont fonctionné jusqu’en 1935 . La solution est venue de l’électronique avec le tube analyseur Iconoscope de Vladimir Zworykin (émission) et le tube afficheur de Braun. Les premiers tubes afficheurs étaient des tubes d’oscilloscope avec une déflexion électrostatique qui ne procurait qu’une image de faible diagonale et au prix d’une verrerie d’une grande longueur en raison du faible angle de déflexion. L’augmentation de la diagonale d’écran et la réduction de la longueur ont été obtenus ensuite grâce à la déflexion magnétique. Les angles de déflexion ont pu atteindre 110°. Le passage à la couleur s’est fait avec une multiplicité de normes nationales qui ont défini autant de marchés plus ou moins protégés. Le poste de télévision du début des années 1970 représentait une bonne synthèse de l’électronique de l’époque : · La technique de l’optique électronique avec le tube cathodique et ses corrections statiques et dynamiques. La fabrication d’un tube cathodique c’est de l’industrie lourde avec des dalles de face avant en verre de 2cm d’épaisseur chargé au plomb , tandis que la partie arrière avec un verre plus fin est soudée à la dalle avant. A l’intérieur du tube, il fallait créer et maintenir un vide poussé et installer devant la dalle de face avant un masque perforé de centaines de milliers de trous. Idem pour les pièces en ferrite qui servent à guider les champs magnétiques qui doivent être frittées à haute température puis usinées. · La technique des très hautes tensions jusqu’à 30 kV pour la très haute tension d’alimentation du tube cathodique. · La technique des tubes électroniques de puissance pour la déflexion magnétique. · La technique des circuits intégrés et des transistors pour les étages de radio-fréquences et de fréquence intermédiaire. · Les techniques numériques pour les premières télécommandes à ultra-sons ou à infra-rouge. · Les céramiques piézo-électriques pour les lignes à retard et les télécommandes à ultra-sons. La vidéo c’est la possibilité de capturer et de remontrer les images fugitives. La vidéo a d’abord consister à imiter les techniques du cinéma avec les possibilités des bandes magnétiques. Mais avec une moins bonne qualité largement compensée par la possibilité de relecture instantanée des enregistrements. Plus besoin de chimie délicate et coûteuse. Ce n’est que depuis l’avènement des techniques numériques et de la haute définition que la qualité de la pellicule cinématographique est concurrencée par la bande magnétique ou le disque dur. Le gros problème de l’enregistrement magnétique est la grande passante à réaliser. Ce qui a pu se faire avec l’enregistrement transversal hélicoïdal.
-
Aurore 31 10 2003
4 images
Aurore boréale observée le 31 octobre 2003 en Bretagne Nord en zone rurale. Ainsi qu'en Angleterre Sud, en Belgique et le reste de l'Europe du Nord. L'observation des aurores nécessite l'absence de pollution lumineuse et que la nuit soit sans lune, ni nuages. C'est la raison pour laquelle on reconnait les constellations d'étoiles. Impossibilité d'observation en zone urbaine. Photographies argentiques sur diapositives 24x36 mm avec un temps de pose de 30 s. Appareil photo Asahi Pentax MX monté sur pied. Phénomène avertisseur de l'aurore : tempête magnétique enregistrée par un magnétomètre à vanne de flux de construction locale et basé sur les principes de celui du satellite danois d'étude de la magnétosphère terrestre Oersted lancé en 1999. Ces phénomènes d'aurore pour être observables aux basses latitudes doivent être très violents et ils sont donc rares. D'ordinaire, ils sont confinés aux hautes latitudes polaires du Canada. Ils sont corrélés avec de fortes perturbations magnétiques dans la magnétosphère terrestre résultant de l'arrivée de bouffées de vent solaire composé de particules chargées. Les colorations sont dues à des excitations des différents gaz de la haute atmosphère comme dans les lampes témoin orange à décharges luminescentes dans du néon. La circulation des particules ionisées provoque des fluctuations du champ magnétique terrestre. Le vent solaire est provoqué par des anomalies magnétiques liées à des grosses taches solaires qui expulsent des particules jusqu'à 1000 km/s.
-