Imprimer le document

Histoire de l'électricité
Sommaire
   Introduction
   Les débuts de l'électrostatique
   Deux sortes d'électricité
   De la pile au courant
   Les effets magnétiques de l'électricité
   Lois des circuits
   L'unification de l'électricité et du magnétisme
   L'électricité industrielle
   Les porteurs de l'électricité

 

Introduction
L’électricité est tellement présente dans notre vie quotidienne que nous avons souvent tendance à la considérer comme une nécessité d’ordre naturel, au même titre que l’eau courante. Que les sources de sa production menacent de se tarir et c’est toute la société moderne qui vacille. Pourtant, au regard de l’Histoire, l’utilisation des phénomènes électriques est relativement récente. Étudiée dès la fin du XVIe siècle, l’électricité (au sens de l’ensemble des phénomènes électriques observables) est longtemps restée, pour le grand public, un objet de curiosité et d’amusement, avant que les progrès accomplis au cours du siècle dernier ne démontrent son utilité pratique. La prodigieuse pénétration qu’elle a opérée depuis dans toutes les branches de l’activité humaine, notamment par le biais de l’électronique, n’est pas étrangère à l’efficience que nos contemporains attribuent à la science.

revenir au sommaire


Les débuts de l'électricité
Jusqu'à la fin du XVIIIe siècle, le terme d’électricité fut réservé aux phénomènes d’attraction ou de répulsion entre corps préalablement frottés. Ce domaine est aujourd'hui connu sous le nom d'électrostatique. L’attraction de corps légers par des objets électrisés par friction était connue depuis l’Antiquité, mais son étude n'a véritablement débuté qu’à la fin du XVIe siècle, avec les travaux du savant anglais William Gilbert, auteur du premier traité connu touchant à ces questions, De Magnete, paru en 1600. C'est à lui que l’on doit l’invention de l'adjectif électrique pour désigner ces mystérieuses propriétés d’attraction (électrique vient du grec elektron, qui signifie ambre, l’un des premiers corps à avoir été électrisés par friction). Les expériences de Gilbert furent reprises par un allemand, Otto von Guericke, au milieu du XVIe siècle. Afin d’améliorer la qualité des observations, celui-ci inventa la première machine à faire le vide (l’attraction de corps électrisés se manifeste d’autant mieux que l’air ne fait pas obstacle à leur rapprochement), ainsi que la première machine électrostatique, en l’occurrence un gros globe de soufre que l’expérimentateur électrisait en le frottant de ses mains. Ces instruments rudimentaires lui permirent de découvrir à la fois le phénomène de conduction électrique, c’est-à-dire la capacité de ce mystérieux pouvoir électrique à se transmettre le long de certains corps, et le pouvoir des pointes, c’est-à-dire la forte tendance des objets pointus à manifester des propriétés électriques. Ce dernier effet ne fut mis à profit qu’un siècle plus tard par Benjamin Franklin : après avoir démontré, en 1752, que la foudre est un phénomène de nature électrique, une sorte d’étincelle géante, il tira parti du pouvoir des pointes pour imaginer le paratonnerre, simple pointe métallique reliée à la terre et destinée à protéger le bâtiment qu’elle surplombe en attirant sur elle la décharge venue du ciel. Au XVIIIe siècle, les travaux expérimentaux amorcés au siècle précédent s'accélérèrent. D’autres effets furent bientôt mis en évidence, de nouveaux instruments virent le jour, en même temps que certaines distinctions conceptuelles s’opéraient, premiers pas vers une formalisation des phénomènes électrostatiques. On doit à l’Anglais Stephen Gray la découverte de l’électrisation par influence, c’est-à-dire la possibilité d’électriser un corps à distance, sans contact direct, ainsi que la distinction entre corps conducteurs, qui transmettent l’électricité, et corps isolants, qui inhibent cette transmission. Une autre distinction importante est le fait du savant français Charles Du Fay : en 1733, il découvrit qu’il existait deux sortes d’" électricités " (nous dirions aujourd’hui charges électriques), l’une obtenue en frottant du verre, qu’il appela électricité vitreuse, l’autre obtenue en frottant des corps résineux, qu’il appela électricité résineuse. Deux corps porteurs d’" électricités " de même nature se repoussent, et deux corps porteurs d’" électricités " différentes s’attirent. Pour cette raison, Benjamin Franklin les rebaptisa quelques années après électricités positive et négative. Il fut le premier à fournir l’explication du phénomène d’électrisation en s’appuyant à la fois sur l’existence des deux types de charges électriques et sur un principe fondamental, mis en évidence quelques années auparavant par le physicien anglais William Watson, la conservation globale de la charge électrique (voir CHARGE) : l’électrisation résultait de la séparation des charges positives et négatives contenues dans un corps globalement neutre.

revenir au sommaire


Deux sortes d'électricité
L’étape suivante consista à caractériser la force électrique exercée par un porteur de charge sur un autre. Les physiciens n’eurent pas à aller chercher bien loin : ils s’inspirèrent de la loi de GRAVITATION de Newton énoncée un siècle auparavant. Ils proposèrent ainsi une force proportionnelle à la charge électrique de chacun des porteurs en interaction, et inversement proportionnelle au carré de la distance qui les sépare. Cette loi fut vérifiée expérimentalement en 1785 par le Français Charles Augustin de Coulomb (l’unité internationale de charge électrique porte son nom). Les dernières briques de la théorie des interactions entre charges électriques immobiles furent posées dans les années qui suivirent. Compte tenu de la forte similitude entre la loi de Coulomb et la loi de gravitation, le formalisme et les concepts de la MÉCANIQUE furent transportés dans le domaine de l’électrostatique. C’est à cette occasion que la notion de POTENTIEL, introduite en 1772 par Joseph Louis de Lagrange pour la gravitation, fut reprise, en 1784, par Pierre Simon de Laplace pour décrire l’état électrique engendré en un point quelconque de l’espace par un ensemble de charges électriques.

revenir au sommaire


De la pile au courant
C’est au moment où la théorie électrostatique parvenait à maturité qu’une onde de choc vint l’ébranler. La révolution venait de là où on l’attendait le moins : des travaux d’un anatomiste italien, Luigi Galvani, sur les muscles de cuisses de grenouilles disséquées. En 1791, il découvrit que ces muscles manifestaient de curieuses propriétés électriques dès qu’on les mettait en contact avec deux métaux de natures différentes. Pour interpréter ces phénomènes, il fit un rapprochement avec un dispositif mis au point quelques années auparavant par l’Allemand Ewald Georg von Kleist : la bouteille de Leyde. Il s’agissait d’une simple bouteille dont la paroi interne était recouverte d’une feuille métallique préalablement chargée électriquement, qui se déchargeait brusquement dès qu’on la mettait en contact avec un conducteur (elle constitue à ce titre le premier condensateur électrique). Pour Galvani, la grenouille constituait une bouteille de Leyde naturelle, que le contact avec deux métaux conducteurs suffisait à décharger de sa mystérieuse électricité animale. Sceptique, le physicien italien Alessandro Volta reprit les expériences de son compatriote et montra que la grenouille ne jouait qu’un rôle secondaire : l’effet électrique résultait en fait de la mise en contact de deux métaux de nature différente par l’intermédiaire d’un tissu humide. S’inspirant de cette conclusion, il mit au point en 1800 la première pile électrique, constituée d’un empilement (d’où son nom) de disques de cuivre et de zinc, entre lesquels s’intercalaient des tissus imbibés d’acide. Cette invention révolutionna l’électricité : contrairement aux machines électrostatiques qu’on devait charger par frottement et qui se déchargeaient en un temps très bref, la pile de Volta produisait spontanément, par réaction chimique, une sorte de décharge continue que le physicien français André Marie Ampère baptisa en 1820 courant électrique. Un courant électrique n’est rien d’autre qu’un déplacement global de charges au sein d’un conducteur. En hommage à Ampère, l’unité internationale de l’intensité du courant électrique, c’est-à-dire de la quantité de charges qui traverse une section de conducteur par unité de temps, porte le nom d’ampère. En hommage à Volta, la tension, c’est-à-dire la grandeur qu’il introduisit pour mesurer la capacité d’une pile à produire un courant, s’exprime en volts. Grâce à cet allongement considérable du temps de décharge (accru par la réalisation de piles de plus en plus performantes), il devint possible d’observer les effets d’un long passage de courant dans une multitude de corps. On ne tarda pas à s’apercevoir qu’en plongeant dans l’eau, ou plus généralement dans une solution aqueuse, deux tiges solides reliées aux bornes d’une pile (deux électrodes, suivant la terminologie introduite par Michael Faraday quelques années plus tard), on provoquait la décomposition de la solution en ses constituants élémentaires, c'est-à-dire l’électrolyse. Cette technique permit au chimiste anglais Humphry Davy de découvrir, au début du XIXe siècle, une multitude d’éléments jusque-là inconnus : le sodium, le potassium, le calcium, le magnésium, le baryum et le strontium. En substituant à la solution aqueuse un gaz enfermé dans une enceinte en verre, on réalisa les premières décharges électriques durables, qui allaient servir de base aux premiers dispositifs d’éclairage urbain dans la seconde moitié du XIXe siècle. Enfin, en 1841, l’Anglais James Prescott Joule observa que le passage d'un courant électrique dans un conducteur métallique provoquait un dégagement de chaleur. C'est l'effet joule, vital pour les fers à repasser…

revenir au sommaire


Les effets magnétiques de l'électricité
Une seconde révolution prit naissance, dans le nord de l’Europe cette fois. En 1820, un professeur de physique de l’université de Copenhague, Hans Christian OErsted, observa qu’un fil conducteur parcouru par un courant électrique déviait une aiguille aimantée placée à proximité. Cette expérience, en même temps qu’elle révélait pour la première fois l’existence d’effets magnétiques de l’électricité, inaugura l’étude des interactions entre aimants et fils parcourus par des courants. Cette étude eut des implications théoriques considérables. Grâce aux travaux d’Ampère, elle aboutit à l’assimilation d’un AIMANT à une bobine de fil conducteur et à la réduction de tout phénomène magnétique à une interaction entre fils conducteurs. Elle montra aussi qu’un aimant pouvait déplacer un fil conducteur parcouru par un courant. Tirant parti de cet effet pour faire tourner un circuit électrique, Michael Faraday réalisa, dès 1821, ce qui peut être considéré comme l’ancêtre du moteur électrique. Il n’en resta pas là. Obsédé par l’idée de mettre en évidence l’effet réciproque de celui observé par Œrsted, c'est-à-dire la possibilité d’engendrer un courant électrique grâce au magnétisme, il parvint à montrer, en 1831, qu’un courant électrique apparaît spontanément au sein d’un circuit lorsqu’on déplace un aimant à son voisinage (ou, ce qui revient au même, lorsque le champ magnétique environnant varie au cours du temps). Ce phénomène, appelé induction électromagnétique, lui permit à la fois de réaliser le premier générateur, c’est-à-dire la première source de courant ne fonctionnant pas à partir d’une réaction chimique mais provenant d’un mouvement mécanique, et de concevoir le premier transformateur, capable d’accroître ou de diminuer une tension électrique. Ces trois éléments, le moteur, le générateur et le transformateur, allaient devenir les trois piliers de l’industrie électrique.

revenir au sommaire


Lois des circuits
La seconde moitié du XIX e siècle fut marquée par un double mouvement : pendant que l’électricité industrielle et ses applications se développaient de façon spectaculaire, les physiciens s’attachèrent à unifier l’ensemble des phénomènes observés par leurs prédécesseurs. Dans ce dernier domaine, une première étape décisive fut franchie en 1848 par l’Allemand Gustav Kirchhoff, qui démontra que les phénomènes associés aux courants électriques, qui constituent ce que l’on appelle aujourd’hui l’électrocinétique, étaient de même nature que les phénomènes électrostatiques (à cette occasion, la tension électrique, grandeur initialement purement électrocinétique, fut identifiée à la différence de potentiel électrostatique). Ce faisant, il donna à l’électrocinétique la forme qu'elle a aujourd'hui et qui sert de base à l’étude des circuits électriques. Il laissa son nom à deux lois fondamentales. La première, aussi appelée loi des nœuds, dit que toute l’intensité qui arrive en un nœud, c’est-à-dire en un point de bifurcation d'un circuit électrique, est égale à toute celle qui en part. La deuxième loi, ou loi des mailles, indique que dans une maille, c’est-à-dire une branche de circuit fermée, la somme des tensions aux bornes des différents éléments de la maille est globalement nulle. Ces lois, lorsqu’elles sont liées à une bonne connaissance des éléments qui constituent le circuit, permettent d’accéder aux caractéristiques de celui-ci (intensités parcourant ses différentes branches, tensions aux bornes de chaque élément).

revenir au sommaire


L'unification de l'électricité et du magnétisme
L’expérience d’Œrsted avait mis en évidence l’existence de liens entre électricité et magnétisme. Les deux domaines furent unifiés par l’Écossais James Clerk Maxwell en 1864, donnant naissance à l’ELECTROMAGNETISME. La principale conséquence de cette nouvelle théorie fut, du point de vue de l’électricité, l’identification de la vitesse de propagation des phénomènes électriques, qu’on avait jusqu’alors vainement tenté de mesurer, avec celle de la lumière. Il ne s’agissait d’ailleurs pas réellement d’un résultat nouveau, car Kirchhoff était déjà parvenu, par une voie purement électrocinétique, à une telle conclusion sept ans auparavant, dans le cas particulier de l’étude de la propagation de signaux électriques le long d’un fil télégraphique (l’équation à laquelle il aboutit est connue sous le nom d’équation des télégraphistes).

revenir au sommaire


L'électricité industrielle
La seconde moitié du XIXe siècle fut marquée par un développement spectaculaire de l’électricité industrielle, ou électrotechnique. La pile de Volta fut bientôt supplantée par des piles plus performantes, comme la pile Daniell (1836), la pile Bunsen (1841) ou la pile Leclanché (1864). En 1859, Gaston Planté mit au point la première pile rechargeable, ou accumulateur. Les générateurs connurent un essor analogue : l’invention de la dynamo dans les années 1870 par Zénobe Gramme préfigura l’apparition des premiers générateurs de courants alternatifs, ou alternateurs, notamment grâce aux travaux de l’ingénieur croate Nikola Tesla (qui laissa son nom à l’unité internationale du champ magnétique). Ces dispositifs, entraînés par les turbines immenses des centrales électriques (qu’elles soient thermiques, hydroélectriques ou nucléaires) constituent l’élément central de la production d’énergie électrique. Le développement des générateurs accompagna assez naturellement celui des dispositifs inverses, à savoir les moteurs électriques. Ces progrès contribuèrent au développement des applications de l’électricité tout au long du siècle dernier. Dès 1839 apparaissait en Angleterre le premier instrument de télécommunication fonctionnant à l’aide de signaux électriques transmis le long d’un fil, le télégraphe, mis au point par les ingénieurs William Cooke et Charles Wheatstone. En 1876, des signaux électriques furent pour la première fois utilisés par l’Américain Graham Bell pour transporter à distance la voix humaine : le téléphone était né. Bientôt, ce fut au tour des moyens de transport d’être électrisés : le premier tramway électrique des ingénieurs allemands Werner von Siemens et Johann Halske date de 1879 ; le premier train électrique, inventé par Thomas Edison, date de 1880. Grâce au développement des transformateurs électriques dans les années 1880 et aux hautes tensions que ces dispositifs permettaient d'obtenir, il devint possible d’étendre la distance de transport de l’électricité depuis son lieu de production jusqu'au cœur des cités (les pertes électriques causées par l’effet Joule le long d'une ligne sont d’autant plus faibles que la tension de la ligne est élevée). La manifestation la plus frappante de cette pénétration fut certainement l’essor de l’éclairage urbain, permis par la mise au point récente par Edison d’un nouveau type de lampe, la lampe à incandescence (reposant sur l’émission d’un intense rayonnement visible par un fil de matériau réfractaire amené à haute température par effet Joule).

revenir au sommaire


Les porteurs de l'électricité
L’évolution rapide de l’électrotechnique au XIX e siècle prouve qu'il n'était point besoin de connaître la nature des porteurs de charge électrique pour utiliser leurs propriétés. Celle-ci ne fut élucidée qu’à la fin du XIXe siècle et au début du XXe siècle grâce à la découverte de l’ÉLECTRON et de la structure atomique de la matière (voir ATOME). De ces découvertes, il ressortit que les phénomènes électriques ne résultaient pas d’un mystérieux fluide électrique indépendant de la matière, qu’on avait vainement tenté de caractériser des siècles durant, mais de la structure même de la matière, intrinsèquement électrique puisque deux des trois constituants élémentaires de l’atome (l’électron et le proton) sont porteurs d'une charge électrique. Bien plus, il s’avéra que ce caractère électrique explique aussi bien la cohésion de l’atome, celle de la MOLÉCULE et celle du SOLIDE. Quant au courant électrique, sa nature dépend avant tout de l’état physique considéré. Dans un solide métallique, il résulte uniquement du déplacement des électrons les moins liés à la structure cristalline, ou électrons de conduction (dans un semi-conducteur, les choses sont un peu plus compliquées, voir SEMI-CONDUCTIVITÉ). Une zone d’un solide ne peut donc apparaître chargée positivement que par déficit d’électrons. Dans un LIQUIDE, le courant électrique est assuré grâce à la présence préalable et au déplacement d’IONS (c’est-à-dire d’atomes qui ont perdu ou gagné des électrons) au sein du fluide, les ions chargés positivement (ou cations) se déplaçant en sens inverse des ions chargés négativement (ou anions). Dans un GAZ, enfin, où toutes les particules, qu’il s’agisse d’atomes ou de molécules, sont initialement neutres, les choses se passent en deux temps : l’application d’une tension électrique entre deux électrodes provoque l’ionisation partielle du gaz, autrement dit la scission des particules en ions positifs et électrons (il ne s’agit plus alors à strictement parler d’un gaz, mais de ce que l’on appelle un PLASMA). C’est le mouvement consécutif des particules chargées vers les électrodes qui constitue alors le courant électrique.

revenir au sommaire