Chris Oates, Physiker in der Abteilung Zeit und Frequenz des National Institute of Standards and Technology (NIST), erklärt.
Trotz der Unterschiede zwischen Licht und Schall wurden bei den meisten Messungen ihrer jeweiligen Geschwindigkeiten dieselben beiden grundlegenden Methoden angewendet., Die erste Methode basiert auf der einfachen Messung der Zeit, die ein Licht-oder Schallpuls benötigt, um eine bekannte Entfernung zu durchlaufen.Dividieren der Entfernung durch die Laufzeit gibt dann die Geschwindigkeit an. Die zweite Methode nutzt die Wellennatur, die diesen Phänomenen gemeinsam ist: Indem man sowohl die Frequenz (f) als auch die Wellenlänge () der sich ausbreitenden Welle misst, kann man die Geschwindigkeit der Welle aus der einfachen Wellenbeziehung, Geschwindigkeit = f×, ableiten. (Die Frequenz einer Welle ist die Anzahl der Kämme, die pro Sekunde passieren, während die Wellenlänge der Abstand zwischen den Kämmen ist)., Obwohl die beiden Phänomene diese Messansätze teilen, haben die grundlegenden Unterschiede zwischen Licht und Ton zu sehr unterschiedlichen experimentellen Implementierungen sowie unterschiedlichen historischen Entwicklungen bei der Bestimmung ihrer Geschwindigkeiten geführt.
In seiner einfachsten Form kann Schall als eine Längswelle betrachtet werden, die aus Kompressionen und Verlängerungen eines Mediums entlang der Ausbreitungsrichtung besteht., Da Schall ein Medium benötigt, durch das sich ausbreiten kann, wird die Geschwindigkeit einer Schallwelle durch die Eigenschaften des Mediums selbst (wie Dichte, Steifigkeit und Temperatur) bestimmt. Diese Parameter müssen daher in alle gemeldeten Messungen einbezogen werden. Tatsächlich kann man solche Messungen umdrehen und sie tatsächlich verwenden, um die thermodynamischen Eigenschaften des Mediums zu bestimmen (z. B. das Verhältnis spezifischer Erwärmungen).,
Die erste bekannte theoretische Abhandlung über Schall wurde von Sir Isaac Newton in seiner Principia zur Verfügung gestellt, die einen Wert für die Schallgeschwindigkeit in der Luft vorhersagte, der sich um etwa 16 Prozent vom derzeit akzeptierten Wert unterscheidet. Frühe experimentelle Werte basierten auf Messungen der Zeit, in der das Geräusch von Kanonenstrahlen eine bestimmte Entfernung zurücklegte, und waren gut bis besser als 1 Prozent des derzeit akzeptierten Wertes von 331.5 m/s bei 0 Grad Celsius. Daniel Colladon und Charles-Francois Sturm führten 1826 erstmals ähnliche Messungen im Wasser des Genfer Sees durch. Sie fanden einen Wert nur 0.,2 Prozent unter dem derzeit akzeptierten Wert von ~1.440 m / s bei 8 Grad C. Diese Messungen litten alle unter Schwankungen in den Medien selbst über große Entfernungen, so dass die meisten nachfolgenden Bestimmungen im Labor durchgeführt wurden, wo Umweltparameter besser kontrolliert werden konnten und eine größere Vielfalt von Gasen und Flüssigkeiten untersucht werden konnte. Bei diesen Experimenten werden häufig Rohre aus Gas oder Flüssigkeit (oder Stäbe aus festem Material) mit genau kalibrierten Längen verwendet. Man kann dann die Schallgeschwindigkeit aus einer Messung der Zeit ableiten, die ein Schallimpuls benötigt, um die Röhre zu durchqueren., Alternativ (und normalerweise genauer) kann man Resonanzfrequenzen der Röhre (ähnlich wie bei einer Flöte) anregen, indem man an einem Ende mit einem Lautsprecher, einer Stimmgabel oder einem anderen Wandlertyp eine Vibration induziert. Da die entsprechenden Resonanzwellenlängen eine einfache Beziehung zur Rohrlänge haben, kann man dann die Schallgeschwindigkeit aus der Wellenbeziehung bestimmen und Korrekturen für die Rohrgeometrie für Vergleiche mit Geschwindigkeiten im freien Raum vornehmen.
Die Wellennatur des Lichts unterscheidet sich stark von der des Klangs., In seiner einfachsten Form ist eine elektromagnetische Welle (wie Licht, Radio oder Mikrowelle) transversal und besteht aus oszillierenden elektrischen und magnetischen Feldern, die senkrecht zur Ausbreitungsrichtung stehen. Obwohl das Medium, durch das sich Licht bewegt, seine Geschwindigkeit beeinflusst (es um den Brechungsindex des Materials reduziert), kann sich Licht auch durch ein Vakuum bewegen und bietet so einen einzigartigen Kontext für die Definition seiner Geschwindigkeit., Tatsächlich ist die Lichtgeschwindigkeit in einem Vakuum, c, ein grundlegender Baustein von Einsteins Relativitätstheorie, da sie die Obergrenze für Geschwindigkeiten im Universum festlegt. Infolgedessen erscheint es in einer Vielzahl von physikalischen Formeln, von denen die vielleicht berühmteste E=mc2 ist. Die Lichtgeschwindigkeit kann somit auf verschiedene Arten gemessen werden, war aber aufgrund ihres extrem hohen Wertes (~300.000 km/s oder 186.000 mi/s) zunächst wesentlich schwieriger zu messen als die Schallgeschwindigkeit., Frühe Bemühungen wie Galileos Beobachterpaar, das auf gegenüberliegenden Hügeln sitzt und Laternen hin und her blinkt, fehlten an der Technologie, um die Laufzeiten von nur wenigen Mikrosekunden genau zu messen. Jahrhundert zu einer Bestimmung der Lichtgeschwindigkeit mit einer Unsicherheit von nur 1 Prozent. Bessere Messungen erforderten jedoch eine Laborumgebung., Louis Fizeau und Leon Foucault konnten aktualisierte Versionen des Galileos-Experiments unter Verwendung genialer Kombinationen rotierender Spiegel (zusammen mit verbesserter Messtechnik) durchführen und eine Reihe schöner Messungen der Lichtgeschwindigkeit durchführen. Mit noch weiteren Verbesserungen, Albert A. Michelson durchgeführt Messungen gut zu fast einem Teil in zehntausend.
Die Messtechnik der Lichtgeschwindigkeit änderte sich dramatisch mit einer Bestimmung hier bei NIST im Jahr 1972., Diese Messung basierte auf einem Helium-Neon-Laser, dessen Frequenz durch eine Rückkopplungsschleife festgelegt wurde, um der Frequenz zu entsprechen, die der Spaltung zwischen zwei quantisierten Energieniveaus des Methanmoleküls entspricht. Sowohl die Frequenz als auch die Wellenlänge dieses hochstabilen Lasers wurden genau gemessen, was zu einer 100-fachen Verringerung der Unsicherheit für den Wert der Lichtgeschwindigkeit führte. Diese Messung und nachfolgende Messungen auf der Grundlage anderer atomarer / molekularer Standards wurden nicht durch die Messtechnik, sondern durch Unsicherheiten in der Definition des Zählers selbst begrenzt., Da klar war, dass zukünftige Messungen ähnlich begrenzt sein würden, beschloss die 17.Konferenz Gnrale des Poids et Mesures (Allgemeine Konferenz über Gewichte und Maße) 1983, das Messgerät hinsichtlich der Lichtgeschwindigkeit neu zu definieren. Die Lichtgeschwindigkeit wurde somit konstant (definiert als 299.792.458 m/s), nie wieder gemessen werden., Infolgedessen ist die Definition des Zählers direkt (über die Beziehung c= f×) mit der der Frequenz verbunden, die bei weitem die am genauesten gemessene physikalische Größe ist (derzeit haben die besten Cäsium-Atomuhren eine Bruchfrequenzunsicherheit von etwa 1×10-15).
Schreibe einen Kommentar